Hvordan virksomheder reagerer på stigningen i AI-indhold
På grund af disse problemer arbejder store teknologivirksomheder på at forbedre mediernes ægthed og oprindelse. Som en del af den årlige Build-konference annoncerede Microsoft, at Bing Image Creator og Designer-værktøjerne nu vil have nye funktioner til medieoprindelse.
Brugere vil kunne tjekke, om billeder eller videoer er lavet af AI ved hjælp af kryptografiske metoder, der omfatter oplysninger om, hvor indholdet kom fra.
Men for at dette system kan fungere, skal forskellige platforme acceptere specifikationen Coalition for Content Provenance and Authenticity(C2PA).
På samme måde har Meta udgivet et værktøj kaldet Meta Video Seal, der kan tilføje usynlige vandmærker til videoklip lavet af AI. Dette open source-værktøj er beregnet til at fungere med eksisterende software uden problemer, hvilket gør det lettere at finde indhold, der er lavet af AI. Video Seal lover at være modstandsdygtig over for almindelige redigeringer som sløring og beskæring, i modsætning til ældre vandmærketeknologier, der havde problemer med videokomprimering og -manipulation.
Problemer og begrænsninger
Selv med disse forbedringer er der stadig problemer med at få mange mennesker til at bruge disse teknologier. Mange udviklere tøver måske med at skifte fra eksisterende proprietære løsninger til open source-muligheder som Video Seal.
Meta planlægger at afholde workshops på større AI-konferencer og lave et offentligt leaderboard, der sammenligner forskellige vandmærkemetoder for at få flere til at arbejde sammen.
De vandmærkemetoder, vi har nu, er heller ikke altid stærke eller effektive nok, når det drejer sig om videoindhold.
To hovedtilgange til at bekæmpe AI-genereret indhold
I kampen mod AI-genereret indhold er der opstået to forskellige strategier:
- Vandmærkning (præventiv tilgang):
- Fungerer ved at tilføje usynlige signaturer til indhold i skabelsesøjeblikket
- Fungerer som et digitalt certifikat, der viser “dette er lavet af AI”
- Værktøjer som Meta Video Seal og Microsofts proveniensfunktioner repræsenterer denne tilgang
- Den største fordel er øjeblikkelig identifikation af AI-indhold
- Opdagelsesværktøjer (analytisk tilgang):
- Analyserer eksisterende indhold for at afgøre, om det er AI-genereret
- Leder efter mønstre og karakteristika, der er typiske for AI-skabt indhold
- Særligt nyttigt for indhold, der ikke var markeret ved oprettelsen
- Disse værktøjer udgør vores anden forsvarslinje
Begge tilgange er nødvendige, da de supplerer hinanden: Vandmærkning forhindrer misbrug, mens detektionsværktøjer hjælper med at identificere umærket indhold.
Registreringsværktøjer og -teknologier
AI-genereret indhold kan findes på flere måder end blot ved hjælp af vandmærkningsteknologier. Nye detektionsværktøjer bruger komplekse algoritmer til at se på både tekst- og billedindhold.
- Originalitet , deep learning-algoritmer bruges af AI til at finde mønstre i tekst, der er genereret af AI.
- GPTZero ser på sproglige strukturer og ordfrekvenser for at skelne mellem indhold, der er skrevet af mennesker, og indhold, der er skabt af maskiner.
- CopyLeaks bruger N-grams og syntakssammenligninger til at finde små ændringer i sproget, som kan være tegn på AI-forfatterskab.
Disse værktøjer skal give brugerne præcise meninger om, hvor ægte indholdet er, men hvor godt de fungerer, kan variere meget.
Som konklusion
Efterhånden som generativ AI udvikler sig, bliver det stadig vigtigere at beskytte den digitale autenticitet. Microsoft og Meta går forrest med banebrydende standarder for indholdsautenticitet og verifikation af mediernes oprindelse.
For at bekæmpe deepfakes effektivt har vi brug for, at hele branchen indfører disse værktøjer, og at samarbejdet mellem teknologivirksomheder styrkes. Det digitale indholds fremtidige integritet afhænger af, at detektionsteknologierne udvikler sig hurtigere end AI-genereret bedrag.
Faktisk har vi for nylig dækket, hvordan YouTube tager lignende skridt ved at introducere nye AI-detektionsværktøjer til skabere og brands. Deres tilgang omfatter syntetisk stemmeidentifikation og AI-genererede ansigtsgenkendelsesteknologier, hvilket yderligere viser, hvordan store platforme arbejder på at beskytte indholdsautenticitet i AI-æraen.