Wat leren Indiase journalisten ons over de strijd tegen deepfakes in verkiezingstijd?

Analyse

‘We kunnen niet langer alleen op onze menselijke skills vertrouwen’

Wat leren Indiase journalisten ons over de strijd tegen deepfakes in verkiezingstijd?

Andrew Deck / Nieman Lab

03 juni 202424 min leestijd

De verkiezingen in India zijn na meer dan een maand bijna afgelopen. Voor Indiase journalisten vormden ze een belangrijke test. Want hoe maak je precies het onderscheid tussen stemklonen en video-imitaties en echte audio en beelden van politici? Het antwoord op die vraag kan weleens heel belangrijk worden voor journalisten en redacties over de hele wereld.

In oktober 2023 stootte Karen Rebelo op een video die viraal ging. Daarin was Kamal Nath, de voormalige eerste minister van de centraal Indiase staat Madhya Pradesh, te zien. Als factchecker is Rebelo het gewoon om videocontent van prominente Indiase politieke figuren te bekijken. Maar nu viel haar iets op.

In de veertig seconden durende clip leek het alsof Nath kiezers aansprak vanop een spreekgestoelte. Als zijn partij de volgende verkiezingen zou winnen, zou hij de populaire staatszorg ladli behna, die werd ingevoerd door de regerende Bharatiya Janata Party (BJP), opschorten. Wanneer Rebelo de commentaren bij de video bekeek, bleken die ongebruikelijk en verdacht positief tegenover de BJP.

Rebelo is de adjunct-hoofdredacteur van Boom Live, een medium gericht op factchecking in Mumbai. ‘Ik zei mijn collega’s dat er maar twee mogelijkheden waren: ofwel is dit ‘s werelds beste imitator, ofwel is het een stemkloon’, vertelt Rebelo via WhatsApp. ‘Een derde mogelijkheid bestaat niet.’

Het ging om een deepfakeaudio, zegt ze. Dat is met AI gegenereerde audio die op een overtuigende manier de stem van, in dit geval, Nath imiteert.

Alleen, Rebelo wist niet hoe dit te bewijzen. ‘Als factchecker kan je niet langer alleen op menselijke skills vertrouwen.’ De bestaande strategieën, waarbij onder meer gebruikgemaakt wordt van reverse image search of bepaalde details in een beeld nauwgezet worden onderzocht, schoten tekort om de video van Nath te onderzoeken.

Getraind menselijk oog

Experten artificiële intelligentie zijn het er grotendeels over eens dat de proliferatie van toegankelijke AI-toepassingen van de afgelopen twee jaar ook zorgde voor een proliferatie van politieke deepfakes. Dat geldt voor foto, audio en video-items.

Sommige content is zo gesofisticeerd dat een getraind menselijk oog, of oor, in combinatie met de bestaande factcheckmethodes niet meer genoeg is om vervalsing te spotten. Om dat te kunnen is er nood aan forensische analyse, waarbij algoritmische modellen een clip analyseren en op zoek gaan naar tekenen van manipulatie.

Zoals vele nieuwsredacties in India, waren Rebelo en haar collega’s erop gebrand om uit te zoeken of er toepassingen bestonden die ze hiervoor konden gebruiken.

‘Op dat moment hadden we geen echt betrouwbare detectietoepassing. Ik zocht, maar vond niets dat ik volledig kon vertrouwen’, herinnert ze zich.

Verschillende gratis onlinetools bleken geen succes. Het duurde uiteindelijk enkele maanden, met meerdere afgewezen verzoeken, tot ze iemand vond die bereid was kosteloos een volledige forensische analyse uit te voeren op de audioclip van Nath.

Uit de analyse van Siwei Lyu, professor aan de universiteit van Buffalo, bleek dat de audio effectief fake was. Ook de andere clips van politici uit dezelfde staat die de ronde deden op sociale media bleken fake. Boom Live publiceerde het uiteindelijke onderzoek op 18 januari.

Nieuwsredacties in het hele land trachtten de afgelopen maanden een werkwijze uit te bouwen om deepfakes te detecteren. Net zoals Rebelo ondervond, is het belangrijk om een netwerk uit te bouwen met academische onderzoekers, ngo’s die zich focussen op desinformatie en ontwikkelaars van commerciële AI-detectietools, zowel in India als daarbuiten.

‘Op dit moment is het beheersbaar, omdat het één potentiële deepfake per dag is. Maar wat als het er meer op een dag worden?’

Bezorgdheid over de algemene Indiase verkiezingen creëerden het momentum daarvoor. Op 19 april begon de stemming voor wat de grootste verkiezing in de geschiedenis wordt geacht, met meer dan 1 miljard stemgerechtigde kiezers. De Indiase verkiezingen zijn zo groot dat ze opgedeeld werden in verschillende fases, waarvan de laatste fase plaatsvond op 1 juni. Eén van de kandidaten op de stembrief is eerste minister Modi, lid van de BJP, die op zoek is naar een derde ambtstermijn.

India mag dan wel de grootste verkiezing van het jaar organiseren, het is verre van de laatste. In 2024 houden meer dan 60 landen grote verkiezingen, waarbij meer dan de helft van de wereldbevolking naar de stembus trekt. In Mexico (2 juni) en Zuid-Afrika (29 mei) vonden ook net algemene verkiezingen plaats. Binnenkort volgen de EU-parlementsverkiezingen en op 5 november de presidentsverkiezingen in de VS, waarvan verwacht wordt dat die opnieuw geplaagd zullen zijn door desinformatie.

In India worden momenteel de bestaande toepassingen en infrastructuur getest voor deepfakedetectie. De strategieën die Indiase journalisten ontwikkelden geven een voorsmaakje van de uitdagingen van andere nieuwsredacties wereldwijd.

‘Op dit moment is het beheersbaar, omdat het één potentiële deepfake per dag is. Maar wat wanneer het er meer op een dag worden? Of meerdere per uur?’ vroeg Rebelo zich af aan het begin van de verkiezingsperiode.

Meertalig

Academici die onderzoek voeren naar artificiële media waren tijdens deze Indiase verkiezingen een cruciale bron voor reporters zoals Rebelo. Eén van die bronnen was het lab van Mayank Vatsa aan Indian Institute of Technology (ITT) in Jodhpur. Vatsa zag de verzoeken voor tests van journalisten afgelopen jaar binnendruppelen. Al snel werd het een constante stroom, met één of twee potentiële deepfakes per week in zijn inbox.

Vatsa besefte dat de tijd die nodig was om aan de verzoeken te kunnen voldoen en contact te houden met de journalisten niet meer genoeg was. Daarom lanceerde hij in februari Itisaar, samen met de Indiase startup DigitID. In het online webportaal kunnen gebruikers rechtstreeks bestanden opladen. Een deel van het verificatieproces wordt geautomatiseerd.

Ondanks zijn korte bestaan, heeft Itisaar al meer dan 80 geregistreerde gebruikers, van wie ongeveer 40% journalisten. Tot nu toe checkte het meer dan 500 ingediende samples, zegt Vatsa.

‘Data zijn de nieuwe olie, niet? Wat voor olie ga je in je motor steken?’

Een eenvoudig rapport geeft mee of een media-item een deepfake is. Dat gebeurt aan de hand van een percentage van betrouwbaarheid. Vatsa vertelt dat journalisten vaak vragen naar meer gedetailleerde informatie en uitgebreide rapporten, zodat ze die kunnen gebruiken om hun factcheck te versterken alvorens ze een verhaal publiceren.

Een audioclip van een minuut lang kan Itisaar opdelen in segmenten van vier seconden. Daarin duiden ze aan waar de subclips aangepast zijn. Sommige deepfakeaudio’s gebruiken echte audio-opnames en zetten er AI-gegenereerde stukken tussen. ‘We noemen dit een halve waarheid’, aldus Vatsa.

Itisaar kan per frame aanduiden op welk deel van de video het verificatiemodel focust. Als het model zich vooral richt op de regio van de lippen, is dat een aanwijzing dat de mond wijzigde met grote kans op een synchronisatie van de lippen, legt Vatsa uit. Als het model zich op één gezicht in een groep focust, is dat een aanwijzing dat er een gezichtsruil gebruikt is. ‘We kunnen zo een interpretatie verkrijgen en die aandachtspunten doorspelen aan de journalist.’

Toen video’s van Bollywoodacteurs Aamir Khan en Ranveer Singh waarin ze Modi bekritiseerden in de eerste week van de verkiezingen viraal gingen, analyseerde Boom Live de clips via Itisaar. Uit het rapport bleek dat AI-gegenereerde audio gebruikt was om de valse kritieken op echte videobeelden te plaatsen. The Indian Express, NDTV, Hindustan Times en andere grote nationale nieuwsagentschappen deelden de bevindingen van Boom Live.

Er zijn opvallende voordelen voor reporters die samenwerken met lokale onderzoekers zoals Vatsa. ‘Wat audio betreft, is onze aanpak meertalig is. Wat video en foto’s betreft, houdt het ook rekening met verschillende huidskleuren in de Indiase context.’

Taal blijft een uitdaging. Nationale nieuwsredacties kunnen de middelen hebben om nauwgezet politieke desinformatie te monitoren in het Hindi, Engels of Bengaals, maar dat geldt niet voor alle 22 officiële talen in India, en evenmin voor de meer dan 120 grote regionale talen die gesproken worden in het land.

Vatsa’s team van ITT verzamelde een database van 4,1 miljoen deepfakeaudio’s om zijn tools te trainen. Daarin wordt rekening gehouden met Hindi, Engels en 13 andere talen die gesproken worden op het Indiase subcontinent, zoals Tamil, Telugu en Urdu. De dataset van deepfakevideos bevat meer dan 130.000 samples, waarin meestal Indiërs worden afgebeeld.

‘Data zijn de nieuwe olie, niet? Wat voor olie ga je in je motor steken?’ Vatsa stelt de efficiëntie van andere detectietools in vraag. Vaak baseren die zich alleen op Engelstalige datasets, of blijft het gelimiteerd tot westerse databronnen. ‘Om het probleem op te lossen wat diversiteit wat taal betreft, in een meertalige context, moet ik die olie in mijn motor steken.’

Vorige maand ontving Itisaar een video in een regionale taal, die alleen gesproken wordt in één Zuid-Indiase staat. Wanneer Itisaar de video testte via het model dat alleen in het Engels is getraind, werd de video authentiek geacht. Wanneer de video in het meertalige model werd getest, volgde een correcte identificatie als deepfake. Zo ziet Vatsa uit eerste hand wat de tekortkomingen zijn van een Engels gedomineerd detectiemodel.

‘Ik ga niet beweren dat er geen taal-agnostisch model kan worden gemaakt’, zegt Vatsa. ‘Maar als je diversiteit in taal beschikbaar hebt om modellen te trainen, dan kan je betere prestaties en een hoger vertrouwen krijgen.’

De modellen van Itisaar, getraind in 15 talen, registreren bijna allemaal met meer dan 80% accuraatheid deepfakes, zegt Vatsa. In sommige gevallen, zoals het Hindi en Engels, stijgt dat percentage naar 90 tot 95%.

‘Voor veel tools die beschikbaar zijn weten we niet welke technologie is gebruikt en hoe divers de gebruikte databases waren. Maar die diversiteit, met de bevolking waarnaar gekeken wordt, is waarschijnlijk heel verschillend dan de bevolking waar ik nu naar kijk.’

Buitenlandse expertise

Hoewel Itisaar een voorbeeld is van de voordelen van het gebruik van detectiemodellen op eigen bodem, vinden veel reporters in India hun sterkste partnerschappen in het buitenland.

‘De Indiase organisaties waarmee ik rechtstreeks contact opnam, wilden off the record wel forensische analyses uitvoeren, maar niet on the record, vrezend voor de politieke reactie.’

Nilesh Christopher, een onafhankelijke journalist uit Bangalore, publiceerde een reeks verhalen bij Al Jazeera die de toename van AI-gegenereerde videos van overleden Indiase politici blootlegde. Ze worden in toenemende mate gebruikt voor posthume verkiezingssteun.

Voor Wired onderzochten Christopher en Varsha Bansal telefoongesprekken. Ze ontdekten dat meer dan 50 miljoen AI-gegenereerde telefoongesprekken met een stemkloon gemaakt werden in de twee maanden voor de verkiezingen, als een deel van een deepfakeindustrie bedoeld om meer kiezers te bereiken.

Christopher beaamt wat andere journalisten vertellen. Betrouwbare detectietools vinden om dit werk te doen is niet makkelijk. Eén reden is politieke zelfcensuur. ‘De Indiase organisaties waarmee ik rechtstreeks contact opnam, wilden off the record wel forensische analyses uitvoeren, maar niet on the record, vrezend voor de politieke reactie.’ Dat gold voor zowel AI-startups als academische onderzoeksinstellingen in India.

De afgelopen jaren ondervonden politieke journalisten en factcheckers toenemende controle en censuur door de regering-Modi. In 2022 arresteerde de politie van Delhi Mohammed Zubair, de oprichter van de prominente factcheckingsite Alt News vanwege een socialmediapost. Recenter legde de overheid journalisten een verbod op voor socialemediaplatformen zoals X en begon het de controversiële uitrol van een gecentraliseerd overheidsorgaan voor factchecking.

‘Eens de startups zich bezighouden met een specifieke politieke kwestie, lopen ze het risico dat de politicus achter hen aankomt’, vertelt Christopher. De weerstand van lokale Indiase startups om zich on the record op politieke deepfakechecks te richten, noemt de journalist ‘een systemische kwestie’.

‘Geen van hen zouden detectie uitvoeren als het om controversiële verkiezingskwesties gaat met een hoge inzet’, gaat hij verder. ‘Dat verhindert journalisten en hindert hun werk, terwijl we net de waarheid proberen te brengen.’

Daarom zien veel reporters zich genoodzaakt expertise in het buitenland te zoeken. Christopher werkt nauw samen met Witness, een nonprofit in Brooklyn dat het gebruik van video en technologie inzet om mensenrechten te verdedigen. Vorig jaar lanceerde Witness zijn Deepfake Rapid Response Force, een initiatief met het doel om journalisten te helpen om de ‘moeilijkste gevallen van deepfake te behandelen’.

Voor één van de onderzoeken van Christopher, gepubliceerd door Rest of World, analyseerde Witness twee audioclips van een politicus uit de zuidelijke staat Tamil Nadu, die zijn eigen partijgenoten van corruptie beschuldigde. De man beweerde dat ze AI-gegenereerd waren. De Deepfake Rapid Response Force voerde testen uit en bracht Tamilsprekende experten binnen om de opnames te beoordelen. Eén van de clips werd echt beschouwd door meerdere bronnen. De claim dat het deepfake was, bleek een excuus om geen gezichtsverlies te lijden.

Initiatieven zoals deze, gerund door westerse nonprofits, zijn van groot belang voor journalisten die momenteel over deepfakes in verkiezingstijd willen berichten. Maar er zijn nog aanzienlijke nadelen.

Het volledige rapport van Deepfake Rapid Response Force nam drie weken in beslag. ‘Voor iemand uit het Globale Zuiden, zonder makkelijke toegang tot deze tools is die tijd te lang, zelfs wanneer organisaties zoals Witness helpen, zegt Christopher. Er zijn maar weinig academische of nonprofitpartners die het kunnen klaarspelen in minder dan enkele dagen.

Kunst van triage

Academici bevestigden dat ze overspoeld worden met verzoeken van Indiase journalisten. Hun tijd en de middelen om dit pro bono uit te voeren is beperkt. Dat betekent dat terwijl de verkiezing plaatsvindt, er constant getrieerd moet worden over welke potentiële deepfakes prioriteit zijn.

‘Ik probeer dit te beperken tot situaties met een hoge inzet’, vertelt Hany Farid, een leidende onderzoeker in artificiële intelligentie aan de universiteit van California, Berkeley. Momenteel zegt Farid dat zijn team slechts een of twee checks per dag kan aannemen, ondanks de aanvragen die binnenlopen uit de hele wereld.

Het proces is geen kwestie van maar op een knop te drukken. Onderzoekers moeten hun forensische aanpak vaak aanpassen of een reeks verschillende testen uitvoeren. ‘De haaien die na een onweer in Central Park zwemmen kunnen me niets schelen,’ zegt Farid. ‘Ik probeer mezelf te beperken tot de zaken die een impact hebben en waar tijdsdruk bij komt kijken.’

Hij geeft wel toe dat de doorlooptijden voor journalisten een chronische uitdaging zijn. ‘Inhoudelijke verificatie is een probleem, maar ook snelheid en volume zijn dat, en mogelijk zelfs het echte probleem.’ Dat is vooral zorgwekkend omdat enkele snode deepfakes in verkiezingstijd opgemerkt zijn in de 48 uur voor een belangrijke verkiezingsdag.

In februari verscheen een audio clip van de voormalige Pakistaanse eerste minister Imran Khan. Daarin maande een AI-gegenereerde stem die Khan imiteert kiezers aan om de verkiezingen te boycotten en beweerde ze dat de stemming gemanipuleerd was. In dit geval werd de echtheid van de clip snel ontkracht, want Khan zit al sinds augustus 2023 in de cel.

Een gelijkaardig incident vond plaats in januari in Bangladesh. Op de verkiezingsdag circuleerden twee AI-gegenereerde video’s van onafhankelijke kandidaten op Facebook. De kandidaten leken zich terug te trekken uit de race en de oppositie te steunen.

De incidenten doen de vraag rijzen wat er in India zal gebeuren wanneer op korte termijn een factcheck nodig is die geen dagen of weken kan duren. Omdat de tijd van de kleine poule academici beperkt is, werken sommige nieuwsredacties nu met commerciële detectiemiddelen om het probleem te verhelpen.

Tussen de duizenden gratis tools, duikt Hive Moderation geregeld op. Omdat het een gratis dashboard voor basic foto-, audio- en videodetectie aanbiedt, naast betalende diensten. AI or Not biedt tien gratis fototesten aan per maand.

Voor deepfakeaudio’s ontwikkelde Eleven Labs, een bekend AI-audiobedrijf, een eigen gratis detectietool: AI Speech Classifier. Het detecteert alleen of Eleven Labs zelf gebruikt werd om een opname te maken, dus andere deepfakeaudio’s worden door de tool niet opgemerkt.

Eerder vorige maand kondigde OpenAI aan een gelijkaardige detectietool te ontwikkelen voor foto’s die gemaakt worden met Dall-E. De tool moet nog gelanceerd worden. Vorig jaar lanceerde OpenAI een gelijkaardige tool voor AI-gegenereerde tekst, maar die werd na zes maanden al opgedoekt vanwege de lage nauwkeurigheid.

‘Ik verkies academische instituten. Ik stel me geen enkele vragen, omdat de kwaliteit van hun analyses veel robuuster is dan eender welke commerciële tool die er bestaat’, zegt Rebelo. In het verleden probeerde Boom Live gratis en publiekelijk beschikbare AI-fotodetectie te gebruiken, maar met gemengde resultaten. Op een moment moest Rebelo een artikel rechtzetten omwille van een fout resultaat van zo’n detectietool voor AI-beelden. Die ervaring liet sporen na.

‘Wanneer je een oplossing bouwt, moet je voorzichtig zijn vanwege vijandige aanvallen.’

Gezien de beperkte werkruimte van academici investeerde Boom Live in een abonnement op Loccus, een tool die deepfakeaudio’s checkt en onder meer breed gebruikt wordt in de banksector om de stem van klanten te controleren. Loccus kende een snelle groei, vooral nadat het een samenwerking met Eleven Labs was aangegaan om betere detectietools te bouwen.

‘We zagen een duidelijke toename in aanvragen van journalisten’, vertelt Manel Terraza, CEO en oprichter van Loccus. De meeste kleine factcheckingorganisaties, ook in India, kozen voor een maandelijks abonnement. Aan grotere mediabedrijven verkoopt Loccus doorgaans zijn API, die nieuwsredacties vervolgens gebruiken voor op maat gemaakte tools waarbij elke minuut van verwerkte audio wordt aangerekend. Loccus tekende zo’n deal met het Franse Agence France-Presse (AFP).

Er is weinig informatie over de producten van Loccus beschikbaar voor potentiële klanten, zoals de prijscategorieën voor journalisten. De meeste abonnementen voor deepfakedetectietools op de markt, zoals van concurrenten zoals Reality Defender en Deep Media, vereisen persoonlijke consultaties voor je je kan inschrijven.

‘Wanneer je een oplossing bouwt zoals de onze, moet je voorzichtig zijn vanwege vijandige aanvallen’, legt Terraza uit. Mensen met slechte bedoelingen zouden Loccus kunnen gebruiken om deepfakes te ontwikkelen die de detectie kunnen omzeilen.

Enkele journalisten vertellen dat de kostprijs van Loccus en gelijkaardige producten al snel onbetaalbaar kan worden voor bestaande redacties of onafhankelijke journalisten zoals Christopher. ‘Ik sprak met enkele websites die me beloofden een antwoord te geven. Maar hun inhoud zat achter betaalmuren, wat opnieuw voor toegangsproblemen zorgt voor een journalist met een deadline’, vertelt hij.

De “oorlogskamer”

Indiase journalisten lijken wel een oplossing gevonden te hebben voor de hoge kostprijs door redactiemiddelen te bundelen. De Misinformation Combat Alliance (MCA) is één manier waarop nieuwsorganisaties in India samenwerken om zowel capaciteitsproblemen als kostprijs aan te pakken bij detectie van deepfakes. De MCA werd in 2022 opgericht en bestaat vandaag uit 12 Indiase factcheckingorganisaties, zoals Boom Live, Logically Fact, India Today, and The Quint.

In februari werd een WhatsApp-tiplijn geopend die de Deepfake Analysis Unit (DAU) heet. De lijn is open voor iedereen, ook journalisten. Operationele kosten worden mee gedekt door directe financiering van Meta, dat WhatsApp bezit en lange tijd kritiek kreeg omdat het de stroom van politieke desinformatie in India mogelijk maakt.

Van de BJP wordt vermoed dat ze 5 miljoen WhatsAppgroepen zou beheren in het hele land.

WhatsApp is het meest populaire berichtenplatform in India. Omdat berichten end-to-end versleuteld zijn, kan valse informatie doorgestuurd worden tussen privégroepen zonder makkelijke detectie ervan. Van de BJP wordt vermoed dat ze 5 miljoen WhatsAppgroepen zou beheren in het hele land.

DAU heeft drie voltijdse medewerkers in India die de binnengelopen tips via WhatsApp triëren. Als het team denkt een deepfake voor zich te hebben, begint een tweevoudig authentificatieproces.

Eerst bericht één van de DAU-partners over de waarheidsgetrouwheid van een clip op basis van de ouderwetse manier: de maker van het item wordt opgebeld. Als die geïdentificeerd kan worden, worden eenvoudige reverse image searches uitgevoerd en wordt de informatie uit de clip gecrosscheckt.

Ondertussen wordt het item ook doorgespeeld aan één van de forensische partners binnen DAU. Het gaat dan om detectielabs aan academische instellingen, zoals het lab van Hany Farid aan UC Berkeley en het lab van Mayank Vatsa aan ITT Jodhpur. Maar ook de ontwikkelaars van commerciële authentificatiemiddelen zoals IdentifAI, Contrails AI, en DeepTrust maken er deel van uit.

Op dit moment werkt DAU alleen met video- en audioclips in het Engels, Hindi, Tamil en Telugu. Foto’s of clips in andere regionale talen worden niet onderzocht.

‘DAU is een centraal coördinerend knooppunt tussen verschillende forensische partners. Wat eerder gebeurde was dat factcheckers individuele partnerschappen oprichtten met labs en startups. Dat was niet efficiënt’, zegt Tarunima Prabhakar, medeoprichter van Tattle Civic Technologies uit Delhi. De organisatie is lid van de MCA en nam een centrale rol in bij de oprichting van de tiplijn van DAU.

Werken als collectief levert nog voordelen voor nieuwsredacties, zegt Prabhakar. ‘Grote AI-bedrijven zouden niet spreken met één specifiek partner uit India, maar als het gaat om een alliantie van 12 factchecking organisaties spreken ze wel met ons.’

Dat geldt ook voor academici. ‘We hebben de neiging om te werken met koepelorganisaties. Als AP bijvoorbeeld een factcheck uitvoert, dan krijgen honderden organisaties die’, zegt Farid van Berkeley. MCA is één van de koepelorganisaties waarmee hij nauw samenwerkt.

Politieke deepfakes kunnen maar zo ver reiken als ze worden gedeeld via groepschats, tijdlijnen en op maat gemaakte pagina’s.

DAU kan biedt ook onderhandelingsruimte bij commerciële detectietools, waarvan sommigen extra kosten aanrekenen wanneer een bepaalde hoeveelheid checks in een maand wordt overschreden. Met een degelijke coördinatie worden de redacties die deel uitmaken van DAU alleszins niet meer ieder apart aangerekend voor de check van hetzelfde item.

DAU is geen wonderoplossing voor het spotten van deepfakes in het complexe Indiase informatiesysteem, maar het is een innovatief model voor multisectorale samenwerking en samenwerking tussen redacties. Het is ook een model dat andere redacties in de wereld kunnen overnemen, om over deepfake-inhoud te berichten tijdens verkiezingen.

Het is een uitdaging en ontmoedigend om deepfakes te vinden tussen de stortvloed aan politieke informatie in India. De middelen om ze te detecteren zijn nieuw. Maar de dynamieken in het terrein zijn, helaas, meer dan bekend.

‘Het grotere plaatje zijn de ouderwetse sociale media: Twitter en YouTube, Facebook en TikTok, Telegram en WhatsApp’, zegt Farid. Politieke deepfakes kunnen maar zo ver reiken zolang ze worden gedeeld via groepschats, tijdlijnen en op maat gemaakte pagina’s.

‘Als jij een deepfake naar vijf vrienden mailt, ben ik niet ongerust. Het gaat er niet alleen om dat deze deepfakes toegelaten worden op de platformen, maar dat ze ook worden gepromoot en via algoritmes uitvergroot, beloond en een verdienmodel worden’, voegt hij toe. ‘Het is een eeuwenoud verhaal dat niet over generatieve AI gaat.’

Dit artikel werd oorspronkelijk gepubliceerd bij Nieman Lab.