
Sinds de escalatie tussen Israël en Iran is er online een grote hoeveelheid desinformatie losgekomen. Op sociale media circuleren veel nepfoto’s en -video’s, meestal gemaakt met kunstmatige intelligentie (AI).
Dat blijkt dagelijks op de NOS-redactie, waar specialisten op het gebied van open source-onderzoek (OSINT) tientallen beelden eruit filteren waarvan de echtheid vaak niet is vast te stellen of die zelfs duidelijk nep zijn. Veruit de meeste desinformatie over de oorlog tussen Israël en Iran wordt gedeeld op X.
Die constatering doen de collega’s van de BBC ook. De Britse omroep schreef over tientallen video’s die de effectiviteit van Irans reactie op Israëlische aanvallen proberen te benadrukken. Daarnaast zijn er nepvideo’s gemaakt en gedeeld over de nasleep van aanvallen op Israëlische doelen. Ook pro-Israëlische accounts hebben online desinformatie gedeeld.
Ook een expert op het gebied van AI zei tegen de BBC dat het de eerste keer is dat AI op een dergelijke schaal wordt ingezet tijdens een conflict. De “superverspreiders” van Iraanse desinformatie op X groeien hard en hebben soms officiële namen. Ook hebben ze allemaal blauwe vinkjes, maar het is niet duidelijk door wie ze worden beheerd.
Waar en wanneer?
De OSINT-specialisten van de NOS zijn in de kern altijd bezig met twee vragen: waar en wanneer is het beeld gemaakt? Dat doen ze door omgevingskenmerken te verifiëren, tijdsbepalingen vast te stellen of beeld te vergelijken met andere beelden op het internet.
Ook hebben ze in de afgelopen dagen een lijst met X-accounts aangelegd waarop steevast gemanipuleerd beeld over de oorlog tussen Israël en Iran wordt gedeeld. Als beelden met AI zijn gemaakt of bewerkt, zie je dat niet zelden meteen met het blote oog. Maar steeds vaker is er meer voor nodig om manipulaties eruit te filteren.
Nepvideo van gevangenispoort
In de meeste gevallen lukt dat, maar eerder deze week ging het toch mis met één van de video’s van de Israëlische aanval op een gevangenis in Iran. Op bewakingsbeelden zou de explosie van de toegangspoort tot de beruchte Evin-gevangenis in Teheran te zien zijn.
In eerste instantie beoordeelden we – net als bijvoorbeeld RTL Nieuws, of de New York Times en de BBC – het fragment van de raketinslag als echt. Maar in tweede instantie rees twijfel en hebben we de video opnieuw tegen het licht gehouden. Conclusie: de Israëlische aanval op de Iraanse gevangenis is echt gebeurd, maar dit specifieke beeldmateriaal is door AI gegenereerd.
Naast de eerder genoemde elementen, speelt ook context een grote rol bij het controleren van beeldmateriaal. In dit geval stond de aanval zelf wel al vast, en was er ook (wel terecht) geverifieerd beeld van na de explosie. Dat, in combinatie met een relatief ‘goede’ bewerking, heeft ertoe geleid dat dit beeld er doorheen is geglipt.
Achteraf dus onterecht. Het blijkt te gaan om een oude foto van de gevangenispoort, gebruikt om met AI een video te genereren. We hebben onze online video van de aanval aangepast en het nepbeeld verwijderd.
Zien is niet meer altijd geloven
Dit fragment toont het gevaar aan van AI voor waarachtige nieuwsvoorziening. Want ooit was het toch: juist zien is geloven. Dat is niet meer. Wij bij de NOS zijn ons daarvan zeer bewust. Deze video toont maar weer eens aan hoe terecht dat is. En ook hoe scherp we moeten zijn.
Dat vergt veel inspanning in een tijd waarin het nieuws complex is én de AI-ontwikkelingen razendsnel gaan. U mag van ons blijven verwachten dat we die inspanning leveren, en dagelijks al die nepbeelden eruit blijven filteren. En transparantie op de momenten dat er toch iets niet in de haak blijkt.
Lees ook: Verslag doen van de (informatie-)oorlog tussen Israël en Iran
Wilma Haan, adjunct-hoofdredacteur NOS Nieuws