Al een paar jaar hebben we te maken met nepnieuws. Onderdeel daarvan zijn foto’s die creatief worden hergebruikt. Oude beelden van Spaanse tasjesdieven actief in eigen land worden opnieuw gepost als zijnde moslims die recent in een Noord-Europese stad een vrouw beroven, om het verhaal te bewijzen dat ‘we’ sinds de komst van vluchtelingen in de afgelopen twee jaar worden ‘overstroomd’ door buitenlandse criminelen – dat werk. [Zie voor een recent voorbeeld van zulk nepnieuws deze diskwalificatie van een tweet van Flip Dewinter, de voorman van Vlaams Belang.]
Het kan nog een stuk erger. Een Duits-Amerikaanse onderzoeksgroep is al geruime tijd bezig met software die YouTube video’s in real-time kan aanpassen. Ze gebruiken daarbij een tussenpersoon die zittend voor een webcam allerlei grimassen trekt, die vervolgens direct worden verwerkt in een gezicht uit een bestaande video. Zo kun je met Face2Face in een paar minuten tijd een ingrijpend veranderde versie van een bestaand filmpje opnemen.
De groep gaf vorig jaar een video vrij waarop een dikkige man met een driedagenbaardje al bekkentrekkend met een eerder opgenomen GW Bush wordt gemixed, zodat president Bush ineens overtuigend allerlei tics vertoont terwijl hij zijn betoog afsteekt; daarna laat een andere jongeman president Poetin met verve lachen en schmieren.
Een tweede onderzoeksgroep presenteerde deze week een techniek om bestaande mensen nieuwe teksten in de mond te leggen. Een vertrouwd gezicht wordt softwarematig tot in zijn vezels ontleed – hoe zitten die mond en lippen in elkaar, hoe bewegen de ogen en wangen tijdens het spreken? Dat videomodel kan dan na enige training en met wat fine-tunen kersverse teksten uitspreken, als waren ze authentiek.
Ze toonden een paar proefjes met Obama: hij stak vrij overtuigend een nooit gehouden toespraak af, hij sprak grijs en wel een tekst uit die oorspronkelijk in zijn studentenjaren was opgenomen, en het meest onrustbarend was wel dit: de Obama Bot diste verzonnen zinnen op die door een Obama-imitator waren ingesproken.
Overtuigende, maar totaal valse videobeelden: dat was nu net wat nog ontbrak in onze toch al zo riante verzameling nepnieuws. De techniek is nog maar pril, maar met pech zijn binnen een paar jaar zelfs videobeelden van interviews en speeches niet langer meer te vertrouwen.
De onderzoekers achter de Obama Bot zeiden hoopvol dat, wanneer je zo’n techniek eenmaal onder de knie hebt, het daarna ook een stuk makkelijker is om instrumenten te ontwikkelen waarmee je het daadwerkelijke gebruik ervan kunt opsporen. Dat moge zo zijn, maar haast geen enkele nieuwsconsument doet dat. Zodra een ogenschijnlijk onrustbarende foto op Twitter of Facebook verschijnt, wordt die overhaast doorgegeven en onder grote verontwaardiging verder verspreid; zelden controleren mensen of de foto en de erbij vermelde context daadwerkelijk authentiek zijn.
We willen te graag dat wat we vrezen metterdaad waar is. En we krijgen steeds meer middelen in handen om de werkelijkheid naar onze angsten om te vormen.
Het is de hyperbool van de maakbaarheid.
Al een paar jaar hebben we te maken met nepnieuws? Karin, zo naïef ben je toch niet?
Dit is inderdaad zeer verontrustend; nieuwsmedia moeten een soort keurmerk gaan krijgen, dat ze in elk geval de “waarheid’ moet gaan garanderen. Echter, wie maakt over een paar jaar uit wat waarheid is? Big Brother? Er zijn nu al hele volksstammen die integere media als NRC of Volkskrant niet vertrouwen. Hè JM? Maar dan wordt iederèèn paranoia, vraag is; wat kunnen we daar aan doen? Hoe kunnen wij, de overheid of de media ervoor zorgen dat we niet in die situatie terecht komen.
Het moet mogelijk zijn om een database aan te leggen met hasj waarden van authentieke artikelen, video’s en ander digitaal materiaal. Wordt er dan later aan geknutseld dan is dat relatief eenvoudig vast te stellen aan de hand van een herberekening van de hash (van het fake verhaal of video).
Het moet mogelijk zijn om een database aan te leggen met hash waarden van authentieke artikelen, video’s en ander digitaal materiaal. Wordt er dan later aan geknutseld dan is dat relatief eenvoudig vast te stellen aan de hand van een herberekening van de hash (van het fake verhaal of video).