Door deepfakes wordt de grens tussen echt en nep steeds minder duidelijk: ‘Waarheid is meer dan ook een kostbaar goed’
Nieuws | InnovatieEen deepfake-video waarin minister-president Mark Rutte klimaatverandering aan de kaak stelt, levensechte foto’s die door een computer zijn gegenereerd: bij kunstmatige intelligentie wordt het steeds moeilijker om echt van nep te onderscheiden. Wat doet dat met onze waarneming? Welke rol zouden media moeten spelen in de discussie rondom het gebruik van hyperrealistische nepbeelden? Jan van der Stoep, voormalig lector Journalistiek en Communicatie aan de Christelijke Hogeschool Ede: ‘Het is belangrijk dat je je bewust bent van de invloed van beelden. Maar je moet deze toepassingen ook niet op voorhand uitsluiten.’
In mei van dit jaar doen Nederlandse media iets opmerkelijks. In een ultieme poging om de vastgelopen zaak rond de dood van Sedar Soares vlot te trekken, verspreiden ze een ‘deepfake -video’. Daarin doet de jongen, die in 2003 op 13-jarige leeftijd werd doodgeschoten, een laatste oproep aan de dader en getuigen om zich te melden. Het appel komt 10 jaar na Sedars dood. De video is dan ook ‘synthetisch’: er werd gebruik gemaakt van echte foto’s, die met behulp kunstmatige intelligentie werden verwerkt tot een realistische video-opname.
De deepfake-video van Sedar Soares is niet de eerste levensechte nepvideo die door media wordt verspreid. In oktober 2021 publiceert De Correspondent een video van een klimaattoespraak door Mark Rutte. Daarin legt klimaatcorrespondent Jelmer Mommers woorden in de mond van de minister-president.
Kunstmatige intelligentie werd de afgelopen paar jaar zo krachtig dat elke willekeurige gebruiker er de wereld mee naar zijn hand zou kunnen zetten. Wie over de juiste middelen beschikt, kan de wereld voor de gek houden.
Dat bewees ook Matt Bell. Een paar maanden geleden publiceerde hij een artikel over zijn duikvakantie in Roatan. Het verhaal was gelardeerd met exotische onderwaterfoto’s, maar er zat een addertje tussen de koralen: een deel van de foto’s was aan elkaar gerekend door Dall-E 2, de artificial intelligence engine van onderzoeksplatform OpenAI.
Waarheid als kostbaar goed
Al die voorbeelden roepen vragen op. Want is het verantwoord om nepbeelden te gebruiken in de journalistiek, de beroepsgroep bij uitstek die moet waken over de waarheid? Het risico van kunstmatige intelligentie is dat consumenten in de informatievoorziening een bepaalde kant op worden gestuurd, en dat deepfakes mensen misleiden, stelt Jan van der Stoep. Maar die gevaren benadrukken volgens hem ook het belang van goede journalistiek.
Van der Stoep was tot augustus 2021 lector Journalistiek en Communicatie aan de Christelijke Hogeschool Ede en publiceerde onder andere over techniekfilosofie, media en religie en journalistiek. Inmiddels is hij hoogleraar christelijke filosofie aan de Theologische Universiteit Kampen|Utrecht. Interesse voor journalistiek en media heeft hij nog steeds: ‘Onze tijd laat zien hoe belangrijk goede journalistiek is voor betrouwbare berichtgeving en voor het stimuleren van een brede visie. Waarheid is meer dan ooit een kostbaar goed waar we zuinig op moeten zijn.’
Kunnen we echt en nep straks nog wel van elkaar onderscheiden? De hoogleraar maakt zich daar niet zoveel zorgen over. ‘De deepfake van Soares werd in een bepaalde context gepresenteerd, waardoor duidelijk was dat het niet echt was. Dat zag je ook bij de deepfake van de overleden vader van Kim Kardashian: de context maakte het duidelijk. Context is dus belangrijk.’
Regels rondom deepfakes
Deepfakes en andere beelden die door kunstmatige intelligentie zijn gemaakt, zouden media juist kunnen helpen, denkt Van der Stoep. ‘Als je als medium het verleden tot leven wilt brengen, zodat lezers zich kunnen verplaatsen in een vroegere tijd, of als je een bepaalde setting wilt nabootsen, kun je daarbij deepfake-beelden gebruiken. Maar het maakt wel uit hoe je dat doet. Welke regels pas je toe? Hoe ga je om met de integriteit van personen? Welke status geef je de beelden? Het is belangrijk dat je je bewust bent van de invloed van beelden. Maar je moet deze toepassingen ook niet op voorhand uitsluiten.’
Wat je voor echt verkoopt, moet je niet nabootsen – je mag met fakebeelden niet een bepaalde waarheid suggereren
En, vindt Van der Stoep, het genre is bepalend. ‘Een verhaal waarin je mensen vooral een impressie wil geven en iets wil laten beleven, is anders dan een feitelijke reportage. In een verhaal zijn kunstmatige beelden minder erg dan wanneer je pretendeert een feitelijke of historisch betrouwbare reportage te maken. We willen immers échte beelden zien van bijvoorbeeld de oorlog in Syrië of de boerenprotesten, zodat we weten of iets echt waar is.’
Persoonlijke integriteit
Op het gebied van deepfakes is de verantwoording cruciaal, stelt de hoogleraar. ‘Wat je voor echt verkoopt, moet je niet nabootsen. Net zoals liegen niet mag, mag je met fakebeelden niet een bepaalde waarheid suggereren. Dat lijkt me een grens.’ Een andere grens is de persoonlijke integriteit: ‘Je kunt veel doen met beelden van mensen, maar het is belangrijk om je af te vragen wat je zelf gewild zou hebben. Hoe ga je om met beelden en met de identiteit van mensen? Kun je zomaar een deepfake van iemand maken, zeker als die persoon overleden is? Veel van deze afwegingen worden gemaakt binnen de context en het genre.’ Wees er zuinig mee, adviseert Van der Stoep: ‘Gebruik alleen deepfakes of andere kunstmatige beelden wanneer het niet anders kan.’