De AI-revolutie in de journalistiek: drie hulpmiddelen om je redactionele koers te bepalen
Nieuws | VernieuwingDe grote opkomst van generatieve AI is nu al meer dan een jaar geleden. Op tech- en mediaconferentie South by Southwest (SXSW) werd in maart de balans opgemaakt: waar staat de journalistiek nu, in een wereld waarin AI steeds sneller voortraast? Wat werkt en wat niet? Wat is er anders dan vorig jaar? De belangrijkste inzichten op een rij.
Dit jaar overheerst op SXSW de kritische noot ten aanzien van AI. ‘We zeggen telkens wel dat AI een tool is die je kan helpen, die menselijke creativiteit versterkt,’ zegt SXSW-programmeur Hugh Forrest. ‘Maar is dat wel echt zo? We moeten nu heel goed opletten hoe en waar we AI implementeren, en in de gaten houden of het wel wenselijk is hoe het gaat.’ Met andere woorden: journalistieke organisaties moeten hun koers bepalen in het oog van deze AI-storm. De volgende drie vragen bieden houvast.
Hoe gaat het nu, welke voorbeelden zijn er?
Zach Seward, editorial director of AI initiatives bij The New York Times houdt scherp in de gaten wat er allemaal gebeurt rond AI en journalistiek. Hij verzamelde voor zijn sessie AI News That’s Fit To Print een hele rij voorbeelden van slechte en goede journalistieke AI-producties.
De don’ts…
Zo ging het bij CNET in januari behoorlijk mis: de site publiceerde artikelen met ‘service-journalistiek’ die volstonden met fouten en plagiaat. Gizmodo publiceerde met behulp van AI een chronologische lijst van de hele Star Wars-franchise die uiteindelijk toch niet zo chronologisch bleek. En bij The Street, een nieuwssite over financiën en tech, werden naast AI-gegenereerde reviews gewoon auteursnamen en profielfoto’s van een stock-website geplaatst. De website deed alsof de stukken door echte mensen geschreven waren.
‘De drijfveer achter AI-toepassingen in de journalistiek zou moeten zijn wat het beste is voor de lezer, en niet de commerciële belangen,’ zegt Seward. Hij houdt een pleidooi voor het hooghouden van de journalistieke waarden, juist bij het inzetten van AI: ‘Wat je publiceert moet je goed checken, je moet je werk aandachtig doen in plaats van lui en slordig zijn, en je moet eerlijk en transparant zijn.’
…en de do’s
Gelukkig zijn er ook een aantal goede voorbeelden van de inzet van kunstmatige intelligentie. ‘Journalisten moeten generatieve AI (zoals ChatGPT) niet gebruiken om zomaar artikelen voor hen te laten schrijven. Je moet AI juist inzetten om ongestructureerde data voor je te structureren,’ aldus Seward. Als voorbeeld geeft hij een onderzoek van financiële nieuwssite Quartz. Journalisten moesten voor dat onderzoek 200.000 documenten analyseren om te ontdekken in hoeverre er sprake was van belastingontduiking op de Mauritius-eilanden. ‘Zij bouwden een AI-tool die als een soort crtl+F on steroids werkt,’ vertelt Seward. ‘Met die tool konden ze documenten omzetten in vectoren’. Dit is het omzetten van bestanden in een reeks getallen, waardoor een AI-model er beter mee uit de voeten kan.
‘Door die ‘vertaalslag’ kon het model documenten detecteren die niet precies hetzelfde waren, maar wel veel op elkaar leken. Zo kon het AI-model verbanden leggen die mensen nooit zouden kunnen vinden, zeker niet als het om 200.000 documenten gaat.’
Het nadeel van dit soort onderzoeksjournalistieke toepassingen is dat er veel technische kennis voor nodig is om zo’n model zelf te trainen en ermee te leren werken. Seward heeft ook eenvoudigere voorbeelden. ‘Als je generatieve AI voor een heel duidelijk afgebakende use case inzet, kan het goed werken’, vertelt hij.
‘Op nieuwssite Realtime worden automatisch gegenereerde grafieken op basis van data gegenereerd. AI wordt ingezet om context te bieden bij deze grafieken. Een taalmodel schrijft automatisch het bijschrift, zodat lezers beter begrijpen waar ze naar kijken,’ vertelt hij. ‘Het diepgravende onderzoek moet nog steeds in samenwerking met mensen worden gedaan, maar het is een nuttige volgende stap die de lezer helpt.’
Voor wie meer inspiratie zoekt: Seward publiceerde op een speciale pagina een lange lijst van goede en slechte journalistieke AI-voorbeelden.
Hoe bewijzen we wat echt en te vertrouwen is?
Veel sessies gingen over de vraag hoe de journalistiek zich staande moet houden in een wereld die overspoeld gaat worden met deepfakes en kunstmatig gecreëerde content. Hoe weet je als lezer nog wat echt is? Of als journalist? Voor wie denkt dat ‘ie nep nog wel van echt kan onderscheiden, hierbij een willekeurig voorbeeld van de afgelopen paar weken:
Uit de sessies op SXSW kunnen we destilleren dat er drie aanvliegroutes zijn om met de stortvloed aan kunstmatig gecreëerde content om te gaan. De eerste is het ‘watermerken’ van originele content, bijvoorbeeld op de blockchain. Daar is onder andere de app Swear mee bezig, die belooft in realtime de authenticiteit van een video te kunnen vaststellen en te kunnen watermerken. In zo’n watermerk is allerlei metadata vastgelegd, zoals de GPS-locatie en satelliettijd van het moment dat een video werd opgenomen. In Europa is in dit verband C2PA opgericht, de Coalition for Content Provenance and Authenticity. Onder andere Google en de BBC kijken daar samen naar een manier om originele content standaard te voorzien van een watermerk.
Blockchain is een systeem om data op te slaan. Dat gebeurt bij blockchain in blokken, die vervolgens niet meer gewijzigd kunnen worden.
De tweede aanvliegroute is om AI-modellen te bouwen die AI-gegenereerde content kunnen detecteren. ‘Watermerken alleen is niet genoeg,’ zegt Ben Colman, CEO van Reality Defender. ‘Mensen die kwade intenties hebben, gaan zich namelijk niet aan de regels houden.’ Reality Defender analyseert foto’s, video’s, audio en tekst en geeft met een kleurcode aan hoe groot de kans is dat ermee gerommeld is: rood, geel of groen.
En tot slot is het belangrijk om mediawijsheid te vergroten, en daar zijn we als journalisten en mediamakers allemaal verantwoordelijk voor. Want zelfs als steeds meer content aan de voorkant gewaarmerkt wordt of aan de achterkant een kleurencode krijgt, zullen mensen zelf moeten kunnen oordelen. Colman noemt een paar voorbeelden die tijdens de komende Amerikaanse verkiezingen al aan de hand zouden kunnen zijn: ‘Stel dat er een filmpje rondgaat van Joe Biden, die zegt dat de verkiezingen een dag zijn uitgesteld dus dat je morgen pas naar de stembus hoeft. Of dat je een telefoontje krijgt van ‘je partner’ (wiens stem gesynthetiseerd is, red.), die je overhaalt om niet te gaan stemmen,’
Nu deepfakes steeds makkelijker te maken zijn en steeds geloofwaardiger worden, is het belangrijk dat media serieus nadenken over manieren om zelf verantwoordelijkheid tenemen. In de sessies wordt benadrukt dat niet één van deze aanvliegroutes de heilige graal is, maar dat ze alle drie nodig zijn.
Rechten & ethiek: hoe maken we samen de nieuwe regels?
Tot slot ging het in Austin veel over rechten en verantwoordelijk, ethisch gebruik van AI. In journalistieke context is er nog niet echt één lijn. Sommige partijen (onder andere The New York Times, CNN, Reuters, maar ook Mediahuis en DPG Media) verbieden AI-bedrijven, om hun content te gebruiken om taalmodellen op te trainen. Andere bedrijven (zoals Axel Springer) sluiten juist een deal.
Op een interdisciplinaire conferentie als SXSW kun je leren hoe andere sectoren met deze nieuwe vraagstukken over rechten omgaan. In de muziekindustrie worden al serieuze en creatieve experimenten gedaan met muziek en auteursrechten. Daouda Leonard, oprichter van CreateSafe, vertelt over het AI-project dat hij samen met zangeres Grimes lanceerde. ‘In onze tool kun je legaal de AI-stem van Grimes gebruiken om je eigen muziek te creëren,’ vertelt hij. ‘We gaan zelfs zo ver dat je ook haar beeltenis en de naam GrimesAI mag gebruiken als je de track uitbrengt.’
Leonard: ‘We hebben vier vinkjes bedacht voor verantwoordelijk omgaan met AI in de muziekindustrie: toestemming, controle, compensatie en transparantie. Dat betekent dat een artiest van tevoren toestemming moet geven om als AI-stem gebruikt te mogen worden. Vervolgens reviewen we of iets wat met zijn of haar stem gemaakt is, ook echt uitgebracht kan worden, of je daar als artiest achter staat. 50 procent van de royalty’s zijn voor de artiest als er geld met de track wordt verdiend. En er wordt altijd transparant over gecommuniceerd dat het een AI-stem betreft.’
Daar kunnen we in de journalistiek nog wat van leren. Wat als een krant of omroep op zo’n manier met content omgaat en die onder duidelijke voorwaarden beschikbaar zou stellen in taalmodellen? Na 10 dagen SXSW is één ding duidelijk: als je de toekomst niet zelf vormgeeft onder je eigen voorwaarden, dan zullen andere partijen het voor je doen. Creëer daarom richtlijnen voor de inzet van AI in het redactionele proces, leer van experimenten van collega’s, denk na over hoe om te gaan met deepfakes en het authenticeren van je eigen materiaal. Want dat is het sentiment in alle sessies: dít is het moment om in actie te komen en een plan te maken.