België heeft een richtlijn voor het gebruik van AI. Is die in Nederland ook nodig?

Nieuws | Vernieuwing

Een chatbot vragen om input voor journalistieke verhalen: tot voor kort was het ondenkbaar, maar kunstmatige intelligentie wordt steeds meer ingezet om artikelen en beelden te produceren. Hoe kun je verstandig omgaan met AI op de redactie? En is het zinvol om daarvoor een richtlijn op te stellen?

‘Ik ben journalist en schrijf een artikel over de vraag of Nederland een richtlijn voor AI in de journalistiek moet hebben. Ik wil vijf suggesties van mensen die ik moet spreken en vijf  vragen die ik kan stellen aan deze deskundigen.’ Met zo’n verzoek kunnen journalisten kunstmatige intelligentie (AI) om hulp vragen als ze een artikel willen schrijven over de vraag of een AI-strategie nuttig en zinvol is.

Tot ongeveer een halfjaar geleden was het ondenkbaar dat journalisten een ‘slimme chatbot’ om advies zouden vragen. Maar door de introductie van ChatGPT, eind 2022, verandert hun beroep razendsnel. Redacties onderzoeken wat ze met kunstmatige intelligentie wíllen, terwijl individuele journalisten benieuwd zijn wat je met AI kúnt. Stijn Bronzwaer, tech-journalist bij NRC, liet al weten dat hij ChatGPT inzet voor vooronderzoek, tekstsuggesties en redactiewerk. Freelancejournalist Nick Kivits deelde voorbeeldprompts die kunnen helpen bij het journalistieke handwerk. En tijdens een bijeenkomst met Tweede Kamerleden, eind mei, vertelden lokale journalisten hoe ze experimenteren met AI om bijvoorbeeld sportwedstrijden te verslaan en artikelen samen te vatten.

In België leidden de razendsnelle ontwikkelingen op het gebied van AI ertoe dat de Raad voor de Journalistiek een richtlijn introduceerde voor het gebruik ervan. In Nederland ontwikkelde de hoofdredactie van persbureau ANP in april een eigen leidraad, maar een algemene richtlijn is er in ons land nog niet. Is zo’n leidraad nodig? En waar moet je als redactie zelf op letten?

Transparantie voorop

‘Dit is hét moment om te experimenteren met nieuwe AI-technologieën, zoals generatieve AI,’ zegt Nick Diakopoulos. De universitair hoofddocent Communication Studies and Computer Science aan de Northwestern University in Illinois (VS) brengt dit jaar zijn sabbatical door in Amsterdam. Daar neemt hij even afstand van zijn onderzoek naar computational journalism, het vakgebied dat journalistiek verbindt met AI, automatisering en algoritmes. Vanuit de hoofdstad volgt hij de ontwikkelingen rondom AI-richtlijnen in Europa met interesse. Dat journalisten fröbelen met AI-diensten zoals ChatGPT (voor tekst) en Midjourney (voor beeld) vindt Diakopoulos bijna vanzelfsprekend.

Natuurlijk, er is nog veel onzekerheid over het nut van de technologie bij verschillende taken, zegt de onderzoeker. Maar door nu te experimenteren, krijgen journalisten een idee van wat de technologie wel en niet kan. Hij noemt richtlijnen voor het gebruik van AI ‘nuttig’, niet in het minst vanwege de persvrijheid. ‘Je kunt media beter reguleren via normen dan met strenge wetten. Zo bezien is een duidelijke leidraad over passend professioneel gedrag in de journalistiek onmisbaar. Daarmee bepaal je wat echt niet kan en hoe goed gebruik eruitziet.’

Diakopoulos ziet het liefst brede richtlijnen, met concrete voorbeelden voor journalisten. En, benadrukt hij, transparantie moet een belangrijke plaats innemen. Journalisten moeten bijvoorbeeld vermelden dat bepaalde inhoud door AI werd gegenereerd en verantwoorden hoe ze AI gebruikten.

AI-manifest

Diakopoulos vindt Ezra Eeman aan zijn zijde. Eeman, die tot 1 juni Digital Change Director was bij het Vlaamse mediabedrijf Mediahuis – uitgever van ruim 40 titels in 5 landen, met in Nederland onder andere De Telegraaf en NRC –, was nauw betrokken bij de ontwikkeling van een interne AI-richtlijn. Sinds 1 juni is hij directeur Strategie bij de Nederlandse Publieke Omroep.

Gebruikers moeten weten of een artikel door een systeem werd gegenereerd of door een journalist, vertelt Eeman. Transparantie is dus onmisbaar. Mediahuis koos ervoor om de hoofdredacties van de verschillende titels zelf te laten bepalen hoe ze die transparantie regelen. Eeman: ‘Het kan onder een artikel, in een bijschrift bij een gegenereerde foto of in een algemene aankondiging. Gebruik je AI veel, dan zou je ook een AI-manifest op de website kunnen zetten. De richtlijnen van Mediahuis schrijven daarin geen lijn voor, maar áls je AI gebruikt moet je dat melden.’

Dat geldt volgens Eeman niet alleen voor tekst en afbeeldingen die door AI zijn gegenereerd, maar ook als er bijvoorbeeld gesynthetiseerde stemmen worden gebruikt – oftewel opgenomen stemmen die worden gebruikt om tekst automatisch om te zetten in audio. ‘Als je niet transparant bent, denken mensen dat ze naar een echt persoon luisteren. Daar moet je dus duidelijk over zijn.’

Niet betrouwbaar genoeg

De merken van Mediahuis gebruiken inmiddels regelmatig AI, al gebeurt dat voornamelijk achter de schermen. Eeman: ‘Ze zetten AI bijvoorbeeld in voor het transcriberen van interviews, om opmerkingen onder artikelen automatisch te modereren en om tekst om te zetten naar audio.’

Maar, zegt hij, laten journalisten zich vooral niet denken dat AI beperkt zal blijven tot systemen zoals ChatGPT en Midjourney. Van die systemen is duidelijk dat ze kunstmatige intelligentie onder de motorkap hebben, maar AI wordt straks ook uitgerold in Google Search. ‘Daardoor verandert de zoekmachine en kun je als journalist straks ook onbewust gebruikmaken van AI. Het is goed om je daar ook bewust van te zijn.’

Zolang AI-systemen nog in de kinderschoenen staan, gebruikt Mediahuis ze nog niet om content te genereren. Eeman: ‘De technologie is nog experimenteel en zeker nog niet betrouwbaar genoeg om breed in te zetten richting gebruikers.’ Daarom werd het interne AI-beleid bewust ook niet dichtgetimmerd. In plaats daarvan bevat het algemene principes over menselijke verantwoordelijkheid, transparantie, bewust gebruik van gegevens en het risico op vooringenomenheid. Zo heeft de redactie concrete richtlijnen.

Mocht in de toekomst wel content worden gepubliceerd die door AI is geproduceerd, dan blijft volgens de Mediahuis-richtlijn altijd een journalist van vlees en bloed verantwoordelijk. Eeman: ‘Zelfs als je een systeem een koptitel laat bedenken, is er nog altijd iemand die de keuze maakt of je die koptitel dan gebruikt of niet.’

Basislijn

Zou een algemene richtlijn in de Nederlandse Code voor journalistiek Nederlandse media kunnen helpen bij de omgang met AI? Eeman noemt het ‘goed’ dat de algemene journalistieke code een ‘basislijn’ bevat, met principes die media voor zichzelf verder kunnen uitwerken. ‘De regels die Mediahuis ontwikkelde, zijn bedoeld voor intern gebruik. Het is goed dat andere mediabedrijven hun eigen regels maken.’

Onderzoeker Diakopoulos wil de sector niets voorschrijven. Hij noemt het een ‘nuttige exercitie’ als media een keer met elkaar om de tafel gaan om te bespreken hoe je traditionele ethische principes hoog kunt houden nu AI een hoge vlucht neemt. ‘Nieuwe technologieën kunnen vragen oproepen over hoe je pragmatisch kunt waarborgen dat bestaande waarden nageleefd worden. Bespreek bijvoorbeeld hoe je een waarde als ‘onafhankelijkheid’ kunt handhaven door je minder afhankelijk te maken van big tech of zelfs big tech te vermijden.’

Nieuwsbrief

Ontvang ons laatste nieuws
Hidden
Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.