Adobe wil standaard ontwikkelen voor de herkomst van beeld in strijd tegen deepfakes

Nieuws | Innovatie

Tijdens Adobe MAX, de jaarlijkse conferentie voor de creatieve industrie in Los Angeles, kondigde het bedrijf het Content Authenticity Initiative aan. Het doel is niet om hier een ‘Adobe-ding’ van te maken, maar om een sectorbrede standaard te ontwikkelen die de herkomst en bewerkingen van beeldmateriaal inzichtelijk maakt voor het publiek. Twitter en The New York Times hebben hun medewerking al toegezegd en volgens Adobe is ook de rest van de mediasector enthousiast.

Dana Rao is Executive Vice President, General Counsel and Corporate Secretary. Hij legt uit dat de strijd tegen deepfakes uit een aantal verschillende onderdelen bestaat: ‘Het gaat om een combinatie van educatie, detectie en attributie. De laatste van die drie is onze ogen een belangrijke oplossing voor het probleem. (Attributie is het vermelden van de herkomst van beelden, red.). Er wordt volop gewerkt aan automatische herkenning van deepfakes, maar daarbij ontstaat er een wedloop tussen de detectietechnologie en de makers. Daarom is attributie zo belangrijk. Twitter en The New York Times denken er net zo over en we zijn blij dat ze zich aansluiten bij het initiatief.’

Langetermijnproject

Het Content Authenticity Initiative bevindt zich in de beginfase en er is eigenlijk nog niets concreet. Het doel is om een standaard te ontwikkelen voor het vermelden van de herkomst en bewerkingen van beelden, maar Rao geeft toe dat dat een langetermijnproject is dat jaren kost. Adobe wil dat traject graag doorlopen, samen met de industrie, maar gaat er niet op wachten. Volgend jaar moet er al een attributiestandaard zitten in de producten van Adobe, zoals Photoshop en Premiere. De bedoeling is dat die uiteindelijk gelijk zal zijn aan de standaard binnen de industrie, eventueel door de standaard van Adobe in de toekomst aan te passen.

Will Allen, Vice President Community Products, heeft met zijn team al enkele proof-of-concepts gemaakt. Onder meer voor het platform Behance van Adobe, waarop creatieven hun werk kunnen delen. ‘Voor de duidelijkheid, je kunt er niet mee achterhalen waar je foto is gebruikt of tegenhouden dat hij wordt gebruikt. Je moet het meer zien als een onderschrift.’

Consument heeft controle

Het idee is dat er extra metadata wordt toegevoegd aan foto’s en video’s die je exporteert vanuit bewerkingsapps, zoals die van Adobe. Deze metadata toont bijvoorbeeld de naam van de maker, de tijd en datum waarop het beeld gecreëerd is en een overzicht van toegepaste bewerkingen. Deze informatie is zo beveiligd dat kwaadwillenden het niet kunnen bewerken. Online kunnen platforms en media deze informatie zichtbaar maken voor het publiek, zodat elke bezoeker deze kan gebruiken om zelf te bepalen of hij of zij de herkomst van het beeld vertrouwt.

Net zoals we e-mail niet automatisch vertrouwen, moeten we dat ook niet meer doen bij content

Rao legt uit: ‘Je wilt consumenten de controle geven over wie of wat ze vertrouwen. Wij hebben een lange geschiedenis in het leveren van tools voor de creatieve industrie. We voelen het als een gedeelde verantwoordelijkheid van ons, makers en het publiek, om iets te doen tegen deepfakes.’ Daarbij is er een belangrijke rol weggelegd voor educatie. ‘Net zoals we e-mail niet meer automatisch vertrouwen, moeten we dat ook niet meer doen bij content. Dat is een cultuurverandering die tijd kost.’

Welke informatie er wordt weergegeven is nog onderwerp van discussie. ‘Je kunt heel veel weergeven, maar dat kan het ook onoverzichtelijk maken. Het is een zoektocht naar wat het beste werkt, dat moeten we gaan testen.’

Niet verplicht voor makers

Adobe vindt sowieso dat het gebruik van attributie niet verplicht moet worden voor de makers van content. In de praktijk zou zo’n verplichting ook erg lastig zijn. Makers krijgen daarom de controle over welke informatie ze wel of niet weggeven, is het idee. Ook denkt het bedrijf na over een oplossing met bijvoorbeeld een pseudoniem voor mensen die anoniem willen blijven, omdat ze anders gevaar lopen. Kwaadwillenden die beeld hebben bewerkt om desinformatie te verspreiden, zullen hoogstwaarschijnlijk geen informatie willen toevoegen. Abdobe hoopt dat het publiek extra kritisch naar beeld kijkt als de informatie ontbreekt (of als de informatie er wel is en blijkt dat er bijvoorbeeld veel bewerkingen zijn gedaan, terwijl dat niet logisch is).

De eerstvolgende stap binnen het Content Authenticity Initiative is een technologische top in januari. Adobe hoopt dat een groot deel van de industrie vertegenwoordigd zal zijn: zowel de makers van software, als media en platforms. ‘Het is een probleem dat we met al deze partijen, en het publiek, moeten aanpakken,’ zegt Rao tot besluit.

Beeld: uit deepfake Mr. Trumputin

Nieuwsbrief

Ontvang ons laatste nieuws
Hidden
Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.