Hoe ga je verantwoordelijk met AI om?

Door Erwin Blom

Waar vroeger een jaar al snel was bij de ontwikkeling van nieuwe technologie, voelt nu een maand lang, zo lijkt het als het om generative AI gaat. En dat is lastig. Omdat er zo nauwelijks tijd is om de mens te laten wennen aan nieuwe ontwikkelingen. Omdat er nu nauwelijks tijd is voor wetgevers om trends te bestuderen en bijpassende regelgeving te ontwikkelen. Partnership on AI probeert daar wat aan te doen. Maar eenvoudig is dat niet, was de les van de sessie Real Rules for Fake Media.

De panelleden begonnen er mee te benadrukken dat generative AI, en meer specifiek synthetic media, mooi is en prachtige kansen biedt. Het zorgt er voor dat creators nu creatieve dingen kunnen doen die ze hiervoor niet konden en dat kan een force for good zijn. Maar alles wat je voor goed kan gebruiken, kan je ook voor kwaad gebruiken. Manipulatie van nieuws en informatie is makkeljker dan ooit geworden. "The stakes couldn't be higher. They get higher every day."

Dus was doe je als je de kansen ziet, maar de problemen evenzo? Dan ga je de koppen bij elkaar steken. Dan zorg je dat je partijen van TikTok tot BBC tot OpenAI aan tafel krijgt om te praten. "PAI worked with over 50 global institutions in a participatory, year-long drafting process to create the current Responsible Practices for Synthetic Media. Participating stakeholders included the broader AI and media integrity field of synthetic media startups, social media platforms, AI research organizations, advocacy and human rights groups, academic institutions, experiential experts, news organizations, and public commenters."

En dan probeer je met zijn allen tot uitgangspunten te komen waardoor AI voor het goede en niet voor het kwade wordt ingezet. "PAI’s Responsible Practices for Synthetic Media: A Framework for Collective Action is a set of recommendations to support the responsible development and deployment of synthetic media." In het stuk wordt geïnventariseerd hoe schade kan worden aangebracht met synthetic media en worden adviezen gegeven over hoe daarmee om te gaan.

De goed bedoelende partijen zullen bijvoorbeeld vast onderschrijven dat kunstmatig gegenereerde inhoud als zodanig moet worden beschreven. Dat is mooi en belangrijk. Het is goed dat er transparantie is en dat het publiek weet waar het aan toe is. Maar naast de goeden zijn er de kwaden. De slecht bedoelende mensen zullen lak hebben aan dit soort richtlijnen. En stel dat er wetten of regels over komen, hoe leef je die na in een wereld waar AI-techniek massaal gebruikt lijkt te gaan worden? Dat wordt lastig. De problemen waar we over praten (mensen doen zich als anderen voor of bedriegen mensen) zijn zo oud als de mensheid, maar nieuwe technieken maken ze makkelijker dan ooit. 

PAI’s Responsible Practices for Synthetic Media: A Framework for Collective Action (download) voelt als sympathiek en goed bedoeld, maar tegelijkertijd voelt het niet als een initiatief dat een verschil gaat maken. Want wat is verantwoordelijk gedrag en wat is schadelijk gedrag? Daar kun je uit verschillende perspectieven heel anders naar kijken.