3 initiatieven om te strijden tegen nepnieuws en desinformatie

De initiatieven tegen de verspreiding van nepnieuws en desinformatie ploppen als paddestoelen uit de grond, waarbij Nederland bij eentje ervan de kar trekt. Maar eerst blijft de boeiende vraag: wat is nepnieuws en desinformatie?

De laatste maand is goed geweest voor degenen die graag willen zien dat overheden sterkere maatregelen nemen om de manier te reguleren waarop digitale platforms hun content modereren.

De Commissie digitale media, cultuur, media en sport van het Britse parlement heeft haar eindverslag over desinformatie en "nepnieuws" gepubliceerd, waarin wordt gevraagd om een onafhankelijke regelgever die ervoor moet zorgen dat digitale platforms actie ondernemen tegen illegale of schadelijke taal. Het German Marshall Fund (GMF) heeft zijn initiatief voor digitale innovatie en democratie gelanceerd, dat onder meer tot doel had desinformatiecampagnes op sociale mediaplatforms aan te pakken met oplossingen die de democratische waarden ondersteunen. Een nieuwe Transatlantic Working Group on Content Moderation Online and Freedom of Expression werd opgericht, ondersteund door de Annenberg Foundation, het Instituut voor Informatierecht van de Faculteit der Rechtsgeleerdheid van de Universiteit van Amsterdam en de Nederlandse ambassade in Washington, D.C.

Britten willen een toezichthouder

In het verslag van de eerder genoemde Britse commissie wordt gepleit voor een nieuwe onafhankelijke toezichthouder met bevoegdheden om van technische bedrijven te eisen dat zij actie ondernemen tegen "schadelijke of illegale content op hun sites". De toezichthouder zou een nieuwe ethische code moeten afdwingen die door technische deskundigen moet worden opgesteld "waarin wordt aangegeven wat schadelijke content is". Het doel zou zijn "een regelgevend systeem voor online content te creëren dat even doeltreffend is als dat voor de offline contentindustrieën".

Er is veel te zeggen voor dit voorstel. Het richt zich op redelijke processen en procedures, waarbij van bedrijven wordt verlangd dat zij "relevante systemen hebben om schadelijk materiaal op te sporen en te verwijderen". Op die manier worden de arbitraire tijdschema's vermeden die de Duitse netwerkhandhavingswet (Netzdurchsetzunggesetz, NetzDG) en de voorgestelde verordening van de Europese Commissie inzake de bedreiging van de vrijheid van meningsuiting door terroristische inhoud tot gevolg hebben.

Maar het lost het fundamentele regelgevingsprobleem niet op, namelijk dat nepnieuws en desinformatiecampagnes onder de huidige wetgeving van het Verenigd Koninkrijk niet illegaal zijn, online of offline. Het is heel verstandig om van sociale media te eisen dat ze actie ondernemen tegen illegaal materiaal op hun systemen. Maar hoe kunnen ze worden verplicht om legale uitingen te verwijderen die een legitieme, zij het ongewenste, plaats hebben in het publieke debat?

Het rapport lijkt deze kwestie op te lossen door de bepaling van wat "schadelijk materiaal" is over te hevelen naar een niet-gouvernementele commissie van technische deskundigen. Maar als het Britse parlement van plan is om nepnieuws en desinformatiecampagnes illegaal te maken, kan het de definitie van deze sleutelbegrippen niet uitbesteden aan een technische commissie van deskundigen, omdat het verkrijgen van de juiste definitie beladen is met controversiële ethische, filosofische en beleidskwesties die buiten het bereik van technische deskundigen vallen.

Een manier om vooruitgang te boeken zou kunnen zijn dat de overheid in de wet een brede definitie van schadelijk materiaal opneemt, maar vervolgens platforms toestaat om de definitie te interpreteren en toe te passen in specifieke gevallen. Dat laat de vraag open of een overheidsregulator bevoegd zou moeten zijn om deze uitspraken te heroverwegen als ze buiten de grenzen van de redelijkheid vallen. In de VS zou in ieder geval een rol van de overheid om het oordeel van platforms in deze omstandigheden te heroverwegen, in strijd kunnen zijn met het Eerste Amendement.

Een ander mankement in het rapport is het ontbreken van procedurele bescherming. Van platforms moet worden verlangd dat zij gedetailleerde normen publiceren voor het verwijderen van materiaal of accounts, specifieke uitleg geven over verwijderingen en redelijke verhaalsmogelijkheden bieden voor gebruikers om verwijderingsbeslissingen aan te vechten. Zonder deze bescherming zou de publieke verantwoording ontbreken.

GMF: een veelbelovende stap voorwaarts

Onder leiding van de voormalige Amerikaanse ambassadeur bij de OESO Karen Kornbluh heeft het GMF-initiatief getalenteerde experts aangetrokken, waaronder MIT's Danny Weitzner, Rutgers Law Professor Ellen Goodman en Gene Kimmelman, hoofd van Public Knowledge, die niet sprak tijdens het lanceringsevenement in Washington DC, maar wiens eersteklas werk al op de website van de groep is geplaatst. Het initiatief zal rondetafelgesprekken, workshops en transatlantische werkgroepen bijeenroepen om te zoeken naar manieren om de huidige wetgeving te hervormen om het discours te beschermen dat essentieel is voor democratisch zelfbestuur in de 21e eeuw.

De Amerikaanse senator Mark Warner gaf de groep tijdens de lanceringsceremonie een levendige steunbetuiging. Hij beloofde ook dat hij wetgeving zou introduceren om een aantal van de regelgevende ideeën die hij vorig jaar in de breedgelezen technische hervormingsmemo naar voren bracht, uit te voeren.

Helaas werd de lancering ontsierd door een dissonante noot van "red-baiting" toen sommige sprekers de demonstraties van de zwarte NFL-spelers tegen politiegeweld leken te verwerpen, omdat deze protesten door Russische activisten waren onderschreven met behulp van desinformatietechnieken op sociale media. Gezien de duidelijke gevoeligheid van de groep voor kwesties van vrije meningsuiting, was dit een verrassende wending. Het is de moeite waard om duidelijk te zeggen dat de betrokkenheid van Russische bots op sociale media een beweging of een standpunt niet meer in diskrediet brengt dan, generaties geleden, de steun van de Amerikaanse Communistische Partij voor burgerrechten en een 40-urige werkweek die nobele oorzaken op de een of andere manier verdacht maakte.

Transatlantic Working Group on Content Moderation Online and Freedom of Expression

Onder leiding van Susan Ness, voormalig commissaris van de U.S. Federal Communications Commission, omvat de Transatlantic Working Group een breed scala aan advocaten, deskundigen op het gebied van overheidsbeleid, vertegenwoordigers van het bedrijfsleven, leiders van het maatschappelijk middenveld en beleidsmakers, waaronder Damien Collins, voorzitter van de commissie van het Britse parlement die zojuist zijn rapport over nepnieuws en desinformatie heeft gepubliceerd. De groep heeft haar eerste bijeenkomst op 28 februari-3 maart in het Verenigd Koninkrijk gehouden en heeft kort daarna de eerste van een reeks aanbevelingen uitgebracht. In mei is de tweede bijeenkomst.

In haar openingsverklaring richtte Susan Ness zich op het reële gevaar dat dezelfde structuren die democratische landen hebben opgezet om haatzaaiende taal, desinformatiecampagnes en terroristisch materiaal te bestrijden, door autoritaire regeringen kunnen worden gebruikt om rapporten over overheidscorruptie en misbruik te censureren door ze ten onrechte als schadelijke taal te bestempelen.

Dit is een delicate taak die een zorgvuldige afweging en een genuanceerd oordeel vereist. Het goede nieuws is dat verschillende groepen getalenteerde beleidsmakers en deskundigen op zoek zijn naar evenwichtige oplossingen die actie van platformen vereisen om schadelijke taal te beheersen, maar op een manier die het volledige scala aan standpunten en ideeën dat essentieel is voor een bloeiende democratie behoudt.

Related:

Copyright © 2019 IDG Communications, Inc.

Discover what your peers are reading. Sign up for our FREE email newsletters today!