30.10.2020

Michael Klos

TAGS
REAGEER!

BLOG

Mag desinformatie verwijderd worden door internetplatforms?


Kan desinformatie zomaar verwijderd worden door internetbedrijven? Of is dit een vorm van censuur? Op 9 september 2020 ging de voorzieningenrechter van de Rechtbank Amsterdam in op deze vraag in een kort geding tegen YouTube. Op 13 oktober 2020 lag dezelfde vraag voor in een kort geding tegen Facebook. In beide zaken werd opgemerkt dat internetbedrijven met de Europese Commissie afspraken hebben gemaakt over desinformatie en de Europese Commissie aan technologiebedrijven heeft gevraagd Covid-19 desinformatie aan te pakken. Mede door deze afspraken mochten YouTube en Facebook Covid-19 desinformatie verwijderen. Dit roept een aantal vragen op. Waar komen deze desinformatieregels vandaan? Welke plichten hebben internetplatforms als het gaat om desinformatie? Moet of mag desinformatie verwijderd worden door internetplatforms?

Waar komen de desinformatieregels eigenlijk vandaan?
Allereerst kunnen internetplatforms zelf regels maken over wat wel en niet wordt toegestaan. Zo zijn er talloze voorbeelden te verzinnen van uitlatingen die niet strafrechtelijk of civielrechtelijk aangepakt kunnen worden maar toch door veel gebruikers als onwenselijk wordt gezien. Denk alleen al aan voorbeelden van gebruikers die elkaar uitschelden, (niet strafbare) dreigementen uiten of ‘cyberpesten’. Volgens sommigen is het weghalen van dit soort materiaal juist de dienst die internetplatforms aanbieden. In principe mogen internetbedrijven zelf communityrichtlijnen vaststellen én bepalen hoe ze deze regels toepassen. Al krijgen internetbedrijven hiervoor meer ruimte in de Verenigde Staten dan binnen de EU.

Communityrichtlijnen worden immers ook beïnvloed door overheden. Het is een hardnekkige mythe dat ‘Silicon Valley’ helemaal zelf bepaalt wat wel en niet toegestaan is. Ook de Europese Unie heeft een niet te onderschatten invloed op communityrichtlijnen. Denk bijvoorbeeld aan ‘hate speech’ of ‘terroristische propaganda’. Veel van deze richtlijnen zijn zelfs het resultaat van informele afspraken tussen overheden en technologiebedrijven. Zo spreekt de Europese Commissie bijvoorbeeld af met internetplatforms hoe zij met bepaald materiaal om moeten gaan. Dit is ook het geval bij desinformatie. Sommigen bekritiseren dit soort ingrijpen als een vorm van ‘overheidsdwang’. Ook moet worden opgemerkt dat internetbedrijven geneigd zijn de strikte EU-normen wereldwijd toe te passen. Brussel heeft dus een grote invloed op wat ‘Silicon Valley’ wereldwijd toestaat.

Welke plichten hebben internetplatforms als het gaat om desinformatie?
Het tegengaan van ‘hate speech’ en terroristische propaganda hebben (of krijgen) een juridische basis. Illegaal of onrechtmatig materiaal moet zelfs verwijderd worden als internetbedrijven bekend raken met het bestaan van dit materiaal. Voor desinformatie ligt dit anders. Dat iets niet waar is maakt het nog niet illegaal. In september 2018 heeft de Europese Commissie afspraken gemaakt met internetbedrijven om desinformatie tegen te gaan in de Code of Practice on Disinformation. In deze Code is echter juist afgesproken dat internetbedrijven niet gevraagd mogen worden door overheden om informatie te verwijderen ‘slechts’ omdat het vals is. Ook worden bedrijven ontmoedigd zelf over te gaan tot dergelijk beleid. De Code verlangt juist dat bijvoorbeeld Facebook en YouTube desinformatie tegengaan door bijvoorbeeld ‘factchecking’ en meer transparantie. Veel ‘desinformatie’ wordt wellicht juist beschermd door het recht op vrijheid van meningsuiting. De Europese Commissie lijkt zich bewust van de zwakke juridische basis en schrijft dat veel Covid-19 desinformatie niet kwalificeert als ‘noodzakelijkerwijs illegaal’ maar dat deze desinformatie ‘direct levens in gevaar brengen en de inspanningen om de pandemie te beperken, sterk ondermijnen.’

Mag desinformatie dan wel verwijderd worden door internetbedrijven?
Deze vraag kan op twee manieren worden beantwoord. De Code verplicht bedrijven niet om desinformatie te verwijderen slechts omdat het om valse beweringen gaat. Met andere woorden: er moet meer aan de hand zijn voordat desinformatie verwijderd moet worden. Desinformatie moet als illegaal of onrechtmatig kwalificeren voordat internetbedrijven tot actie moeten overgaan. In principe is er dus geen juridische plicht ‘desinformatie’ te verwijderen.

Zoals de voorzieningenrechter in de zaak tegen Facebook ook opmerkt: Facebook mag als privaat bedrijf in principe zelf bepalen wat wel of niet wordt toegestaan. Dit geldt óók voor desinformatie. Zo merkt de voorzieningenrechter op dat de staat ‘passende maatregelen [dient, MK] te treffen als het recht op vrije meningsuiting niet effectief kan worden uitgeoefend vanwege de dominantie van machtige private partijen.’ Dit is volgens de voorzieningenrechter echter nog niet het geval. Het is inderdaad niet erg moeilijk om allerlei alternatieven te bedenken om je mening te kunnen buiten Facebook om.

Slotsom: mag desinformatie verwijderd worden door internetplatforms?
Dat twee voorzieningenrechters concluderen dat Covid-19 ‘desinformatie’ verwijderd mag worden (mede) omdat de Europese Commissie dit verlangt van internetplatforms is merkwaardig te noemen. Zeker omdat in de Code of Practice juist het tegenovergestelde is afgesproken. Moet dit dan tot de conclusie leiden dat internetbedrijven niet zelf mogen overgaan tot het verwijderen van desinformatie slechts omdat het om valse informatie gaat? Een dergelijke conclusie gaat te ver. In principe mogen bedrijven zélf bepalen wat ze wel of niet toestaan op hun platforms. De voorzieningenrechter in Facebook heeft dit beter gezien dan de voorzieningenrechter in YouTube.

GRONDWET ARTIKELEN

OVER DE AUTEUR

Michael Klos is werkzaam als onderzoeker en docent aan de Universiteit Leiden 

Reacties

Reageer!

Vul uw reactie hier in

* Verplicht invulveld straks zijn alleen uw naam en reactie zichtbaar, er kan enige tijd overheengaan tot uw reactie zichtbaar is.