Chatcontrol via de achterdeur: hoe een Deens voorstel Europa’s privéberichten de scanstraat in duwt.

Cartoon met thema’s rond Europese chatcontrole: vergrootglas boven chatberichten, laptop met gesprek, smartphones met leeftijdsgrens en ID-iconen, sloten voor encryptie, EU-gebouw met digitale muntjes, camera’s en AI-scanning.

Het nieuws kwam niet met sirenes, maar met een zucht: “het is gelukt.” Terwijl velen dachten dat het plan om privécommunicatie in de EU te laten scannen politiek vastgelopen was, dook er plots een nieuwe route op. Niet frontaal, niet met tromgeroffel, maar via een listige omweg. De kern: Denemarken legde een herwerkt voorstel op tafel waarmee massaal scannen van berichten en beelden alsnog dichterbij komt, en voor het eerst ook teksten verplicht in beeld komen. Wat leek afgewend, staat weer midden op de Europese agenda.

Wie het dossier al langer volgt, herkent de contouren. “Chatcontrol” is de populaire term voor Europese plannen die heten kinderen te beschermen door opsporing van kindermisbruikmateriaal (CSAM) te intensiveren. Het grote obstakel bleef versleuteling: end‑to‑end‑encryptie maakt dat alleen zender en ontvanger kunnen lezen wat wordt verstuurd. Eerdere pogingen om die beveiliging te verzwakken strandden op de simpele waarheid dat elke backdoor voor iedereen een backdoor is, ook voor criminelen. Daarom schoof men het idee van “client-side scanning” naar voren: scannen op het apparaat zelf, vóórdat een bericht of foto versleuteld en verzonden wordt.

Die verschuiving klinkt technisch, maar raakt aan de kern van wat we privé noemen. Client-side scanning betekent een “spionnetje” in de chatapp: software die, nog vóór jij op verzenden drukt, een intern oordeel velt over je foto of tekst. Is het “verdacht”, dan gaat het pakketje naar autoriteiten of beoordelaars. Zo omzeil je versleuteling zonder haar te breken: je kijkt simpelweg mee vóór de digitale envelop dichtgaat. Het idee werd verkocht als doelmatig en kindveilig, maar het kent twee fundamentele problemen: vals positieven en proportionaliteit.

Vals positieven: kleine foutmarge, groot menselijk leed.

In de praktijk werken detectiesystemen met databanken van “hashes”, vingerafdrukken van bekend illegaal beeld, en/of met AI‑modellen die “onbekend” materiaal proberen te duiden. Dat eerste faalt soms: een foutmarge van bijvoorbeeld een half procent lijkt miniem, maar op miljoenen dagelijkse berichten en foto’s produceert dat een stortvloed aan valse alarmen. En vals alarm betekent in dit domein dat iemand daadwerkelijk jouw privébeelden moet gaan bekijken. Het is niet alleen technisch ongemak; het is een structurele inbreuk op de privésfeer die, zeker bij gezinsfoto’s of onschuldige badmomenten van kinderen, buitengewoon pijnlijk uitpakt.

De tweede route: AI die “onbekend” materiaal herkent, vergroot de problemen. AI kan bloot detecteren, maar niet betrouwbaar onderscheiden tussen misbruik en normale context (denk aan een ouder die een badfoto deelt met opa en oma, of tieners die elkaar intieme foto’s sturen). Elk “misschien” gaat naar een menselijke beoordelaar. Het gevolg: de normalisering van meekijken in de meest intieme digitale ruimtes van burgers die niets verkeerd doen. Fouten zijn hierbij geen abstractie; er zijn gevallen bekend waar mensen onterecht werden aangemerkt, met huiszoekingen en reputatieschade tot gevolg, zelfs als zij later werden vrijgepleit.

Van vrijwillig naar verplicht, en weer terug?

Al vóór de huidige storm scanden techbedrijven vrijwillig onversleuteld materiaal onder de vlag van “Chatcontrol 1.0” (vanaf 2020). Dat leidde tot incidenten waarbij privéfoto’s uit clouds verdwenen, accounts werden gesloten of meldingen werden gedaan zonder dat sprake was van opzet of misbruik. Vervolgens verschoof de EU in 2022 naar plannen voor verplichting via een “detectiebevel” op apparaten. Jarenlang hield een blokkerende minderheid dat tegen, mede omdat veiligheidsdiensten zelf waarschuwden voor de aantasting van digitale weerbaarheid. Illustratief: juist EU‑ambtenaren en defensiepersoneel werden in concepten uitgezonderd van scannen, een opmerkelijke erkenning dat het risico reëel is.

De politieke golfslag bleef onrustig. Nederland wankelde even, maar draaide bij nadat het debat breder was aangezwengeld. Polen, als voorzitter van de Raad, parkeerde het dossier. Met Denemarken als nieuwe voorzitter kwam het plan terug, nu met extra’s: verplicht scannen op onbekend materiaal (dus AI op je toestel), verplichte identificatie voor alle één‑op‑één‑diensten (van e‑mail tot chatapps en zelfs games met privéchat), en een leeftijdsgrens waardoor onder‑16‑jarigen zulke apps niet meer via de appstores mogen downloaden. Dat is, zoals critici het noemen, een “digitaal huisarrest” voor jongeren.

De Deense ‘achterdeur’: risico‑criterium en tekstscan.

Toen Duitsland begin oktober aangaf niet vóór te stemmen, leek het zwaartepunt weg te glijden. Maar Denemarken kwam met een technocratische finesse: haal de absolute plicht uit de tekst, maar voeg artikelen toe die bepalen dat diensten die “risico” lopen op verspreiding van illegaal materiaal toch moeten scannen. In een wereld waarin elke end‑to‑end versleutelde dienst (per definitie) niet kan “zien” wat gebruikers versturen, kun je altijd redeneren dat er een risico bestaat. De facto komt de plicht daarmee terug via de achterdeur, niet als algemeen bevel, maar als “risicogestuurde aanwijzing”.

De nieuwigheid die velen deed opschrikken: de expliciete toevoeging van tekstscans. Niet alleen foto’s en video’s, maar ook woorden zouden door AI beoordeeld moeten worden op “grooming” of andere signalen. Wie liefdesberichten stuurt, loopt het risico dat een algoritme context loos vermoedt dat er met een minderjarige wordt gecommuniceerd. De paradox liegt er niet om: dezelfde minderjarigen zouden volgens de plannen überhaupt geen toegang meer hebben tot die diensten, maar toch moeten alle teksten op “grooming” worden gescreend. Het potentieel voor “function creep”, het langzaam uitbreiden van doelen waarop je dan toch maar meteen ook scant, is aanzienlijk.

Politieke dynamiek en procedure: alles achter de schermen.

Een terugkerend motief in het dossier is de beslotenheid. Agenderingen verdwijnen vaak vlak voor raadsvergaderingen, zodat er geen formele stemming komt die het plan definitief zou killen. Dan krijgt de volgende voorzitter weer de kans. Volgens diplomatieke wandelgangen is het recent aangepaste voorstel inmiddels onderling “afgesproken” en zou een formele Raad die afspraak bevestigen. Daarna volgt het bekende traject: triloog tussen Commissie, Raad en Europees Parlement met ruimte voor een compromis. Het Parlement heeft zich eerder kritisch opgesteld, maar er zijn verkiezingen geweest; garanties zijn er niet. Burgerlijke vrijheden kunnen in trilogen gemakkelijk tot ruilmiddel verworden.

Mocht de verordening in (bijna) huidige vorm toch door het proces komen, dan achten juristen een gang naar het Europees Hof voor de Rechten van de Mens zeer waarschijnlijk, met als kern de schending van privacy en eerbiediging van de privésfeer. Alleen, dat is traag. Tegen de tijd dat het oordeel valt, is de praktijk al veranderd, de infrastructuur uitgerold, de drempel verlaagd. Wie op rechtsherstel gokt, gokt op een lange adem terwijl het systeem al draait.

Proportionaliteit: iedereen door de fuik om enkelen te vangen.

De ethische vraag is niet of kinderbescherming belangrijk is. Dat is ze. De vraag is of je daarvoor permanent, preventief álle Europeanen moet laten scannen, door algoritmes die fouten maken, en door mensen die door die fouten verplicht naar privébeelden en‑berichten van onschuldigen kijken. Wie misbruik wil plegen, wijkt uit naar kanalen buiten het vizier of gebruikt aangepaste technieken. Wie niets te verbergen heeft, verliest toch privacy: wat je deelt met partner, familie of je beste vriend(in), belandt potentieel in een beoordelingstraject. Dat noemen juristen disproportioneel: de zwaarste middelen op de breedste groep, met risico’s die de beloofde baten mogelijk niet inhalen.

Identificatieplicht en het einde van anonieme communicatie.

De parallelle lijn in de jongste plannen is de afbouw van anonimiteit. Verplichte identificatie voor alle één‑op‑één‑diensten betekent dat je identiteit aan je communicatie gekoppeld wordt, overal. Niet alleen tast dat klokkenluiders, activisten en kwetsbare groepen aan; het verandert het internet in een permanent legitimatie‑loket. In combinatie met leeftijdsverificatie via appstores ontstaat een infrastructuur waar toegang tot gesprek en informatie afhankelijk wordt van papieren of digitale ID‑poorten. Wie de sleutels beheert, beheert de toegang.

De stille normalisering van meekijken.

Het gevaar van normalisering is subtiel. Vandaag is scannen gericht op CSAM; morgen op “grooming” in tekst; overmorgen op “extremisme”, “desinformatie” of een andere, rekbare categorie. De techniek is dan al ingebouwd, de juridische basis gelegd, de organisatorische routine geoefend. De stap van “bij uitzondering” naar “bij default” wordt sneller gezet dan teruggedraaid. En als zelfs topambtenaren en defensie, uit veiligheidsoverwegingen, van scanning werden uitgesloten in eerdere teksten, wat zegt dat over de risico’s voor gewone burgers?

Wat staat er nu op het spel?

Als de Raad de nieuwe lijn bekrachtigt, begint de triloog met het Europees Parlement. Dat is het moment waarop amendementen de scherpe randen kunnen vijlen: het risico‑criterium kan verduidelijkt worden, tekst scans kunnen worden geschrapt, uitzonderingen kunnen worden begrensd, en de identificatie‑/leeftijdsplichten kunnen proportioneel gemaakt of heroverwogen. Tegelijkertijd kan een compromis ook precies het tegenovergestelde doen: juridisch cement gieten over een praktijk die we straks niet meer teruggeschroefd krijgen.

En intussen: een breder digitaal plaatje.

De video waarin deze ontwikkeling wordt uitgelegd, schetst de bredere context: digital ID, een digitale euro (CBDC), het idee van een Europese inlichtingendienst, en het recht voor big tech om data op je telefoon te gebruiken voor AI‑training, alles schuift tegelijk op. Het beeld dat opdoemt is dat van een “digitale machine” die steeds meer bepalend wordt voor wat we in de fysieke wereld nog vrij kunnen doen. Chatcontrol is daarin geen eindpunt, maar een bouwsteen.

Waarom dit geen academisch debat is.

“Privacy is niets te verbergen hebben,” klinkt het vaak. Maar privacy is juist het recht om zélf te bepalen met wie je wat deelt. Er zijn dingen die je publiek doet, dingen die je in je gezin deelt, en dingen die je alleen met je partner deelt. Precies dat graduele, menselijke onderscheid, context, intimiteit, vertrouwen, wordt vlakgeslagen door een systeem dat ieder bestand en elk woord als potentieel bewijsstuk behandelt. Dat is niet alleen juridisch precair, maar menselijk ontwrichtend.

Wat rest: politieke nuchterheid en technische eerlijkheid

Technisch gezien is er geen “magische” client‑scan die zonder fouten en zonder inbreuk werkt. Juridisch gezien is er geen makkelijke route die massale, preventieve doorlichting van privécommunicatie automatisch in overeenstemming brengt met grondrechten. Politiek gezien is er geen simpele keuze: wie “tegen chatcontrol” zegt te zijn, is niet tegen kinderbescherming; wie “voor” zegt te zijn, beschermt niet vanzelf kinderen. Echte bescherming vraagt opsporing die gericht is op dadernetwerken, internationale samenwerking die werkt, en voorzorg die niet de onschuldige meerderheid criminaliseert.

De volgende week en de lange schaduw erna

Volgens diplomatieke signalen is het aangepaste voorstel al tussen lidstaatvertegenwoordigers beklonken en ligt een formele bekrachtiging op de loer. Daarna begint het parlementaire schaakspel. Burgers en volksvertegenwoordigers die deze trend onwenselijk vinden, hebben nog een venster om de koers te buigen. Maar het venster is smal en de infrastructuur om op apparaten te scannen is—zodra ze er is—moeilijk weer weg te denken. Wie nu zwijgt, kan straks alleen nog procederen, en wie procedeert, doet dat in een landschap dat al veranderd is.

Slot.

Het begon met de belofte van veiligheid voor kinderen. Het kan eindigen met een samenleving waarin elk bericht en elke foto, vóór ze liefdevol de familie‑app binnenrollen, langs een algoritmisch lampje moeten dat van kleur verspringt, groen voor “mag door”, rood voor “opsturen naar de autoriteit”. Veiligheid is een groot goed, maar vrijheid is dat ook. Als Europa nu kiest voor een pad waar “risico” een perpetueel bevel wordt en “context” verdwijnt onder de scanner, dan ruilen we het stille recht op intimiteit in voor de luidruchtige geruststelling van een dashboard. Misschien is dit wel het moment om te bepalen wat we belangrijker vinden in een vrije samenleving: een net zonder mazen, of een leven met deuren die we, zonder spionnetje, achter ons mogen sluiten.■

Bron: de video‑uitleg van De Nieuwe Wereld met Michel Portier (15 november 2025).

Zie ook: Hoe de EU kinderen gebruikt voor haar agenda

Cartoon met thema’s rond Europese chatcontrole: vergrootglas boven chatberichten, laptop met gesprek, smartphones met leeftijdsgrens en ID-iconen, sloten voor encryptie, EU-gebouw met digitale muntjes, camera’s en AI-scanning.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *