
Is AI made in Europe automatisch verantwoorde AI?

Auteur: Marianne Schoenmakers
Het gebruik van digitale technologieën, en in het bijzonder AI, neemt razendsnel toe in zowel de publieke sector als de samenleving. De afhankelijkheid van niet‑Europese technologiebedrijven is groot blijkt uit de rapporten. Het debat over digitale soevereiniteit is daardoor urgenter dan ooit . De argumenten variëren: van het versterken van Europa's concurrentiekracht tot het waarborgen van weerbaarheid en technologie die gestoeld is op ‘Europese waarden’. Maar hoe deze waarden in technologie moeten worden verankerd blijft vaak vaag.
Digitale soevereiniteit: de behoefte aan grip op AI
Digitale soevereiniteit draait om de mogelijkheid van staten, organisaties en andere collectieven om controle uit te oefenen over digitale middelen, van infrastructuur tot data en AI‑systemen. Dit staat onder druk doordat grote niet-Europese technologiebedrijven beschikken over vrijwel onbeperkte rekenkracht, datasets en distributieplatforms. Hierdoor hebben ze een grote invloed op publieke processen, variërend van informatievoorziening tot cruciale infrastructuren zoals onderwijs en zorg.
Omdat de macht van deze bedrijven niet democratisch gelegitimeerd is, klinkt de roep om transparantie en verantwoordingsmechanismen, zoals audits en openbaarmakingsvereisten. Tegelijkertijd groeit de wens om ‘eigen’ Europese AI‑innovatie te versterken als tegenwicht.
Regulering versus innovatie: een te simplistisch debat
In discussies over het vermeende gebrek aan Europese AI‑innovatie wordt vaak gewezen op strenge regelgeving die innovatie zou vertragen en duur zou maken. Een soepeler regelgevingskader, zoals in de VS, zou bedrijven meer ruimte geven. Maar dit perspectief is te simplistisch. Zoals ook blijkt uit recent onderzoek, speelt er veel meer: stagnerende techtransfer, lage R&D‑investeringen, gefragmenteerde kapitaalmarkten en knelpunten in digitale infrastructuur. Regulering is dus maar één factor in een complex ecosysteem.
Lange tijd lag de nadruk in de EU op het beperken van risico’s via regelgeving, zoals bijvoorbeeld via de GDPR en de AI‑Verordening. Met het beoogde Brussels effect hoopte men ook internationale standaarden te zetten. Vanaf 2024 zien we een duidelijke verschuiving. Mede door het Draghi‑rapport klinkt de oproep om niet alleen te reguleren, maar actief te investeren in Europese innovatiekracht. Parallel daaraan klinkt de roep om versoepeling en versimpeling van Europese digitale regelgeving, onder andere via de digitale omnibusvoorstellen.
Tegen deze achtergrond ontstonden het afgelopen jaar diverse initiatieven om AI‑innovatie te stimuleren, zoals het EuroStack‑initiatief en, dichter bij huis, het recent gepubliceerde Nationaal Deltaplan AI. Hoewel zij benadrukken dat AI ‘volgens Europese waarden’ ontwikkeld moet worden, blijft in deze plannen onduidelijk hoe die waarden concreet moeten worden geborgd in ontwerp‑ en ontwikkelprocessen.
De impliciete aanname lijkt te zijn dat AI made in Europe automatisch verantwoorde AI oplevert. Maar hier wringt het: hoe veranker je Europese waarden in digitale technologie als tegelijkertijd wordt gepleit voor het versoepelen van de regels die die waarden moeten bewaken? Verantwoorde AI-innovatie en -adoptie vereist een aanpak op meerdere lagen, van duidelijk beleid en wetgeving tot expliciete methoden, volwassen AI governance‑structuren en organisatorische inbedding. Dat ontstaat niet vanzelf door geografische herkomst.
Naar soevereine én verantwoorde AI‑innovatie
Digitale soevereiniteit is geen doel op zichzelf, maar een middel om concurrentiekracht, weerbaarheid en waarden‑gedreven technologie te versterken. Recente incidenten, zoals het Internationaal Strafhof waarbij een hoofdaanklager werd afgesloten van Microsoft omdat Amerika sancties had opgelegd voeden het schrikbeeld dat organisaties zomaar afgesloten kunnen worden van essentiële digitale infrastructuur. Organisaties worstelen met hun afhankelijkheid van grote Amerikaanse AI‑aanbieders, zeker bij generatieve AI, waar de marktdominantie sterk is. In de praktijk zie ik dat organisaties sinds het afgelopen jaar wel degelijk nadenken over het verminderen van digitale afhankelijkheid. Maar bij strategische keuzes blijft vaak onduidelijk aan welke concrete knoppen ze kunnen draaien. De keuze voor een Europees of open‑sourcemodel is aantrekkelijk, maar de kwaliteit ervan loopt op veel vlakken nog achter. Dit vraagt voor organisaties, maar ook voor de EU om het maken van scherpe afwegingen, zeker in domeinen en processen die kritisch zijn in onze samenleving.
Conclusie
AI made in Europe is geen vanzelfsprekende route naar verantwoorde AI. Digitale soevereiniteit biedt pas waarde wanneer zij wordt gekoppeld aan concrete AI governance‑principes, transparante ontwerppraktijken en structurele verankering in organisaties. Dit vraagt meer dan het stimuleren van Europese technologie: het vereist óók dat we expliciet maken welke publieke waarden we willen beschermen, hoe die waarden worden verankerd in ontwerp- en besluitvorming en waar we bereid zijn compromissen te sluiten.




