De Europese AI Act stelt straks eisen aan álle organisaties die AI gebruiken, ook als je alleen een co-pilot of chatbot inzet. Transparantie en verantwoordelijkheid worden de norm. Wacht niet af: breng je AI-gebruik nu al in kaart, stel kritische vragen aan leveranciers en maak duidelijke afspraken intern. Zo blijf je in controle – en compliant.
De EU AI Act is op 1 augustus 2024 officieel in werking getreden. Op dat moment golden er nog geen directe verplichtingen voor organisaties. Dat verandert de komende tijd – lees hieronder wat voor impact dat heeft op jouw organisatie.
Begin 2025 werd het verbod op AI-systemen met een onaanvaardbaar risico van kracht. Denk aan manipulatieve systemen, sociale scoring en real-time biometrische identificatie in publieke ruimtes. Voor deze categorie geldt een totaalverbod — dus zowel het ontwikkelen, aanbieden als gebruiken is verboden. Binnenkort gaan er ook regels gelden voor General Purpose AI.
General Purpose AI (GPAI) zijn generieke toepassingen van AI waar onder andere foundation models en grote taalmodellen onder vallen. Deze zijn onderdeel van vrijwel alle AI-oplossingen waarmee veel bedrijven nu aan het experimenteren zijn. Dus ook de co-pilots en chatbots.
Vanaf 2 augustus 2025 gelden er transparantieverplichtingen voor aanbieders van GPAI. Zij moeten informatie beschikbaar stellen over hoe hun modellen werken, welke beperkingen ze hebben en welke risico’s eraan verbonden zijn.
Deze nieuwe transparantieverplichtingen voor GPAI-aanbieders zijn goed nieuws voor jouw organisatie, ongeacht of jullie nog aan het experimenteren zijn of dat AI al breed is geïmplementeerd. Deze transparantie stelt jou namelijk in staat om de AI-oplossingen verantwoord en beheersbaar te implementeren.
De AI Act schuift steeds meer verantwoordelijkheden in de keten door. Ook als je geen ontwikkelaar bent, maar alleen gebruiker, moet je straks weten wat je inzet en hoe je dat verantwoord doet. Vanaf 2 augustus 2026 gaan er namelijk aanvullende verplichtingen gelden voor de gebruikers van de generieke AI toepassingen. Wie vandaag al begint met de voorbereidingen op deze wetgeving, voorkomt vertraging of complianceproblemen in 2026.
Er is inmiddels ook een gedragscode gepubliceerd, die vooruitloopt op deze verplichtingen – een handig startpunt als je vandaag al beleid wilt ontwikkelen.
Als jouw organisatie deze generieke toepassingen integreert in producten of diensten, ben je medeverantwoordelijk voor transparant, eerlijk en veilig gebruik. Je moet dan:
Hoewel de verplichtingen pas later gelden, is dit het moment om grip te krijgen op je gebruik van AI:
Wij helpen organisaties met praktische stappen en helder beleid, passend bij hun situatie. Neem contact op en voorkom verrassingen in 2026. Geen dikke rapporten of lange presentaties maar praktische stappenplannen die direct wat opleveren.
De razendsnelle ontwikkelingen op het gebied van AI bieden ongekende kansen, maar leggen ook bloot wat tot nu toe misschien onder de oppervlakte bleef: versnipperde datalandschappen, overlappende technologieën en gebrekkige governance worden ineens zichtbaar én blokkerend. Hoe houd je de controle en haal je het maximale uit je informatielandschap?
Iedere organisatie is zich tegenwoordig bewust van AI. We zien dat in de praktijk AI vaak blijft hangen in gesilode initiatieven — versnipperde pogingen zonder overkoepelende visie. Bij 2-cnnct helpen we organisaties om AI structureel, veilig en effectief onderdeel te maken van hun strategie en operatie.