De AI Act raakt ook jouw organisatie: dit moet je weten over de recente ontwikkelingen

De Europese AI Act stelt straks eisen aan álle organisaties die AI gebruiken, ook als je alleen een co-pilot of chatbot inzet. Transparantie en verantwoordelijkheid worden de norm. Wacht niet af: breng je AI-gebruik nu al in kaart, stel kritische vragen aan leveranciers en maak duidelijke afspraken intern. Zo blijf je in controle – en compliant.

De EU AI Act is op 1 augustus 2024 officieel in werking getreden. Op dat moment golden er nog geen directe verplichtingen voor organisaties. Dat verandert de komende tijd – lees hieronder wat voor impact dat heeft op jouw organisatie.

Bepaalde toepassingen zijn al verboden

Begin 2025 werd het verbod op AI-systemen met een onaanvaardbaar risico van kracht. Denk aan manipulatieve systemen, sociale scoring en real-time biometrische identificatie in publieke ruimtes. Voor deze categorie geldt een totaalverbod — dus zowel het ontwikkelen, aanbieden als gebruiken is verboden. Binnenkort gaan er ook regels gelden voor General Purpose AI.

Wat is General Purpose AI (GPAI)?

General Purpose AI (GPAI) zijn generieke toepassingen van AI waar onder andere foundation models en grote taalmodellen onder vallen. Deze zijn onderdeel van vrijwel alle AI-oplossingen waarmee veel bedrijven nu aan het experimenteren zijn. Dus ook de co-pilots en chatbots.

Wat verandert er rondom GPAI?

Vanaf 2 augustus 2025 gelden er transparantieverplichtingen voor aanbieders van GPAI. Zij moeten informatie beschikbaar stellen over hoe hun modellen werken, welke beperkingen ze hebben en welke risico’s eraan verbonden zijn.

Wat betekent dit voor jouw organisatie?

Deze nieuwe transparantieverplichtingen voor GPAI-aanbieders zijn goed nieuws voor jouw organisatie, ongeacht of jullie nog aan het experimenteren zijn of dat AI al breed is geïmplementeerd. Deze transparantie stelt jou namelijk in staat om de AI-oplossingen verantwoord en beheersbaar te implementeren.

Verdere aanscherping vanaf 2026

De AI Act schuift steeds meer verantwoordelijkheden in de keten door. Ook als je geen ontwikkelaar bent, maar alleen gebruiker, moet je straks weten wat je inzet en hoe je dat verantwoord doet. Vanaf 2 augustus 2026 gaan er namelijk aanvullende verplichtingen gelden voor de gebruikers van de generieke AI toepassingen. Wie vandaag al begint met de voorbereidingen op deze wetgeving, voorkomt vertraging of complianceproblemen in 2026.

Er is inmiddels ook een gedragscode gepubliceerd, die vooruitloopt op deze verplichtingen – een handig startpunt als je vandaag al beleid wilt ontwikkelen.

Jouw verantwoordelijkheden

Als jouw organisatie deze generieke toepassingen integreert in producten of diensten, ben je medeverantwoordelijk voor transparant, eerlijk en veilig gebruik. Je moet dan:

  • Inzichtelijk maken hoe het model werkt en wat de beperkingen zijn
  • Vastleggen waar en waarvoor het model wordt ingezet
  • Zorgen voor menselijke controle en toezicht
  • Klanten en medewerkers informeren wanneer ze met AI te maken hebben
  • Maatregelen nemen tegen verkeerde interpretatie of misbruik

Waarom nu al in actie komen?

Hoewel de verplichtingen pas later gelden, is dit het moment om grip te krijgen op je gebruik van AI:

  • Breng in kaart welke modellen je gebruikt en waarvoor
  • Beoordeel de gebruikte modellen én de door jouw gemaakte oplossingen op risico’s
  • Stel vragen aan leveranciers over transparantie, beperkingen en risico’s
  • Documenteer gemaakte keuzes
  • Bepaal intern hoe je omgaat met inzet van AI en wie waarvoor verantwoordelijk is
  • Richt processen in om verkeerde interpretatie en misbruik te voorkomen

Voorbereiden op de AI Act hoeft geen megaproject te zijn

Wij helpen organisaties met praktische stappen en helder beleid, passend bij hun situatie. Neem contact op en voorkom verrassingen in 2026. Geen dikke rapporten of lange presentaties maar praktische stappenplannen die direct wat opleveren.

Cases & Solutions

Van AI-belofte naar praktijk: zo houd je controle

De razendsnelle ontwikkelingen op het gebied van AI bieden ongekende kansen, maar leggen ook bloot wat tot nu toe misschien onder de oppervlakte bleef: versnipperde datalandschappen, overlappende technologieën en gebrekkige governance worden ineens zichtbaar én blokkerend. Hoe houd je de controle en haal je het maximale uit je informatielandschap?

Lees meer

Van ChatGPT naar AI-governance: stappen richting een volwassen AI-aanpak

Iedere organisatie is zich tegenwoordig bewust van AI. We zien dat in de praktijk AI vaak blijft hangen in gesilode initiatieven — versnipperde pogingen zonder overkoepelende visie. Bij 2-cnnct helpen we organisaties om AI structureel, veilig en effectief onderdeel te maken van hun strategie en operatie.

Lees meer
All cases