AI-wetgeving officieel van kracht: wat betekent dit voor jou?

De AI Act, het allereerste juridische kader voor AI, is sinds 1 augustus officieel van kracht. Deze Europese wetgeving stelt regels voor autonome computersystemen en algoritmes die beslissingen nemen, content genereren of ondersteuning bieden. Het doel is om ervoor te zorgen dat AI-systemen in de EU veilig, transparant, controleerbaar, niet-discriminerend en milieuvriendelijk zijn, altijd onder menselijk toezicht.

De verordening hanteert een risicogebaseerde benadering, waarbij de verplichtingen voor aanbieders en gebruikers afhangen van het risiconiveau van het AI-systeem. De AI Act is van toepassing op alle sectoren, zoals gezondheidszorg, financiën, overheid, onderwijs en entertainment, met specifieke regels voor opsporings- en veiligheidsdiensten.

Dit is een voorbeeld afbeelding

Waarom is AI-wetgeving nodig?

De AI-wetgeving is nodig om ervoor te zorgen dat Europeanen veilig en met vertrouwen gebruik kunnen maken van AI-technologie. Hoewel veel AI-systemen nuttig zijn bij het oplossen van maatschappelijke uitdagingen en weinig risico's opleveren, brengen sommige systemen wel risico’s met zich mee die beheerst moeten worden. De wet biedt een kader om deze risico's aan te pakken en misbruik te voorkomen. Zo is het bijvoorbeeld verboden dat AI-systemen discrimineren op basis van etniciteit, leeftijd, geslacht of andere demografische kenmerken, met als doel eerlijke en gelijke kansen te waarborgen.

De wetgeving geldt voor iedereen die AI ontwikkelt, verkoopt of gebruikt, inclusief producenten, integrators, importeurs en gebruikers. Alle betrokken partijen moeten kunnen aantonen dat hun AI-systemen voldoen aan de vereisten en moeten duidelijke informatie opvragen bij leveranciers om te verzekeren dat de systemen aan de regelgeving voldoen.

Risicogebaseerde aanpak

De AI Act classificeert AI-systemen op basis van hun risiconiveau in vier categorieën: onacceptabel risico, hoog risico, beperkt risico, en laag risico. Hier zijn voorbeelden voor elk risiconiveau:

Dit is een voorbeeld afbeelding

Onacceptabel risico (verboden AI-systemen)

AI-systemen in deze categorie worden als zodanig risicovol beschouwd dat ze verboden zijn binnen de EU. Deze systemen vormen een ernstige bedreiging voor de veiligheid, rechten en vrijheden van individuen. Voorbeelden zijn:

  • Social scoring door overheden (zoals het Chinese sociaal kredietsysteem), waarbij individuen op basis van hun gedrag worden beoordeeld en gesanctioneerd.
  • AI-systemen die technieken gebruiken voor onderbewuste manipulatie van kwetsbare groepen, zoals kinderen.

Hoog risico

Deze AI-systemen kunnen een aanzienlijke impact hebben op de rechten en veiligheid van individuen. Ze zijn niet verboden, maar moeten strikte eisen en waarborgen volgen, zoals transparantie, toezicht en risicobeheer. Voorbeelden zijn:

  • AI in kritieke infrastructuur, zoals de gezondheidszorg (bijvoorbeeld AI-systemen die medische diagnoses ondersteunen).
  • AI in het onderwijs, zoals systemen die toetsen afnemen of beoordelen, waarbij uitkomsten een invloed hebben op iemands toegang tot onderwijs of loopbaan.

Beperkt risico

Deze AI-systemen vereisen minder strenge controles, maar moeten voldoen aan bepaalde transparantie-eisen. Gebruikers moeten bijvoorbeeld op de hoogte worden gesteld dat ze met een AI-systeem te maken hebben. Voorbeelden zijn:

  • Chatbots die met gebruikers communiceren en menselijke interactie nabootsen. Gebruikers moeten weten dat ze met een AI communiceren.
  • AI-systemen voor persoonlijke assistentie, zoals virtuele assistenten die advies geven of diensten automatiseren.

Laag risico

AI-systemen in deze categorie vormen een gering risico en vallen niet onder strenge regelgeving. Ze worden meestal vrij gebruikt zonder specifieke verplichtingen of beperkingen. De meeste AI-systemen die momenteel in de EU worden gebruikt, vallen binnen deze categorie. Voorbeelden zijn:

  • AI voor videogames en entertainmenttoepassingen die geen impact hebben op de rechten en vrijheden van individuen.
  • AI-gebaseerde aanbevelingssystemen op streamingdiensten, zoals suggesties voor films of series op basis van eerdere kijkgedrag.

Flexibele wetgeving

De snelle ontwikkelingen op het gebied van AI kunnen ervoor zorgen dat wetgeving snel achterhaald raakt of onvoldoende inspeelt op nieuwe technologieën. Daarom biedt de wet flexibiliteit, zodat in de toekomst aanpassingen en uitbreidingen kunnen worden doorgevoerd. Dit zorgt ervoor dat de regelgeving up-to-date blijft.

Contact met Adecco

Heb je vragen, neem contact op met Adecco

Naar contact