De AI-wet is de eerste regelgeving van zijn soort ter wereld. De eerste die kunstmatige intelligentie op een mensgerichte manier volledig aanpakt. Het doel is ervoor te zorgen dat AI-systemen die in Europa worden gebruikt veilig zijn en innovatie stimuleren, terwijl de fundamentele rechten worden gerespecteerd, met een speciale focus op:
Voor MKB’s zal de AI-wet voornamelijk meer juridische zekerheid bieden, aangezien deze het kader voor innovatie duidelijk definieert: de principes van het ontwerpen, ontwikkelen en toepassen van AI-systemen. Het zal het voor bedrijven gemakkelijker maken om te investeren in op AI gebaseerde oplossingen, waardoor juridische risico’s worden verminderd. Bovendien zullen regels die in de hele Unie van toepassing zijn, marktfragmentatie voorkomen.
Europese regelgeving over kunstmatige intelligentie werd op 9 december 2023 aangenomen door het Europees Parlement en de Raad van Europa. Nu moeten ze formeel door beide instellingen worden goedgekeurd om van kracht te worden.
De EU AI-wet introduceert een reeks vereisten voor AI-systemen, afhankelijk van het risiconiveau. Deze vereisten omvatten onder andere:
Fabrikanten en bedrijven die AI-systemen gebruiken, zullen ook verplicht zijn om risico’s te monitoren na de introductie op de markt. Dit zal directe gevolgen hebben voor bedrijven die AI-systemen ontwerpen en implementeren.
De AI-wet classificeert AI-systemen in vier categorieën op basis van hun risiconiveau:
Laten we eens nader bekijken hoe elke groep zal worden gedefinieerd, samen met voorbeelden van systemen en hun classificaties.
De Europese Unie legt een volledig verbod op het gebruik van technologieën die in de AI-wet zijn vermeld als systemen met onacceptabel risico. Dit zijn voornamelijk systemen die zijn ontworpen om de kwetsbaarheid van individuen voor suggestie te exploiteren voor manipulatie of misleiding, systemen die kunstmatige intelligentie de mogelijkheid geven om beslissingen te nemen in cruciale zaken, en die kunnen leiden tot machtsmisbruik. Voorbeelden van AI met onacceptabel risico zijn:
Voor bedrijven is de laatste categorie bijzonder belangrijk. Daarom zal transparantie in de werking van systemen die suggesties aan gebruikers en klanten bieden cruciaal zijn voor de naleving van de nieuwe wetgeving van de Europese Unie.
Kunstmatige intelligentie die als een hoog-risico AI-oplossing wordt geclassificeerd, moet voldoen aan strenge vereisten voordat deze op de markt komt. Dit omvat conformiteitsbeoordelingen en strenge tests voordat goedkeuring voor gebruik wordt verleend. Deze risicocategorie omvat acht gebieden, zoals:
Voor systemen met beperkt risico, die het meest worden gebruikt in het bedrijfsleven, hebben wetgevers gelukkig veel minder aandacht besteed. Deze categorie omvat:
AI-oplossingen met een laag risico zijn niet onderworpen aan wettelijke regelgeving. De AI-wet zal alleen vermelden dat makers en gebruikers van dergelijke oplossingen vrijwillig gebruiksbeleid moeten vaststellen. Dit betreft oplossingen zoals:
Om te controleren of de kunstmatige intelligentie die door een bedrijf wordt gebruikt, voldoet aan de AI-wet, moet je:
Laten we kijken naar voorbeelden van veelgebruikte AI-oplossingen door bedrijven. Aan welke vereisten moeten ze voldoen?
Een klantenservice-chatbot die basisinformatie over producten biedt of typische klantvragen beantwoordt, zal waarschijnlijk worden geclassificeerd als een minimaal-risicosysteem. Het zal moeten:
Een productaanbevelingssysteem in e-commerce zal waarschijnlijk worden beschouwd als een laag-risicosysteem. Het zal noodzakelijk zijn om klanten te informeren dat ze gepersonaliseerde aanbevelingen ontvangen en de optie te bieden om deze uit te schakelen.
Aan de andere kant zal een systeem voor automatische medische diagnostiek worden geclassificeerd als een hoog-risicosysteem. Het zal een rigoureuze beoordeling moeten ondergaan voordat het op de markt komt en moet worden gecontroleerd door een mens. Bovendien zal het noodzakelijk zijn om de werking ervan te monitoren en incidenten te rapporteren.
Het systeem voor het voorkomen van stedelijke criminaliteit zal ook als hoog-risico worden beschouwd. Het zal moeten voldoen aan de regelgeving over de bescherming van de privacy en andere fundamentele rechten. De werking ervan moet onder constante menselijke supervisie staan.
Het is onduidelijk in welke categorie AI-gebaseerde besluitvormingssystemen zullen vallen. Het is waarschijnlijk dat een AI-gebaseerd wervingssysteem dat zelfstandig aanstellingsbeslissingen neemt, zal worden beschouwd als een AI-oplossing met onacceptabel risico. Aan de andere kant zou een wervingsondersteuningssysteem dat mensen helpt hun werk te doen, worden beschouwd als een hoog-risico-oplossing.
In het belang van het welzijn van de gebruikers, evenals mogelijke wijzigingen in classificaties, is het zeer belangrijk om de constructie en het gebruik van AI-systemen vanaf het begin op een ethische en verantwoorde manier aan te pakken.
Het niet volgen van de AI-wet kan leiden tot aanzienlijke boetes voor bedrijven, variërend van €35 miljoen of 7% van de wereldwijde omzet voor grote ondernemingen tot €7,5 miljoen of 1,5% voor MKB’s. Onwettige AI-systemen kunnen van de markt worden gehaald en hun gebruik kan worden beperkt.
Hoe bereid je een bedrijf dat kunstmatige intelligentie gebruikt voor op de inwerkingtreding van de AI-wet in 2025? Hier zijn enkele tips over hoe MKB’s en startups zich op dit moment kunnen voorbereiden:
De introductie van de AI-wet is een grote verandering voor het AI-ecosysteem in Europa. Met duidelijke en consistente regels belooft het echter de veilige en ethische ontwikkeling van deze technologie te waarborgen, wat vooral ten goede moet komen aan MKB’s en startups.
De AI-wet, die in 2025 van kracht zal worden, zal aanzienlijke veranderingen met zich meebrengen in hoe kleine en middelgrote ondernemingen (MKB’s) kunstmatige intelligentie kunnen benutten. Voor MKB’s betekent dit voornamelijk de noodzaak van zorgvuldige overweging en analyse van de AI-oplossingen die ze gebruiken, zowel in termen van naleving van regelgeving als de potentiële impact op klanten en de gemeenschap.
Voor kleine ondernemers en managers is het essentieel om te begrijpen hoe hun AI-systemen worden geclassificeerd in termen van risico en welke acties nodig zijn om ze in overeenstemming te brengen met de aankomende regelgeving. Neem bijvoorbeeld AI-systemen die worden gebruikt in klantbeheer of marketing, die voorheen vrij werden gebruikt. Nu zullen ze een grondige analyse vereisen voor naleving van de AI-wet. Dit zou nieuwe kansen kunnen creëren voor bedrijven die gespecialiseerd zijn in juridische technologie, die MKB’s ondersteuning bieden bij het aanpassen aan deze nieuwe vereisten.
Als je onze inhoud leuk vindt, sluit je dan aan bij onze drukke bijengemeenschap op Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.
JavaScript-expert en instructeur die IT-afdelingen coacht. Zijn belangrijkste doel is om de productiviteit van het team te verhogen door anderen te leren hoe ze effectief kunnen samenwerken tijdens het coderen.
Bedrijven worstelen met het beheren van een enorme hoeveelheid content die online wordt gepubliceerd, van…
In het tijdperk van digitale transformatie hebben bedrijven toegang tot een ongekende hoeveelheid gegevens over…
Wist je dat je de essentie van een meerdaagse opname van een vergadering of gesprek…
Stel je een wereld voor waarin jouw bedrijf boeiende, gepersonaliseerde video's kan maken voor elke…
Om het potentieel van Large Language Models (LLM's) volledig te benutten, moeten bedrijven een effectieve…
In 2018 was Unilever al begonnen aan een bewuste reis om automatisering en augmentatie in…