DE EUROPESE VISIE OP AI

Artificiële intelligentie (AI of kunstmatige intelligentie) kent een stormachtige opmars. Lees bijvoorbeeld ons eerdere blog over ChatGPT. De Europese Unie (EU) wil deze ontwikkelingen in goede banen leiden. Dit blog schetst op korte wijze een overzicht van wat er op het gebied van AI-regulering de komende tijd op stapel staat.

AI is een verzameling van technologieën waarbij gegevens, algoritmen en rekenkracht worden gecombineerd. Europa wil wereldleider worden op het gebied van innovatie in de data-economie. Zij wil een ecosysteem ontwikkelen dat de voordelen van de AI-technologie naar de gehele Europese samenleving en economie brengt. Tegelijkertijd zorgt het gebruik van AI voor bezorgdheid rondom burgers. Ondanks dat zij profijt kunnen trekken van bijvoorbeeld betere gezondheidzorg, minder storingen van huishoudtoestellen en betere openbare dienstverlening, zijn er risico’s voor burgers dat de toepassing van AI onbedoelde gevolgen kan hebben of zelfs voor kwaadaardige doeleinden kan worden gebruikt.

De EU wil daarom inzetten op verantwoorde AI, waarbij de ontwikkelingen enerzijds worden gestimuleerd en anderzijds de belangen van haar burgers worden gewaarborgd. Dit beleid volgt uit de whitepaper van 2020.

WELKE AI-REGELS GELDEN ER OF KOMEN ER?

Momenteel spelen vooral drie reguleringen rond AI een belangrijke rol:

  1. AI Act (of AI-verordening);
  2. AI-aansprakelijkheidsrichtlijn; en
  3. de nieuwe productaansprakelijkheidsrichtlijn.

Het betreft dus zowel een verordening als twee richtlijnen. Zowel verordeningen als richtlijnen hebben het doel om de Europese regels te ‘harmoniseren’ oftewel bij de onderlinge lidstaten op één lijn te brengen. Het verschil is dat een verordening rechtstreeks geldt, terwijl een richtlijn juist door de lidstaten van de EU eerst omgezet moeten worden in nationale wetgeving. Daar zit dus een vertaalslag in, waarbij rekening kan worden gehouden met het betreffende nationale recht.

AI ACT (OF AI-VERORDENING)

Over de AI-verordening hadden wij al eerder een blog geschreven. Inmiddels is de AI-verordening in december 2023 aangenomen door het Europees Parlement. Deze tekst is in februari 2024 vervolgens nog door de Raad van de Europese Unie goedgekeurd. Hierna volgt de volledige toepassing van de AI-verordening. De integrale en aangepaste tekst van de AI Act van 13 maart 2024 is inmiddels online raadpleegbaar. Na officiële publicatie zullen de regels gefaseerd van toepassing komen, de meeste binnen twee jaar.

In de AI-verordening zijn AI waarborgen voor algemene doeleinden terug te vinden, evenals beperkingen op het gebruik van systemen voor biometrische identificatie, een verbod op AI die wordt gebruikt om kwetsbaarheden van gebruikers te manipuleren en het recht voor consumenten om klachten in te dienen.

AI-systemen worden geïnventariseerd en geëvalueerd om vervolgens te worden onderverdeeld in drie risiconiveaus. Verboden systemen zijn systemen met een onaanvaardbaar risico voor de veiligheid en grondrechten. AI-systemen met een hoog risico zullen de meerderheid van de nalevingsplichten dragen, waaronder cyberbeveiligingsmaatregelen en menselijk toezicht. Voor AI-systemen met een minimaal risico worden slechts een risicobeoordeling en enkele transparantievereisten opgelegd.

In nadere blogs zal dieper op de AI Act worden ingegaan.

AI-AANSPRAKELIJKHEIDSRICHTLIJN

Waar de AI-verordening is gericht op het voorkomen van schade, voorziet de richtlijn AI-aansprakelijkheid in een vergoeding voor de schade die desondanks zou kunnen ontstaat. Deze richtlijn bevindt zich momenteel nog in een conceptstadium.

De conceptrichtlijn wil ervoor zorgen dat degenen die schade lijden door het gebruik van AI eenzelfde bescherming zullen krijgen als degenen die schade lijden die veroorzaakt is door producten in het algemeen. Wanneer er sprake is van schade door op AI gebaseerde systemen, dan zal het moeilijk zijn om het oorzakelijk verband tussen schade en AI-gebruik aan te tonen. Bovendien hebben personen met schade waarschijnlijk geen toegang tot het bewijsmateriaal.

De conceptrichtlijn probeert een handreiking te geven aan diegene die schade heeft geleden door het invoeren van een wettelijk bewijsvermoeden van causaal verband. Dit houdt kortweg in dat de schade die ontstaat wordt vermoed voort te vloeien uit het gebruik van AI. En verder introduceert de conceptrichtlijn een recht tot toegang tot bewijsmateriaal dat logischerwijs enkel bij de leverancier van AI ligt. Dit moet bijdragen aan het vertrouwen van de samenleving en de consument in zowel AI als het rechtsstelsel.

In een nader blog zal hier dieper op worden ingegaan.

PRODUCTAANSPRAKELIJKHEIDSRICHTLIJN

De nieuwe productaansprakelijkheidsrichtlijn richt zich op de risicoaansprakelijkheid van producenten voor producten met gebreken. Producten kunnen inmiddels ook AI bevatten en daarom is deze richtlijn ook relevant in het kader van AI. Ook deze richtlijn bevindt zich nog in het conceptstadium.

Een fabrikant zal op basis van deze conceptrichtlijn aansprakelijk worden gehouden voor schade veroorzaakt door een gebrekkig product. Het begrip ‘fabrikant’ is ruimer dan enkel de producten van eind- of halfproducten. De productaansprakelijkheidsrichtlijn zorgt ervoor dat voor producten met gebreken schadevergoeding kan worden geëist van de fabrikant. Consumenten krijgen een betere rechtsbescherming en de bewijslast wordt verlicht.

Net als bij de AI-aansprakelijkheidsrichtlijn kent deze conceptrichtlijn een soortgelijke regeling voor toegang tot bewijsmateriaal. En ook komt deze de benadeelde tegemoet met regels om gemakkelijker het causale verband tussen schade en gebruik van het product aan te tonen.

In een nader blog zal verder worden ingegaan op de productaansprakelijkheidsrichtlijn.

CONCLUSIE

Bedrijven, die AI als onderdeel van hun bedrijfsvoering of producten gebruiken of gaan gebruiken, dienen zich voor te bereiden op de komende regels. Een beoordeling van in welke risicocategorie de (beoogde) AI-oplossing valt, is een begin bij de voorbereiding op de komende regels. Ook bestaat de optie voor AI-leveranciers om zich, vooruitlopend op de werking van de AI Act, aan te sluiten bij het zogeheten “AI Pact“. Daarmee kan men vrijwillig anticiperen op de komende AI-regels en alvast de nodige stappen nemen voor compliance. Neem contact op met NORD Advocaten voor een nadere verkenning van dit onderwerp.

AI: artificiële intelligentie
Geplaatst op 17 april 2024 door Koen Konings