Toelichting bij COM(2022)496 - Aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (AI)

Dit is een beperkte versie

U kijkt naar een beperkte versie van dit dossier in de EU Monitor.

1. ACHTERGROND VAN HET VOORSTEL

·

Motivering en doel van het voorstel



Deze toelichting vergezelt het voorstel voor een richtlijn betreffende de aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (AI). Volgens een representatieve enquête uit 2020 1 behoorde aansprakelijkheid tot de drie grootste belemmeringen voor de toepassing van AI door Europese bedrijven. Aansprakelijkheid werd genoemd als de meest relevante externe belemmering (43 %) voor bedrijven die van plan zijn AI toe te passen, maar deze nog niet hebben ingevoerd.

In haar politieke beleidslijnen heeft Commissievoorzitter Ursula von der Leyen een gecoördineerde Europese aanpak van AI uiteengezet 2 . In haar Witboek over AI van 19 februari 2020 3 heeft de Commissie zich ertoe verbonden de aanvaarding van AI te bevorderen en de risico’s in verband met sommige van de toepassingen ervan te verhelpen door excellentie en vertrouwen te bevorderen. In het bij het witboek gevoegde verslag over de aansprakelijkheid voor AI 4 heeft de Commissie de specifieke problemen van AI in verband met de bestaande aansprakelijkheidsregels in kaart gebracht. In zijn conclusies van 9 juni 2020 over het vormgeven van de digitale toekomst van Europa verwelkomde de Raad de raadpleging over de beleidsvoorstellen in het Witboek over AI en riep hij de Commissie op om met concrete voorstellen te komen. Op 20 oktober 2020 heeft het Europees Parlement op grond van artikel 225 VWEU een initiatiefresolutie van wetgevende aard aangenomen waarin de Commissie wordt verzocht een voorstel goed te keuren voor een civielrechtelijke aansprakelijkheidsregeling voor AI op basis van artikel 114 van het Verdrag betreffende de werking van de Europese Unie (VWEU) 5 .

De huidige nationale aansprakelijkheidsregels, die vooral op schuld zijn gebaseerd, zijn niet geschikt voor de behandeling van vorderingen op grond van aansprakelijkheid voor schade die is veroorzaakt door op AI gebaseerde producten en diensten. Volgens die regels moeten gelaedeerden het bestaan van een onrechtmatig doen of nalaten bewijzen van de persoon die de schade heeft veroorzaakt. De specifieke kenmerken van AI, waaronder complexiteit, autonomie en ondoorzichtigheid (het zogenaamde “blackboxeffect), kunnen het voor gelaedeerden moeilijk of buitensporig kostbaar maken om de aansprakelijke persoon te identificeren en te bewijzen dat aan de voorwaarden voor een succesvolle vordering op grond van aansprakelijkheid is voldaan. Met name kunnen gelaedeerden bij vorderingen tot schadevergoeding te maken krijgen met zeer hoge kosten vooraf en aanzienlijk langere gerechtelijke procedures dan wanneer er geen sprake is van AI. Gelaedeerden kunnen er daarom van worden weerhouden om überhaupt schadevergoeding te vorderen. De zorgen hierover komen ook tot uitdrukking in de resolutie van het Europees Parlement (EP) van 3 mei 2022 over artificiële intelligentie in het digitale tijdperk.  6

Als een gelaedeerde een vordering instelt, kunnen de nationale rechtbanken wanneer zij met de specifieke kenmerken van AI te maken krijgen, de manier waarop zij de bestaande regels toepassen ad hoc aanpassen teneinde tot een billijk resultaat voor het slachtoffer te komen. Hierdoor zal rechtsonzekerheid ontstaan. Bedrijven zullen moeite hebben om te voorspellen hoe de bestaande aansprakelijkheidsregels zullen worden toegepast en dus om te beoordelen in hoeverre zij het gevaar lopen aansprakelijk te worden gesteld en zich daartegen dienen te verzekeren. Het effect zal groter zijn voor bedrijven die grensoverschrijdend actief zijn, aangezien de onzekerheid betrekking zal hebben op verschillende jurisdicties. Dit zal met name gevolgen hebben voor kleine en middelgrote ondernemingen (kmo’s) die geen beroep kunnen doen op interne juridische expertise of kapitaalreserves.

Uit nationale AI-strategieën blijkt dat verschillende lidstaten wetgevende maatregelen inzake civielrechtelijke aansprakelijkheid voor AI overwegen of zelfs concreet plannen. Er wordt dan ook verwacht dat wanneer de EU niet optreedt, de lidstaten hun nationale aansprakelijkheidsregels zullen aanpassen aan de problemen waarvoor zij zich door AI gesteld zien. Dit zal leiden tot verdere versnippering en hogere kosten voor bedrijven die in de hele EU actief zijn.

De informatie die via de openbare raadpleging is verzameld voor de effectbeoordeling van dit voorstel, heeft het bestaan van de hierboven vermelde problemen bevestigd. Volgens het publiek kan het “blackboxeffect” het voor gelaedeerden moeilijk maken om schuld en causaal verband aan te tonen en kan er onzekerheid bestaan over de wijze waarop de rechtbanken de bestaande nationale aansprakelijkheidsregels zullen interpreteren en toepassen in zaken waarbij er sprake is van AI. Bovendien bleek uit de raadpleging dat het publiek bezorgd is over de wijze waarop door de individuele lidstaten geëntameerde wetgevingsmaatregelen en de daaruit voortvloeiende versnippering, de kosten voor bedrijven, en dan met name kmo’s, zouden beïnvloeden, en daarmee in de weg zouden staan aan de aanvaarding van AI in de hele Unie.

Het doel van dit voorstel is derhalve de uitrol van betrouwbare AI te bevorderen teneinde de voordelen ervan voor de interne markt ten volle te benutten. Dit gebeurt door ervoor te zorgen dat degenen die door AI veroorzaakte schade hebben geleden eenzelfde bescherming krijgen als degenen die schade hebben geleden die is veroorzaakt door producten in het algemeen. Het zorgt ook ervoor dat bedrijven die AI ontwikkelen of gebruiken, meer rechtszekerheid hebben wat betreft eventuele aansprakelijkheid en voorkomt dat op het gebied van AI nationale regels inzake civielrechtelijke aansprakelijkheid gefragmenteerd worden aangepast.


·Verenigbaarheid met bestaande bepalingen op het beleidsterrein

Dit voorstel maakt deel uit van een pakket maatregelen om de uitrol van AI in Europa te ondersteunen door excellentie en vertrouwen te bevorderen. Dit pakket omvat drie complementaire werkterreinen:

–een wetgevingsvoorstel tot vaststelling van horizontale regels inzake artificiële-intelligentiesystemen (AI-verordening) 7 ;

–een herziening van sectorale en horizontale voorschriften inzake productveiligheid;

–EU-regels om aansprakelijkheidskwesties in verband met AI-systemen aan te pakken.

In het voorstel voor een AI-verordening komt de Commissie met regels om de veiligheidsrisico’s te verminderen en de grondrechten te beschermen. Veiligheid en aansprakelijkheid zijn twee kanten van dezelfde medaille: zij spelen op verschillende momenten een rol en versterken elkaar. Hoewel regels om de veiligheid te waarborgen en de grondrechten te beschermen de risico’s zullen verminderen, nemen zij deze risico’s niet volledig weg 8 . Wanneer een dergelijk risico zich materialiseert, kan er toch nog schade optreden. In dergelijke gevallen zijn de aansprakelijkheidsregels van dit voorstel van toepassing.

Doeltreffende aansprakelijkheidsregels bieden ook een economische stimulans om de veiligheidsvoorschriften na te leven en dragen derhalve bij tot het voorkomen van schade 9 . Daarnaast draagt dit voorstel bij tot de handhaving van de voorschriften van de AI-verordening voor AI-systemen met een hoog risico, omdat het niet in acht nemen van die voorschriften een belangrijk element vormt dat leidt tot verlichting van de bewijslast. Dit voorstel is ook in overeenstemming met de voorgestelde algemene 10 en sectorale regels inzake productveiligheid die van toepassing zijn op op AI gebaseerde machineproducten 11 en radioapparatuur 12 .

De Commissie gaat bij haar AI-beleid uit van een holistische benadering van aansprakelijkheid door aanpassingen van de richtlijn productaansprakelijkheid voor te stellen en de gerichte harmonisatie in het kader van dit voorstel. Deze twee beleidsinitiatieven zijn nauw met elkaar verbonden en vormen samen één pakket, aangezien vorderingen die binnen het toepassingsgebied ervan vallen, betrekking hebben op verschillende soorten aansprakelijkheid. De richtlijn productaansprakelijkheid heeft betrekking op de risicoaansprakelijkheid van producenten voor producten met gebreken, die leidt tot een vergoeding voor bepaalde soorten, voornamelijk door particulieren geleden, schade. Het onderhavige voorstel heeft betrekking op nationale vorderingen op grond van aansprakelijkheid die hoofdzakelijk zijn gebaseerd op de schuld van een persoon, ter vergoeding van eender welke soort schade voor eender welke soort gelaedeerden. De richtlijn en het voorstel vullen elkaar aan en vormen zo samen een algemeen doeltreffend stelsel voor civielrechtelijke aansprakelijkheid.

De desbetreffende regels zullen tezamen het vertrouwen in AI (en andere digitale technologieën) bevorderen doordat zij ervoor zorgen dat slachtoffers daadwerkelijk schadevergoeding krijgen als er ondanks de preventieve vereisten van de AI-verordening en andere veiligheidsvoorschriften, toch schade optreedt.

·Verenigbaarheid met andere beleidsterreinen van de Unie

Het voorstel is in overeenstemming met de digitale strategie van de Unie, aangezien het bijdraagt tot de bevordering van technologie die werkt voor de mensen, een van de drie belangrijkste pijlers van de beleidsoriëntatie en de doelstellingen die zijn aangekondigd in de mededeling “De digitale toekomst van Europa vormgeven” 13 .

Tegen die achtergrond heeft dit voorstel tot doel het vertrouwen in AI op te bouwen en de aanvaarding ervan te vergroten. Dit zal synergieën tot stand brengen en vormt een aanvulling op de [wet inzake cyberweerbaarheid] 14 , die ook tot doel heeft het vertrouwen in producten met digitale elementen te vergroten door gebreken in cyberbeveiliging te verminderen en zakelijke en particuliere gebruikers beter te beschermen.

Dit voorstel doet geen afbreuk aan de regels van [de wet inzake digitale diensten], die voorzien in een alomvattend en volledig geharmoniseerd kader voor zorgvuldigheidsverplichtingen voor algoritmische besluitvorming door onlineplatforms, met inbegrip van de vrijstelling van aansprakelijkheid die dat kader biedt voor aanbieders van tussenhandelsdiensten.

Door de uitrol van AI te bevorderen, houdt dit voorstel bovendien verband met de initiatieven in het kader van de EU-datastrategie 15 . Het versterkt ook de rol van de Unie bij het mede vormgeven aan internationale normen en standaarden en het bevorderen van betrouwbare AI die strookt met de waarden en belangen van de Unie.

Het voorstel houdt ook indirect verband met de Europese Green Deal 16 . Met name digitale technologieën, waaronder AI, zijn van cruciaal belang voor de verwezenlijking van de duurzaamheidsdoelstellingen van de Green Deal in allerhande sectoren (waaronder gezondheidszorg, vervoer, milieu en landbouw).

·Voornaamste gevolgen voor de economie, de samenleving en het milieu

De richtlijn zal bijdragen tot de uitrol van AI. De voorwaarden voor de uitrol en ontwikkeling van AI-technologieën op de interne markt kunnen eerder aanzienlijk worden verbeterd door versnippering te voorkomen en de rechtszekerheid te vergroten via geharmoniseerde maatregelen op EU-niveau, dan door eventuele aanpassingen van aansprakelijkheidsregels op nationaal niveau. In de economische studie 17 die aan de effectbeoordeling van dit voorstel ten grondslag ligt, werd – als voorzichtige schatting – geconcludeerd dat, in vergelijking met het basisscenario, gerichte harmonisatiemaatregelen inzake civielrechtelijke aansprakelijkheid voor AI een positief effect zouden hebben ten belope van 5 tot 7 % van de productiewaarde van relevante grensoverschrijdende handel. Deze toegevoegde waarde zou met name worden gegenereerd door minder versnippering en meer rechtszekerheid met betrekking tot de potentiële aansprakelijkheid van belanghebbenden. Dit zou de kosten van belanghebbenden op het gebied van juridische informatie/vertegenwoordiging, intern risicobeheer en nakoming verminderen, de financiële planning en risico-ramingen met het oog op verzekering, vergemakkelijken en ondernemingen – met name kmo’s – in staat stellen nieuwe markten over de grenzen heen te verkennen. Op basis van de totale waarde van de AI-markt van de EU die wordt beïnvloed door de problemen inzake aansprakelijkheid die door deze richtlijn worden aangepakt, wordt geschat dat deze richtlijn een extra marktwaarde van tussen de ongeveer 500 miljoen EUR en ongeveer 1,1 miljard EUR zal genereren.

Wat de sociale gevolgen betreft, zal de richtlijn het maatschappelijk vertrouwen in AI-technologieën en de toegang tot een doeltreffend rechtsstelsel vergroten. Zij zal bijdragen tot een efficiënte regeling voor civielrechtelijke aansprakelijkheid, die is aangepast aan de specifieke kenmerken van AI en die gerechtvaardigde vorderingen tot vergoeding van schade honoreert. Een groter maatschappelijk vertrouwen zou ook ten goede komen aan alle bedrijven in de AI-waardeketen, omdat het versterken van het vertrouwen van de burgers zal bijdragen tot een snellere aanvaarding van AI. Door het stimulerende effect van aansprakelijkheidsregels zou het voorkomen van lacunes op het gebied van aansprakelijkheid ook indirect ten goede komen aan alle burgers als gevolg van een hoger niveau van bescherming van de volksgezondheid en veiligheid (artikel 114, lid 3, VWEU) en het wegnemen van bronnen van gevaar voor de gezondheid (artikel 168, lid 1, VWEU).

Wat de milieueffecten betreft, zal de richtlijn naar verwachting ook bijdragen tot de verwezenlijking van de daarmee verband houdende duurzame-ontwikkelingsdoelstellingen (SDG’s). De aanvaarding van AI-toepassingen is gunstig voor het milieu. Zo maken AI-systemen die worden gebruikt voor procesoptimalisering processen minder verspillend (bv. door de benodigde hoeveelheid meststoffen en pesticiden te verminderen, het waterverbruik bij gelijke output te verlagen enz.). De richtlijn zou ook een positief effect hebben op de SDG’s omdat doeltreffende wetgeving inzake transparantie, verantwoordingsplicht en grondrechten het potentieel van AI om aan individuen en de samenleving ten goede te komen, zal aanwenden voor de verwezenlijking van de SDG’s.

2. RECHTSGRONDSLAG, SUBSIDIARITEIT EN EVENREDIGHEID

·

Rechtsgrondslag



De rechtsgrondslag van het voorstel is artikel 114 VWEU, dat voorziet in de vaststelling van maatregelen om de oprichting en de werking van de interne markt te waarborgen.

De problemen die dit voorstel beoogt aan te pakken, met name rechtsonzekerheid en juridische versnippering, hinderen de ontwikkeling van de interne markt en vormen dus aanzienlijke belemmeringen voor de grensoverschrijdende handel in op AI gebaseerde producten en diensten.

Het voorstel neemt belemmeringen weg die voortvloeien uit het feit dat bedrijven die op AI gebaseerde producten en diensten over de grenzen heen willen produceren, verspreiden en exploiteren, niet zeker weten of er aansprakelijkheidsregelingen van toepassing zijn op door AI veroorzaakte schade en wat die in voorkomend geval dan impliceren. Deze onzekerheid betreft met name de lidstaten waarnaar respectievelijk waarin bedrijven hun producten en diensten zullen uitvoeren of exploiteren. In een grensoverschrijdende context is het recht dat van toepassing is op niet-contractuele aansprakelijkheid die voortvloeit uit een onrechtmatige daad in principe het recht van het land waar de schade zich voordoet. Voor deze bedrijven is het van essentieel belang om de relevante aansprakelijkheidsrisico’s te kennen en zich daartegen te kunnen verzekeren.

Daarnaast zijn er concrete aanwijzingen dat een aantal lidstaten unilaterale wetgevingsmaatregelen overweegt om de specifieke problemen van AI met betrekking tot aansprakelijkheid aan te pakken. In Tsjechië 18 , Italië 19 , Malta 20 , Polen 21 en Portugal 22 vastgestelde AI-strategieën maken bijvoorbeeld gewag van initiatieven om de aansprakelijkheid te verduidelijken. Gezien de grote verschillen tussen de bestaande wettelijke aansprakelijkheidsregels van de lidstaten, is het waarschijnlijk dat elke nationale AI-specifieke maatregel inzake aansprakelijkheid de bestaande verschillen in nationale benadering zou volgen en bijgevolg de versnippering zou vergroten.

Daarom zouden aanpassingen van aansprakelijkheidsregels op louter nationale basis de belemmeringen voor de uitrol van op AI gebaseerde producten en diensten op de interne markt vergroten en verder bijdragen tot versnippering.

·

Subsidiariteit



De doelstellingen van dit voorstel kunnen niet adequaat op nationaal niveau worden verwezenlijkt, omdat het ontstaan van uiteenlopende nationale regels de rechtsonzekerheid en versnippering zou vergroten en belemmeringen zou opwerpen voor de uitrol van op AI gebaseerde producten en diensten op de interne markt. Rechtsonzekerheid zou met name gevolgen hebben voor ondernemingen die grensoverschrijdend actief zijn omdat als gevolg onvermijdelijk aanvullende juridische informatie/vertegenwoordiging nodig zijn, kosten inzake risicobeheer worden gemaakt en inkomsten worden gederfd. Tegelijkertijd zouden uiteenlopende nationale regels inzake vorderingen tot vergoeding van door AI veroorzaakte schade de transactiekosten voor bedrijven verhogen, met name wat betreft grensoverschrijdende handel, hetgeen aanzienlijke belemmeringen voor de interne markt met zich mee zou brengen. Bovendien worden start-ups en kmo’s, de meest voorkomende ondernemingsvorm en goed voor het grootste deel van de investeringen op de relevante markten, onevenredig zwaar getroffen door rechtsonzekerheid en versnippering.

Bij gebrek aan geharmoniseerde EU-regels voor de vergoeding van door AI-systemen veroorzaakte schade zouden aanbieders, exploitanten en gebruikers van AI-systemen enerzijds en gelaedeerde personen anderzijds te maken krijgen met 27 verschillende aansprakelijkheidsregelingen, wat tot verschillende beschermingsniveaus en verstoring van de concurrentie tussen bedrijven uit verschillende lidstaten zou leiden.

Geharmoniseerde maatregelen op EU-niveau zouden de voorwaarden voor de uitrol en ontwikkeling van AI-technologieën op de interne markt aanzienlijk verbeteren door versnippering te voorkomen en de rechtszekerheid te vergroten. Deze toegevoegde waarde zou met name worden gegenereerd door minder versnippering en meer rechtszekerheid met betrekking tot de potentiële aansprakelijkheid van belanghebbenden. Bovendien kan alleen optreden van de EU consequent het gewenste effect bereiken om het vertrouwen van de consument in op AI gebaseerde producten en diensten te bevorderen door lacunes inzake aansprakelijkheid in verband met de specifieke kenmerken van AI op de interne markt te voorkomen. Dit zou zorgen voor een consistent (minimum) beschermingsniveau voor alle slachtoffers (individuen en bedrijven) en consistente stimulansen om schade te voorkomen en de verantwoordingsplicht waarborgen.

·

Evenredigheid



Het voorstel is gebaseerd op een gefaseerde aanpak. In de eerste fase worden de doelstellingen bereikt met een minimaal invasieve aanpak; in de tweede fase wordt de behoefte aan strengere of uitgebreidere maatregelen opnieuw beoordeeld.

In de eerste fase worden de vastgestelde AI-specifieke problemen uitsluitend aangepakt door middel van maatregelen inzake de bewijslast. Zij bouwt voort op de materiële aansprakelijkheidsvoorwaarden die momenteel in nationale regels zijn vastgelegd, zoals causaal verband of schuld, maar legt de nadruk op gerichte maatregelen in verband met bewijs, waarbij ervoor wordt gezorgd dat slachtoffers hetzelfde beschermingsniveau genieten als in gevallen waarbij geen AI-systemen betrokken zijn. Bovendien is in dit voorstel uit de verschillende instrumenten die in het nationale recht beschikbaar zijn om de bewijslast te verlichten 23 , gekozen voor het gebruik van weerlegbare vermoedens als het minst interventionistische instrument. Dergelijke vermoedens komen algemeen voor in de nationale aansprakelijkheidsstelsels en zorgen voor een evenwicht tussen de belangen van eisers en verweerders. Tegelijkertijd zijn zij bedoeld om de nakoming van bestaande zorgvuldigheidsplichten op het niveau van de Unie of op nationaal niveau te stimuleren. Het voorstel leidt niet tot een omkering van de bewijslast om te voorkomen dat aanbieders, exploitanten en gebruikers van AI-systemen te maken krijgen met grotere aansprakelijkheidsrisico’s, wat innovatie zou kunnen belemmeren en de invoering van op AI gebaseerde producten en diensten zou kunnen verminderen.

De tweede fase van het voorstel zorgt ervoor dat, zoals verzocht door het Europees Parlement, bij de beoordeling van het effect van de eerste fase wat betreft bescherming van gelaedeerden en de aanvaarding van AI, rekening zal worden gehouden met toekomstige technologische, regelgevings- en jurisprudentiële ontwikkelingen wanneer opnieuw wordt gekeken of het nodig is andere elementen van vorderingen tot schadevergoeding of andere instrumenten in verband met vorderingen op grond van aansprakelijkheid te harmoniseren, onder meer met betrekking tot situaties waarin risicoaansprakelijkheid passender zou zijn. Bij een dergelijke beoordeling zal waarschijnlijk ook worden nagegaan of een dergelijke harmonisatie gepaard moet gaan met een verplichte verzekering teneinde de doeltreffendheid te waarborgen.

·

Keuze van instrument



Een richtlijn is het meest geschikte instrument voor dit voorstel, aangezien het niet alleen de beoogde harmonisatie-effecten en rechtszekerheid met zich brengt, maar ook de flexibiliteit waarmee de lidstaten de geharmoniseerde maatregelen soepel in hun nationale aansprakelijkheidsregelingen kunnen opnemen.

Een verplicht instrument zou lacunes in de bescherming als gevolg van gedeeltelijk of niet-uitvoeren voorkomen. Hoewel een niet-bindend instrument minder ingrijpend zou zijn, is het onwaarschijnlijk dat dit de vastgestelde problemen op doeltreffende wijze zou aanpakken. Het uitvoeringspercentage van niet-bindende instrumenten is moeilijk te voorspellen en er zijn onvoldoende aanwijzingen dat een aanbeveling voldoende overtuigend effect zou hebben om tot een consistente aanpassing van nationale wetgeving te komen.

Een dergelijk effect is nog onwaarschijnlijker in geval van maatregelen op het gebied van het privaatrecht, waarvan de regels inzake niet-contractuele aansprakelijkheid deel uitmaken. Dit gebied wordt gekenmerkt door reeds lang bestaande rechtstradities, wat de lidstaten terughoudend maakt om geharmoniseerde hervormingen door te voeren, tenzij die zijn ingegeven door het duidelijke vooruitzicht van voordelen voor de interne markt in het kader van een bindend EU-instrument of door de noodzaak om zich aan te passen aan nieuwe technologieën in de digitale economie.

De bestaande aanzienlijke verschillen tussen de aansprakelijkheidskaders van de lidstaten vormen een andere reden waarom het onwaarschijnlijk is dat een aanbeveling op consistente wijze zal worden uitgevoerd.

1. EVALUATIE, RAADPLEGING VAN BELANGHEBBENDEN EN EFFECTBEOORDELING


·

Raadpleging van belanghebbenden



Er is een uitgebreide raadplegingsstrategie ten uitvoer gelegd om te zorgen voor een brede deelname van belanghebbenden gedurende de gehele beleidscyclus van dit voorstel. De raadplegingsstrategie was gebaseerd op zowel openbare als verschillende gerichte raadplegingen (webinars en bilaterale besprekingen met bedrijven en met verschillende organisaties).

Na de eerste vragen over aansprakelijkheid die deel uitmaakten van de openbare raadpleging over het witboek over AI en het verslag van de Commissie over veiligheid en aansprakelijkheid, werd van 18 oktober 2021 tot en met 10 januari 2022 een specifieke online openbare raadpleging gehouden om standpunten te verzamelen van een breed scala aan belanghebbenden, waaronder consumenten, maatschappelijke organisaties, brancheorganisaties, bedrijven, met inbegrip van kmo’s, en overheidsinstanties. Na alle ontvangen reacties te hebben bestudeerd, heeft de Commissie een samenvatting ervan en de afzonderlijke reacties op haar website bekendgemaakt 24 .

In totaal werden 233 reacties ontvangen van respondenten uit 21 lidstaten en uit derde landen. Over het algemeen bevestigden de meeste belanghebbenden de problemen inzake bewijslast, rechtsonzekerheid en versnippering en steunden zij maatregelen op EU-niveau.

EU-burgers, consumentenorganisaties en academische instellingen bevestigden met grote meerderheid dat de EU maatregelen moet nemen om de problemen van gelaedeerden met betrekking tot de bewijslast te verlichten. Hoewel bedrijven de negatieve gevolgen bevestigden van de onzekerheid over de toepassing van aansprakelijkheidsregels, waren zij voorzichtiger en vroegen zij om gerichte maatregelen zodat innovatie niet wordt beperkt.

Wat de beleidsopties betreft, was een vergelijkbaar beeld te zien. EU-burgers, consumentenorganisaties en academische instellingen waren sterk voorstander van maatregelen inzake de bewijslast en harmonisatie van risicoaansprakelijkheid, in combinatie met verplichte verzekering. Bedrijven waren meer verdeeld wat betreft de beleidsopties, waarbij de verschillen deels te maken hadden met hun omvang. De meerderheid van de respondenten uit het bedrijfsleven achtte risicoaansprakelijkheid onevenredig. Harmonisatie van de verlichting van de bewijslast kreeg meer steun, met name bij kmo’s. Bedrijven waarschuwden echter voor een volledige verschuiving van de bewijslast.

Daarom werd de voorkeursoptie ontwikkeld en verfijnd in het licht van de feedback van de belanghebbenden tijdens het effectbeoordelingsproces, teneinde een evenwicht te vinden tussen de behoeften en de zorgen die door alle relevante groepen belanghebbenden over het voetlicht waren gebracht.

·Bijeenbrengen en gebruik van expertise

Het voorstel is gebaseerd op vier jaar analyse en een nauwe betrokkenheid van belanghebbenden, waaronder academici, bedrijven, consumentenorganisaties, lidstaten en burgers. De voorbereidende werkzaamheden zijn in 2018 begonnen met de oprichting van de deskundigengroep inzake aansprakelijkheid en nieuwe technologieën (New Technologies Formation). De deskundigengroep heeft in november 2019 een verslag 25 opgesteld waarin de problemen werden beoordeeld die bepaalde kenmerken van AI met zich meebrengen voor de nationale regels inzake civielrechtelijke aansprakelijkheid.

De input uit het verslag van de deskundigengroep werd aangevuld met drie aanvullende externe studies:

–een rechtsvergelijkend onderzoek op basis van een vergelijkende juridische analyse van Europese wetgeving inzake onrechtmatige daad, gericht op belangrijke AI-gerelateerde kwesties 26 ;

–een gedragseconomisch onderzoek naar de effecten van gerichte aanpassingen van de aansprakelijkheidsregeling op de besluitvorming van consumenten, met name op hun vertrouwen en bereidheid om op AI gebaseerde producten en diensten te gaan gebruiken 27 ;

–een economische studie 28 over een aantal onderwerpen: de problemen waarmee degenen die schade hebben geleden door AI-toepassingen te maken krijgen in vergelijking met degenen die schade hebben geleden door niet op AI gebaseerde apparaten, wanneer zij schadevergoeding proberen te verkrijgen; de vraag of en in welke mate bedrijven onzeker zijn over de toepassing van de huidige aansprakelijkheidsregels op hun activiteiten op het gebied van AI, en of de gevolgen van rechtsonzekerheid investeringen in AI kunnen belemmeren; de vraag of een verdere versnippering van de nationale aansprakelijkheidswetgevingen de doeltreffendheid van de interne markt voor AI-toepassingen en -diensten zou verminderen, en of en in hoeverre het harmoniseren van bepaalde aspecten van nationale civielrechtelijke aansprakelijkheid via EU-wetgeving deze problemen zou verminderen en de algemene aanvaarding van AI-technologie door EU-bedrijven zou vergemakkelijken.

·

Effectbeoordeling



In overeenstemming met haar beleid inzake “betere regelgeving” heeft de Commissie voor dit voorstel een effectbeoordeling uitgevoerd die door de Raad voor regelgevingstoetsing van de Commissie is onderzocht. De vergadering van de Raad voor regelgevingstoetsing op 6 april 2022 heeft geleid tot een positief advies met opmerkingen.

Er werden drie beleidsopties beoordeeld:

Beleidsoptie 1: drie maatregelen om de bewijslast te verlichten voor gelaedeerden die bewijs proberen te leveren voor hun vordering op grond van aansprakelijkheid.

Beleidsoptie 2: de maatregelen in het kader van optie 1 + harmonisering van risicoaansprakelijkheidsregels voor gevallen van AI-gebruik met een specifiek risicoprofiel, in combinatie met een verplichte verzekering.

Beleidsoptie 3: een gefaseerde aanpak bestaande uit:

–een eerste fase: de maatregelen in het kader van optie 1;

–een tweede fase: een evaluatiemechanisme om met name opnieuw te beoordelen of risicoaansprakelijkheidsregels voor gevallen van AI-gebruik met een specifiek risicoprofiel, moeten worden geharmoniseerd (eventueel in combinatie met een verplichte verzekering).

De beleidsopties werden vergeleken aan de hand van een multicriteria-analyse, waarbij rekening werd gehouden met hun doeltreffendheid, efficiëntie, samenhang en evenredigheid. Uit de resultaten van de multicriteria- en gevoeligheidsanalyse blijkt dat beleidsoptie 3, die de bewijslast voor AI-gerelateerde vorderingen verlicht + gerichte herziening met betrekking tot risicoaansprakelijkheid, eventueel in combinatie met verplichte verzekering, bovenaan staat en daarom de beleidsoptie is die voor dit voorstel de voorkeur verdient.

De voorkeursoptie zou ervoor zorgen dat degenen die schade hebben geleden door op AI gebaseerde producten en diensten (natuurlijke personen, bedrijven en andere publieke of private entiteiten) niet minder worden beschermd dan degenen die schade hebben geleden door traditionele technologieën. Zij zou het vertrouwen in AI vergroten en de aanvaarding ervan bevorderen.

Bovendien zou zij de rechtsonzekerheid verminderen en versnippering voorkomen, waardoor bedrijven, en vooral kmo’s, die het volledige potentieel van de eengemaakte markt van de EU willen benutten door op AI gebaseerde producten en diensten over de grenzen heen uit te rollen, worden geholpen. De voorkeursoptie creëert ook betere voorwaarden voor verzekeraars om dekking van AI-gerelateerde activiteiten aan te bieden, wat van cruciaal belang is voor het risicobeheer van bedrijven, met name kmo’s. Er wordt namelijk geschat dat de voorkeursoptie een hogere marktwaarde voor AI in de EU-27 zou genereren, die in 2025 ergens tussen de 500 miljoen EUR en 1,1 miljard EUR zou liggen.

·Grondrechten

Een van de belangrijkste functies van de regels inzake civielrechtelijke aansprakelijkheid bestaat erin ervoor te zorgen dat degenen die schade hebben geleden, vergoeding van die schade kunnen vorderen. Door een doeltreffende schadeloosstelling te waarborgen, dragen deze regels bij tot de bescherming van het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht (artikel 47 van het Handvest van de grondrechten van de Europese Unie, hierna “het Handvest” genoemd), en geven zij potentieel aansprakelijke personen ook een prikkel om schade te voorkomen teneinde aansprakelijkheid te vermijden.

Met dit voorstel wil de Commissie ervoor zorgen dat degenen die door AI veroorzaakte schade lijden, eenzelfde niveau van bescherming op grond van regels inzake civielrechtelijke aansprakelijkheid genieten als degenen die niet door AI veroorzaakte schade lijden. Het voorstel zal een doeltreffende private handhaving van grondrechten mogelijk maken en het recht op een doeltreffende voorziening in rechte overeind houden wanneer zich AI-specifieke risico’s hebben gematerialiseerd. Met name zal het voorstel bijdragen tot de bescherming van grondrechten, zoals het recht op leven (artikel 2 van het Handvest), het recht op lichamelijke en geestelijke integriteit (artikel 3) en het recht op eigendom (artikel 17). Bovendien kunnen gelaedeerden, afhankelijk van de civielrechtelijke stelsels en de tradities van de lidstaten, schadevergoeding vorderen voor schade aan andere rechtsbelangen, bijvoorbeeld als gevolg van schendingen van het recht op persoonlijke waardigheid (artikelen 1 en 4 van het Handvest), eerbiediging van het privéleven en van het familie- en gezinsleven (artikel 7), gelijkheid (artikel 20) en non-discriminatie (artikel 21).

Daarnaast vormt dit voorstel een aanvulling op andere, op preventieve regelgevings- en toezichtsvoorschriften gebaseerde onderdelen van het AI-beleid van de Commissie die rechtstreeks gericht zijn op het voorkomen van schendingen van de grondrechten (zoals discriminatie). Daarbij gaat het om de AI-verordening, de algemene verordening gegevensbescherming, de wet inzake digitale diensten en de EU-wetgeving inzake non-discriminatie en gelijke behandeling. Tegelijkertijd creëert noch harmoniseert dit voorstel zorgvuldigheidsplichten of aansprakelijkheid van verschillende entiteiten waarvan de activiteiten krachtens die rechtshandelingen worden geregeld, en doet het derhalve geen nieuwe vorderingen op grond van aansprakelijkheid ontstaan en is het evenmin van invloed op de vrijstellingen van aansprakelijkheid uit hoofde van die andere rechtshandelingen. Dit voorstel voorziet alleen in een verlichting van de bewijslast voor degenen die door AI-systemen veroorzaakte schade hebben geleden, in geval van vorderingen die gebaseerd kunnen worden op het nationale recht of op deze andere EU-wetgeving. Door deze andere onderdelen aan te vullen, beschermt dit voorstel het recht van gelaedeerden op schadevergoeding uit hoofde van het civiel recht, met inbegrip van schadevergoeding voor schendingen van de grondrechten.

4. GEVOLGEN VOOR DE BEGROTING

Dit voorstel heeft geen gevolgen voor de begroting van de Europese Unie.

5. OVERIGE ELEMENTEN

·Uitvoeringsplannen en monitoring, evaluatie, monitoringprogramma en gerichte herziening

In dit voorstel wordt een gefaseerde aanpak voorgesteld. Om ervoor te zorgen dat er voldoende bewijsmateriaal beschikbaar is voor de gerichte herziening in de tweede fase, zal de Commissie een monitoringplan opstellen waarin wordt aangegeven hoe en hoe vaak gegevens en ander noodzakelijk bewijsmateriaal zullen worden verzameld.

Het monitoringmechanisme kan betrekking hebben op de volgende soorten gegevens en bewijsmateriaal:

–rapportage en informatie-uitwisseling door de lidstaten met betrekking tot de toepassing van maatregelen ter verlichting van de bewijslast in nationale gerechtelijke procedures of buitengerechtelijke schikkingsprocedures;

–informatie die door de Commissie of markttoezichtautoriteiten is verzameld in het kader van de AI-verordening (met name artikel 62) of andere relevante instrumenten;

–informatie en analyses ter ondersteuning van de evaluatie van de AI-verordening en de door de Commissie op te stellen verslagen over de uitvoering van die verordening;

–informatie en analyses ter ondersteuning van de beoordeling van relevante toekomstige beleidsmaatregelen in het kader van de veiligheidswetgeving “oude stijl”, om ervoor te zorgen dat producten die in de Unie in de handel worden gebracht, voldoen aan hoge gezondheids-, veiligheids- en milieueisen;

–informatie en analyses ter ondersteuning van het verslag van de Commissie over de toepassing van de richtlijn motorrijtuigenverzekering in het licht van de technologische ontwikkelingen (met name op het gebied van autonome en semiautonome voertuigen) overeenkomstig artikel 28 quater, lid 2, punt a), van die richtlijn.


·

Artikelsgewijze toelichting



1. Onderwerp en toepassingsgebied (artikel 1)

Deze richtlijn heeft tot doel de werking van de interne markt te verbeteren door uniforme vereisten vast te stellen voor bepaalde aspecten van de niet-contractuele civielrechtelijke aansprakelijkheid voor schade die is veroorzaakt door het gebruik van AI-systemen. Zij bouwt voort op Resolutie 2020/2014 (INL) van het Europees Parlement en past het privaatrecht aan de behoeften in het kader van de overgang naar de digitale economie aan.

Er is maar een beperkt aantal geschikte juridische instrumenten waaruit kan worden gekozen vanwege de aard van het probleem van de bewijslast en de specifieke kenmerken van AI waarop de bestaande regels inzake aansprakelijkheid niet zijn afgestemd. In dit opzicht verlicht deze richtlijn de bewijslast op een zeer gerichte en evenredige wijze door gebruik te maken van openbaarmaking en weerlegbare vermoedens. Voor wie schadevergoeding vordert, voorziet zij in een mogelijkheid om informatie te verkrijgen over op grond van de AI-verordening te registreren/documenteren AI-systemen met een hoog risico. Bovendien zal het weerlegbare vermoeden voor degenen die vergoeding vorderen van door AI-systemen veroorzaakte schade, een redelijker bewijslast en een kans om gerechtvaardigde vorderingen op grond van aansprakelijkheid te doen slagen, inhouden.

Dergelijke instrumenten zijn niet nieuw; zij komen voor in nationale wetgevingen. Zij vormen dan ook nuttige referentiepunten voor het aanpakken van de problemen die AI met betrekking tot bestaande aansprakelijkheidsregels doet ontstaan, op een wijze die zo weinig mogelijk interfereert met de verschillende nationale rechtsstelsels.

Bovendien hebben bedrijven tijdens raadplegingen, naar aanleiding van de vraag over verdergaande wijzigingen, zoals een omkering van de bewijslast of een onweerlegbaar vermoeden, negatieve feedback gegeven. Gerichte maatregelen ter verlichting van de bewijslast in de vorm van weerlegbare vermoedens werden gekozen als pragmatische en passende manieren om gelaedeerden te helpen zich zo doelgericht en evenredig mogelijk van hun bewijslast te kwijten.

Artikel 1 vermeldt het onderwerp en het toepassingsgebied van deze richtlijn: zij is van toepassing op niet-contractuele civielrechtelijke vorderingen tot vergoeding van door een AI-systeem veroorzaakte schade, wanneer dergelijke vorderingen worden ingesteld in het kader van schuldaansprakelijkheidsregelingen. Daarbij gaat het namelijk om regelingen die voorzien in een wettelijke verantwoordelijkheid om schade te vergoeden die opzettelijk, door nalatigheid of door nalaten is veroorzaakt. De maatregelen waarin deze richtlijn voorziet, kunnen soepel binnen de bestaande civielrechtelijke aansprakelijkheidsstelsels worden ingepast, aangezien zij uitgaan van een benadering die niet raakt aan de definitie van fundamentele begrippen als “schuld” of “schade”, in aanmerking nemend dat de betekenis van deze begrippen van lidstaat tot lidstaat aanzienlijk verschilt. Deze richtlijn doet dus, afgezien van de vermoedens die zij invoert, geen afbreuk aan de regels van de Unie of de lidstaten waarbij bijvoorbeeld wordt bepaald welke partij de bewijslast draagt, welke mate van zekerheid vereist is met betrekking tot de bewijsstandaard, of hoe schuld wordt gedefinieerd.

Bovendien laat deze richtlijn de bestaande regels inzake de aansprakelijkheidsvoorwaarden in de vervoerssector en de regels van de wet inzake digitale diensten onverlet.

Hoewel deze richtlijn niet van toepassing is op strafrechtelijke aansprakelijkheid, kan zij van toepassing zijn met betrekking tot overheidsaansprakelijkheid. Overheidsinstanties vallen ook onder de bepalingen van de AI-verordening voor zover zij onderworpen zijn aan de daarin neergelegde verplichtingen.

Deze richtlijn is niet met terugwerkende kracht van toepassing, maar alleen van toepassing op vorderingen tot vergoeding van schade die zich voordoet vanaf de datum van omzetting ervan.

Het voorstel voor deze richtlijn is samen met het voorstel voor een herziening van Richtlijn 85/374/EEG inzake productaansprakelijkheid goedgekeurd in het kader van een pakket, dat tot doel heeft de aansprakelijkheidsregels aan te passen aan het digitale tijdperk en AI en de nodige afstemming tussen deze twee elkaar aanvullende rechtsinstrumenten te waarborgen.

2. Definities (artikel 2)

De definities in artikel 2 volgen die van de AI-verordening zodat consistentie is gewaarborgd.

Artikel 2, lid 6, punt b), bepaalt dat vorderingen tot schadevergoeding niet alleen kunnen worden ingesteld door de gelaedeerde persoon, maar ook door personen die in de rechten van de benadeelde persoon zijn opgevolgd of gesubrogeerd. Subrogatie is de overname door een derde (zoals een verzekeringsmaatschappij) van het wettelijke recht van een andere partij om een schuld of schadevergoeding te innen. Één persoon heeft dus het recht om de rechten van een ander ten eigen gunste te doen gelden. Subrogatie zou zich ook uitstrekken tot erfgenamen van een overleden gelaedeerde.

Bovendien is in artikel 2, lid 6, punt c), bepaald dat een vordering tot schadevergoeding ook kan worden ingesteld door iemand die namens een of meer gelaedeerde partijen handelt, overeenkomstig het Unierecht of het nationale recht. Deze bepaling heeft tot doel personen die door een AI-systeem schade hebben geleden, meer mogelijkheden te bieden om hun vorderingen door een rechtbank te laten beoordelen, zelfs in gevallen waarin individuele vorderingen te duur of te omslachtig lijken te zijn, of wanneer gezamenlijke acties schaalvoordelen kunnen opleveren. Om degenen die door AI-systemen veroorzaakte schade hebben geleden in staat te stellen hun rechten met betrekking tot deze richtlijn af te dwingen door middel van representatieve vorderingen, wordt bijlage I bij Richtlijn (EU) 2020/1828 door artikel 6 gewijzigd.

3. Openbaarmaking van bewijsmateriaal (artikel 3)

Deze richtlijn heeft tot doel personen die vergoeding vragen voor schade die is veroorzaakt door AI-systemen met een hoog risico, doeltreffende middelen te verschaffen om potentieel aansprakelijke personen en relevant bewijsmateriaal voor een vordering te identificeren. Tegelijkertijd dienen dergelijke middelen om te voorkomen dat personen onterecht als potentiële verweerder worden geïdentificeerd, waardoor de betrokken partijen tijd en kosten worden bespaard en de werklast voor de rechtbanken wordt verminderd.

In dit verband bepaalt artikel 3, lid 1, van de richtlijn dat een rechter de openbaarmaking kan gelasten van relevant bewijsmateriaal over specifieke AI-systemen met een hoog risico waarvan wordt vermoed dat zij schade hebben veroorzaakt. Verzoeken om bewijs worden gericht aan de aanbieder van het desbetreffende AI-systeem, eenieder voor wie de verplichtingen van de aanbieder van artikel 24 of artikel 28, lid 1, van de AI-verordening gelden, of een gebruiker in de zin van de AI-verordening. Het verzoek moeten worden gestaafd met feiten en bewijsmateriaal die volstaan om de geloofwaardigheid van de voorgenomen vordering tot schadevergoeding aan te tonen en het gevraagde bewijsmateriaal moet ter beschikking staan van degene aan wie het verzoek is gericht. Verzoeken kunnen niet worden gericht aan partijen die geen verplichtingen uit hoofde van de AI-verordening en daarom geen toegang tot het bewijsmateriaal hebben.

Overeenkomstig artikel 3, lid 2, kan de eiser aanbieders of gebruikers die geen verweerder zijn, alleen om openbaarmaking van bewijsmateriaal verzoeken indien hij tevergeefs alles heeft gedaan wat redelijk is om het bewijsmateriaal van de verweerder te verkrijgen.

Om de doeltreffendheid van de rechtsmiddelen middelen te waarborgen, bepaalt artikel 3, lid 3, van de richtlijn dat een gerecht ook de bewaring van dergelijk bewijsmateriaal kan gelasten.

Zoals bepaald in artikel 3, lid 4, eerste alinea, kan de rechter een dergelijke openbaarmaking slechts gelasten voor zover dat nodig is om de vordering te staven, aangezien de informatie kritisch bewijs kan zijn voor de vordering van de gelaedeerde persoon in het geval van schade waarbij AI-systemen zijn gebruikt.

Door de verplichting tot openbaarmaking of bewaring te beperken tot noodzakelijk bewijsmateriaal dat evenredig is aan het doel ervan, beoogt artikel 3, lid 4, eerste alinea, de evenredigheid bij de openbaarmaking van bewijsmateriaal te waarborgen, d.w.z. de openbaarmaking tot het noodzakelijke minimum te beperken en niet-specifieke verzoeken te voorkomen.

Met artikel 3, lid 4, tweede en derde alinea, wordt voorts beoogd een evenwicht te vinden tussen de rechten van de eiser en de noodzaak ervoor te zorgen dat voor die openbaarmaking waarborgen gelden ter bescherming van de legitieme belangen van alle betrokken partijen, onder meer wat betreft bedrijfsgeheimen of vertrouwelijke informatie.

In dezelfde context heeft artikel 3, lid 4, vierde alinea, tot doel ervoor te zorgen dat degene op wie het bevel tot openbaarmaking of bewaring betrekking heeft, rechtsmiddelen tegen dat bevel kan instellen.

Artikel 3, lid 5, voert een vermoeden van niet-nakoming van een zorgvuldigheidsplicht in. Dit is een procedureel instrument dat alleen relevant is in gevallen waarin het de eigenlijke verweerder in het kader van een vordering tot schadevergoeding is die de gevolgen draagt van het niet voldoen aan een verzoek tot openbaarmaking of bewaring van bewijsmateriaal. De verweerder zal het recht hebben dit vermoeden te weerleggen. De in dit lid beschreven maatregel heeft tot doel niet alleen de openbaarmaking te bevorderen, maar ook de gerechtelijke procedures te bespoedigen.

4. Vermoeden van causaal verband in geval van schuld (artikel 4)

Deze richtlijn heeft met betrekking tot door AI-systemen veroorzaakte schade tot doel een doeltreffende basis te bieden voor het vorderen van schadevergoeding in verband met schuld die bestaat in de niet-nakoming van een zorgvuldigheidsplicht uit hoofde van het Unierecht of het nationale recht.

Het kan voor eisers een probleem zijn om een causaal verband vast te stellen tussen een dergelijke niet-nakoming en de door het AI-systeem gegenereerde output of het verzuim van het AI-systeem om een output te genereren waardoor de desbetreffende schade is ontstaan. Daarom is in artikel 4, lid 1, voorzien in een specifiek weerlegbaar vermoeden van causaal verband. Een dergelijk vermoeden is de minst belastende maatregel om tegemoet te komen aan de noodzaak van een billijke schadevergoeding voor de gelaedeerde.

De schuld van de verweerder moet door de eiser worden aangetoond overeenkomstig de toepasselijke Unie- of nationale voorschriften. Een dergelijke schuld kan bijvoorbeeld worden vastgesteld in geval van niet-nakoming van een zorgvuldigheidsplicht uit hoofde van de AI-verordening of andere regels die op het niveau van de Unie zijn vastgesteld, zoals regels voor het gebruik van geautomatiseerde monitoring en besluitvorming voor platformwerk of regels voor de exploitatie van onbemande luchtvaartuigen. Een dergelijke schuld kan ook door de rechter worden aangenomen op grond van de niet-nakoming van een rechterlijk bevel tot openbaarmaking of bewaring van bewijsmateriaal overeenkomstig artikel 3, lid 5. Toch is het alleen passend om een vermoeden van causaal verband aan te voeren wanneer het waarschijnlijk kan worden geacht dat de desbetreffende schuld de output van het betrokken AI-systeem of het ontbreken daarvan heeft beïnvloed, hetgeen kan worden beoordeeld op basis van de algemene omstandigheden van de zaak. Tegelijkertijd moet de eiser altijd nog bewijzen dat het AI-systeem (d.w.z. de output of het verzuim die te genereren) de schade heeft veroorzaakt.

In de leden 2 en 3 wordt onderscheid gemaakt tussen enerzijds vorderingen die zijn ingesteld tegen de aanbieder van een AI-systeem met een hoog risico of tegen een persoon voor wie de verplichtingen van de aanbieder uit hoofde van de AI-verordening gelden, en anderzijds vorderingen die zijn ingesteld tegen de gebruiker van dergelijke systemen. In dit opzicht volgt het artikel de respectieve bepalingen en relevante voorwaarden van de AI-verordening. In het geval van vorderingen op grond van artikel 4, lid 2, moet de nakoming door verweerders van de in dat lid genoemde verplichtingen ook worden beoordeeld in het licht van het risicobeheersysteem en de resultaten daarvan, d.w.z. de risicobeheersmaatregelen, overeenkomstig de AI-verordening.

In het geval van AI-systemen met een hoog risico zoals gedefinieerd in de AI-verordening voorziet artikel 4, lid 4, in een uitzondering inzake het vermoeden van causaal verband, wanneer de verweerder aantoont dat de eiser redelijkerwijs over voldoende bewijsmateriaal en deskundigheid kan beschikken om het causaal verband aan te tonen. Deze mogelijkheid kan verweerders aanzetten tot inachtneming van hun verplichtingen tot openbaarmaking, de in de AI-verordening vastgestelde maatregelen om een hoog niveau van transparantie van de AI te waarborgen of de vereisten inzake documentatie en registratie.

In het geval van AI-systemen zonder hoog risico stelt artikel 4, lid 5, een voorwaarde voor de toepasselijkheid van het vermoeden van causaal verband, waarbij het aan de rechter staat om te oordelen of het voor de eiser uiterst moeilijk is om het causaal verband aan te tonen. Dergelijke moeilijkheden moeten worden beoordeeld in het licht van de kenmerken van bepaalde AI-systemen, zoals autonomie en ondoorzichtigheid, die de uitleg van de interne werking van het AI-systeem in de praktijk zeer moeilijk maken, met negatieve gevolgen voor de mogelijkheid voor de eiser om het causaal verband tussen de schuld van de verweerder en de AI-output aan te tonen.

In het geval waarin de verweerder het AI-systeem gebruikt in het kader van een persoonlijke, niet-professionele activiteit, bepaalt artikel 4, lid 6, dat het vermoeden van causaal verband alleen van toepassing dient te zijn wanneer de verweerder de voorwaarden voor de werking van het AI-systeem wezenlijk heeft verstoord of wanneer de verweerder verplicht en in staat was de voorwaarden voor de werking van het AI-systeem vast te stellen en dit heeft nagelaten. Deze voorwaarde wordt gerechtvaardigd door de noodzaak om de belangen van gelaedeerde personen en niet-professionele gebruikers tegen elkaar af te wegen door in de gevallen waarin niet-professionele gebruikers door hun gedrag geen extra risico opleveren, niet uit te gaan van een vermoeden van causaal verband.

Ten slotte bepaalt artikel 4, lid 7, dat de verweerder het recht heeft om het op artikel 4, lid 1, gebaseerde vermoeden van causaal verband te weerleggen.

Dergelijke effectieve regels inzake civielrechtelijke aansprakelijkheid hebben het bijkomend voordeel dat zij alle personen die betrokken zijn bij activiteiten in verband met AI-systemen een extra stimulans geven om hun verplichtingen met betrekking tot het van hen verwachte gedrag, na te komen.

5. Evaluatie en gerichte herziening (artikel 5)

De nationale rechtsstelsels voorzien in verschillende risicoaansprakelijkheidsregelingen. Elementen voor een dergelijke regeling op EU-niveau werden door het Europees Parlement ook aangedragen in zijn initiatiefresolutie van 20 oktober 2020 en deze bestonden uit een beperkte risicoaansprakelijkheidsregeling voor bepaalde op AI gebaseerde technologieën en een vereenvoudigde bewijslast op grond van regels op het gebied van schuldaansprakelijkheid. Uit de openbare raadplegingen is ook gebleken dat de respondenten (met uitzondering van de niet-kmo's) de voorkeur geven aan een dergelijke regeling, al dan niet gekoppeld aan een verplichte verzekering.

In het voorstel wordt echter rekening gehouden met de verschillen tussen de nationale rechtstradities en met het feit dat het soort producten en diensten die zijn uitgerust met AI-systemen die van invloed kunnen zijn op het grote publiek en belangrijke wettelijke rechten in gevaar kunnen brengen, zoals het recht op leven, gezondheid en eigendom, en derhalve onderworpen zouden kunnen zijn aan een risicoaansprakelijkheidsregeling, nog niet algemeen beschikbaar zijn op de markt.

Er wordt een monitoringprogramma opgezet om de Commissie informatie te verstrekken over incidenten waarbij AI-systemen betrokken zijn. Bij de gerichte herziening zal worden nagegaan of aanvullende maatregelen nodig zijn, zoals de invoering van een risicoaansprakelijkheidsregeling en/of verplichte verzekering.

6. Omzetting (artikel 7)

Wanneer de lidstaten de Commissie in kennis stellen van nationale omzettingsmaatregelen om aan deze richtlijn te voldoen, moeten zij ook toelichtende stukken verstrekken die voldoende duidelijke en nauwkeurige informatie bevatten en, voor elke bepaling van deze richtlijn de nationale bepaling(en) vermelden die de omzetting waarborg(t)(en). Dit is noodzakelijk om de Commissie in staat te stellen voor elke bepaling van de richtlijn die omzetting vereist, het relevante deel van de nationale omzettingsmaatregelen vast te stellen waarmee de overeenkomstige wettelijke verplichting in de nationale rechtsorde in het leven wordt geroepen, ongeacht de door de lidstaten gekozen vorm.