Overwegingen bij COM(2022)496 - Aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (AI)

Dit is een beperkte versie

U kijkt naar een beperkte versie van dit dossier in de EU Monitor.

 
 
(1) Artificiële intelligentie (“AI”) bestaat in een reeks sleuteltechnologieën die kunnen bijdragen aan een brede waaier van voordelen in het hele spectrum van economie en maatschappij. Zij biedt een groot potentieel voor technologische vooruitgang en maakt nieuwe bedrijfsmodellen mogelijk in tal van sectoren van de digitale economie.

(2) Tegelijkertijd kan AI, afhankelijk van de omstandigheden waarin ze wordt toegepast en gebruikt, risico’s opleveren en schade toebrengen aan de belangen en rechten die door de Unie- of nationale wetgeving worden beschermd. Het gebruik van AI kan bijvoorbeeld negatieve gevolgen hebben voor een aantal grondrechten, waaronder het recht op leven, het recht op fysieke integriteit, het recht op non-discriminatie en het recht op gelijke behandeling. Verordening (EU).../... van het Europees Parlement en de Raad [de AI-verordening] 31 voorziet in voorschriften om de risico’s voor de veiligheid en de grondrechten te beperken, terwijl andere rechtsinstrumenten van de Unie voorzien in algemene 32 en sectorale productveiligheidsvoorschriften die ook van toepassing zijn op op AI gebaseerde machineproducten 33 en radioapparatuur 34 . Hoewel dergelijke voorschriften die bedoeld zijn om de risico’s voor de veiligheid en de grondrechten te verminderen, het oogmerk hebben om risico’s te voorkomen, te monitoren en aan te pakken en zodoende in te spelen op maatschappelijke punten van zorg, bieden zij degenen die door AI schade hebben geleden geen individuele genoegdoening. De bestaande voorschriften voorzien met name in vergunningen, controles, monitoring en administratieve sancties met betrekking tot AI-systemen, teneinde schade te voorkomen. Zij voorzien niet in vergoeding voor de gelaedeerde persoon van schade die is veroorzaakt door output of het verzuim output te genereren door middel van een AI-systeem.

(3) Wanneer een gelaedeerde persoon vergoeding van geleden schade vordert, vereisen de algemene regels inzake schuldaansprakelijkheid van de lidstaten doorgaans dat die persoon het bewijs levert van een schade toebrengend doen of nalaten waarbij sprake is van onzorgvuldigheid of opzet (“schuld”) van de persoon die voor die schade aansprakelijk kan worden gesteld, alsmede van een causaal verband tussen die schuld en de desbetreffende schade. Wanneer AI echter een tussenschakel vormt tussen het doen of nalaten van een persoon en de schade, kunnen de specifieke kenmerken van bepaalde AI-systemen, zoals ondoorzichtigheid, autonoom gedrag en complexiteit, het voor de gelaedeerde uiterst moeilijk, zo niet onmogelijk maken om aan deze bewijslast te voldoen. Het kan met name uiterst moeilijk zijn om aan te tonen dat een specifieke input waarvoor de potentieel aansprakelijke persoon verantwoordelijk is, een specifieke output van AI-systemen heeft veroorzaakt die tot de betrokken schade heeft geleid.

(4) In dergelijke gevallen kan het niveau van verhaal dat door nationale wettelijke aansprakelijkheidsregels wordt geboden, lager zijn dan in gevallen waarin andere technologieën dan AI betrokken zijn bij het veroorzaken van schade. Dergelijke compensatielacunes kunnen bijdragen tot een lager maatschappelijk draagvlak voor AI en minder vertrouwen in op AI gebaseerde producten en diensten.

(5) Om de economische en maatschappelijke voordelen van AI te benutten en de transitie naar de digitale economie te bevorderen, moeten bepaalde nationale regels inzake civielrechtelijke aansprakelijkheid op gerichte wijze worden aangepast aan die specifieke kenmerken van bepaalde AI-systemen. Dergelijke aanpassingen moeten bijdragen tot het vertrouwen van de samenleving en de consument en aldus de uitrol van AI bevorderen. Dergelijke aanpassingen moeten ook het vertrouwen in het rechtsstelsel in stand houden door ervoor te zorgen dat degenen die schade hebben geleden die is veroorzaakt door het gebruik van AI, dezelfde effectieve schadevergoeding krijgen als degenen die door andere technologieën veroorzaakte schade hebben geleden.

(6) Belanghebbenden – gelaedeerden, potentieel aansprakelijke personen, verzekeraars – worden geconfronteerd met rechtsonzekerheid in verband met de wijze waarop nationale rechtbanken, wanneer zij te maken krijgen met de specifieke problemen van AI, de bestaande aansprakelijkheidsregels in individuele gevallen kunnen toepassen teneinde rechtvaardige resultaten te bereiken. Wanneer de Unie niet optreedt, zullen op zijn minst sommige lidstaten hun regels inzake wettelijke aansprakelijkheid waarschijnlijk aanpassen om compensatielacunes en rechtsonzekerheid in verband met de specifieke kenmerken van bepaalde AI-systemen aan te pakken. Dit zou leiden tot juridische versnippering en belemmeringen voor de interne markt voor bedrijven die innovatieve, op AI gebaseerde producten of diensten ontwikkelen of aanbieden. Met name kleine en middelgrote ondernemingen zouden worden getroffen.

(7) Het doel van deze richtlijn bestaat erin bij te dragen tot de goede werking van de interne markt door bepaalde nationale regels inzake niet-contractuele schuldaansprakelijkheid te harmoniseren, teneinde ervoor te zorgen dat personen die vergoeding vorderen van schade die hun door een AI-systeem is berokkend, een beschermingsniveau genieten dat gelijkwaardig is aan dat van personen die vergoeding vorderen voor schade die is veroorzaakt zonder betrokkenheid van een AI-systeem. Deze doelstelling kan niet voldoende door de lidstaten worden verwezenlijkt omdat de desbetreffende belemmeringen voor de interne markt te maken hebben met het risico van unilaterale en versnipperde regelgevende maatregelen op nationaal niveau. Gezien het digitale karakter van de producten en diensten die binnen het toepassingsgebied van deze richtlijn vallen, is deze laatste met name in een grensoverschrijdende context relevant.

(8) De doelstelling rechtszekerheid te waarborgen en compensatielacunes te voorkomen in gevallen waarin AI-systemen worden gebruikt, kan dus beter op het niveau van de Unie worden verwezenlijkt. De Unie kan derhalve maatregelen nemen overeenkomstig het in artikel 5 VEU vastgelegde subsidiariteitsbeginsel. Overeenkomstig het in hetzelfde artikel neergelegde evenredigheidsbeginsel gaat deze richtlijn niet verder dan nodig is om die doelstelling te verwezenlijken.

(9) Het is daarom nodig specifieke aspecten van schuldaansprakelijkheidsregels op het niveau van de Unie gericht te harmoniseren. Een dergelijke harmonisatie moet de rechtszekerheid vergroten en een gelijk speelveld voor AI-systemen creëren, waardoor de werking van de interne markt wat betreft de productie en verspreiding van op AI gebaseerde producten en diensten, wordt verbeterd.

(10) Om evenredigheid te waarborgen, is het passend om alleen die schuldaansprakelijkheidsregels specifiek te harmoniseren die van toepassing zijn op de bewijslast voor personen die vergoeding vorderen van door AI-systemen veroorzaakte schade. Deze richtlijn mag geen algemene aspecten van civielrechtelijke aansprakelijkheid harmoniseren die door de nationale wettelijke aansprakelijkheidsregels op uiteenlopende wijze worden geregeld, zoals de definitie van schuld of causaal verband, de verschillende soorten schade die tot vorderingen tot schadevergoeding leiden, de verdeling van aansprakelijkheid over meerdere plegers, deelneming en medeplichtigheid, de berekening van schade of verjaringstermijnen.

(11) De wetgevingen van de lidstaten betreffende de aansprakelijkheid van producenten voor schade als gevolg van gebreken van hun producten zijn reeds op het niveau van de Unie geharmoniseerd bij Richtlijn 85/374/EEG van de Raad 35 . Deze wetgevingen doen echter geen afbreuk aan de regels van de lidstaten inzake contractuele of niet-contractuele aansprakelijkheid, zoals de regels inzake garanties, schuld of risicoaansprakelijkheid, die op andere gronden rusten dan de gebrekkigheid van het product. Omdat tegelijkertijd met de herziening van Richtlijn 85/374/EEG van de Raad wordt beoogd duidelijk te maken en ervoor te zorgen dat een gelaedeerde schadevergoeding kan vorderen voor schade die is veroorzaakt door gebrekkige op AI gebaseerde producten, moet daarom worden verduidelijkt dat de bepalingen van deze richtlijn geen afbreuk doen aan de rechten die een gelaedeerde kan ontlenen aan nationale voorschriften ter uitvoering van Richtlijn 85/374/EEG. Bovendien moet, op het gebied van vervoer, het Unierecht inzake de aansprakelijkheid van vervoerders door deze richtlijn onverlet blijven.

(12) [De wet inzake digitale diensten] 36 harmoniseert de regels die van toepassing zijn op aanbieders van tussenhandelsdiensten op de interne markt volledig en dekt de maatschappelijke risico’s die voortvloeien uit de door die aanbieders aangeboden diensten, ook wat betreft de AI-systemen die zij gebruiken. Deze richtlijn doet geen afbreuk aan de bepalingen van [de wet inzake digitale diensten] die voorzien in een alomvattend en volledig geharmoniseerd kader voor zorgvuldigheidsverplichtingen voor algoritmische besluitvorming door aanbieders van hostingdiensten, met inbegrip van de vrijstelling van aansprakelijkheid voor de verspreiding van illegale inhoud die door afnemers van hun diensten is geüpload, indien aan de voorwaarden van die verordening is voldaan.

(13) Anders dan met betrekking tot de vermoedens die zij regelt, harmoniseert deze richtlijn geen nationale wetgevingen waar het gaat om de vraag welke partij de bewijslast draagt of welke mate van zekerheid vereist is met betrekking tot de bewijsstandaard. 

(14) Deze richtlijn moet een aanpak volgen waarbij minimale harmonisatie plaatsvindt. Een dergelijke benadering stelt eisers in geval van door AI-systemen veroorzaakte schade in staat om zich te beroepen op gunstigere regels van nationaal recht. Zo zouden nationale wetten bijvoorbeeld de omkering van de bewijslast kunnen handhaven in het kader van nationale regelingen inzake schuldaansprakelijkheid, of nationale regelingen inzake risicoaansprakelijkheid, waaraan er in de nationale wetgevingen reeds een grote verscheidenheid bestaat, en die mogelijk van toepassing zijn op door AI-systemen veroorzaakte schade.

(15) Er moet ook worden gezorgd voor samenhang met [de AI-verordening]. Het is daarom passend dat in deze richtlijn dezelfde definities worden gebruikt met betrekking tot AI-systemen, aanbieders en gebruikers. Bovendien mag deze richtlijn alleen van toepassing zijn op vorderingen tot vergoeding van schade die is veroorzaakt door een output van of het verzuim output te genereren door een AI-systeem als gevolg van de schuld van een persoon, bijvoorbeeld de aanbieder of de gebruiker in de zin van [de AI-verordening]. Vorderingen op grond van aansprakelijkheid hoeven niet te worden bestreken wanneer de schade is veroorzaakt door een menselijke beoordeling die wordt gevolgd door een menselijk doen of nalaten, terwijl het AI-systeem slechts informatie of advies heeft verstrekt waarmee de betrokken menselijke actor rekening heeft gehouden. In het laatste geval is het mogelijk de schade te herleiden tot een menselijk doen of nalaten, aangezien de output van het AI-systeem geen tussenschakel vormt tussen het menselijk doen of nalaten en de schade, zodat het vaststellen van een causaal verband niet moeilijker is dan in situaties waarin geen AI-systeem wordt gebruikt.

(16) Toegang tot informatie over specifieke AI-systemen met een hoog risico waarvan wordt vermoed dat zij schade hebben veroorzaakt, is een belangrijke factor om vast te kunnen stellen of schadevergoeding moet worden gevorderd en om vorderingen tot schadevergoeding te motiveren. Bovendien voorziet [de AI-verordening] voor AI-systemen met een hoog risico in specifieke documentatie-, informatie- en registratievereisten, maar biedt zij de gelaedeerde geen recht op toegang tot die informatie. Het is derhalve passend regels vast te stellen voor de openbaarmaking van relevant bewijsmateriaal door degenen die over dat bewijsmateriaal beschikken, teneinde de aansprakelijkheid vast te kunnen stellen. Dit moet ook een extra stimulans bieden om te voldoen aan de desbetreffende vereisten van [de AI-verordening] om de relevante informatie te documenteren of te registreren.

(17) Het grote aantal mensen dat gewoonlijk betrokken is bij het ontwerp, de ontwikkeling, de uitrol en de exploitatie van AI-systemen met een hoog risico maakt het voor gelaedeerden moeilijk om te bepalen wie eventueel aansprakelijk is voor de veroorzaakte schade en om aan te tonen dat aan de voorwaarden voor een vordering tot schadevergoeding is voldaan. Om gelaedeerden in staat te stellen na te gaan of een vordering tot schadevergoeding gegrond is, is het passend potentiële eisers het recht te verlenen om een rechter te verzoeken de openbaarmaking van relevant bewijsmateriaal te gelasten voordat zij een vordering tot schadevergoeding indienen. Een dergelijke openbaarmaking mag alleen worden gelast wanneer de potentiële eiser feiten en informatie aandraagt die toereikend zijn om de geloofwaardigheid van een vordering tot schadevergoeding te staven en hij vooraf de aanbieder, de persoon voor wie de verplichtingen van een aanbieder gelden of de gebruiker, heeft verzocht om dergelijk tot diens beschikking staand bewijsmateriaal over specifieke AI-systemen met een hoog risico, waarvan wordt vermoed dat zij schade hebben veroorzaakt, openbaar te maken en dat verzoek is geweigerd. Het gelasten van openbaarmaking moet leiden tot een vermindering van onnodige rechtszaken en het vermijden van kosten voor eventuele procespartijen als gevolg van vorderingen die ongerechtvaardigd zijn of waarschijnlijk zullen worden afgewezen. De weigering van de aanbieder, de persoon voor wie de verplichtingen van een aanbieder gelden of de gebruiker om, voorafgaand aan het verzoek aan de rechter, bewijsmateriaal openbaar te maken, mag niet leiden tot het vermoeden dat de persoon die een dergelijke openbaarmaking weigert, zijn relevante zorgvuldigheidsplichten niet nakomt.

(18) De beperking van de openbaarmaking van bewijsmateriaal met betrekking tot AI-systemen met een hoog risico strookt met [de AI-verordening], die voorziet in bepaalde specifieke verplichtingen met betrekking tot documentatie, registratie en informatie voor exploitanten die betrokken zijn bij het ontwerp, de ontwikkeling en de uitrol van AI-systemen met een hoog risico. Een dergelijke consistentie zorgt ook voor de noodzakelijke evenredigheid door te vermijden dat van exploitanten van AI-systemen met een lager of geen risico wordt verwacht dat zij informatie vastleggen op een niveau dat vergelijkbaar is met het niveau dat op grond van [de AI-verordening] voorgeschreven is voor AI-systemen met een hoog risico.

(19) Nationale rechtbanken moeten in de loop van civiele procedures kunnen gelasten dat relevant bewijsmateriaal met betrekking tot de door AI-systemen met een hoog risico veroorzaakte schade openbaar wordt gemaakt of wordt bewaard door personen die, als verweerder of als derde partij bij de vordering, op grond van [de AI-verordening] reeds verplicht zijn informatie te documenteren of te registreren, ongeacht of het gaat om aanbieders, personen voor wie dezelfde verplichtingen gelden als voor aanbieders, of gebruikers van een AI-systeem. Er zouden zich situaties kunnen voordoen waarin het voor de zaak relevante bewijsmateriaal in het bezit is van entiteiten die geen partij zijn bij de vordering tot schadevergoeding, maar die op grond van [de AI-verordening] wel verplicht zijn dergelijk bewijsmateriaal te documenteren of registreren. Het is dus noodzakelijk te bepalen onder welke voorwaarden deze derde partijen bij de vordering kunnen worden gelast het relevante bewijsmateriaal openbaar te maken.

(20) Om het evenwicht te bewaren tussen de belangen van de partijen die betrokken zijn bij de vordering tot schadevergoeding en die van de betrokken derde partijen, dienen de rechtbanken de openbaarmaking van bewijsmateriaal alleen te gelasten indien dit noodzakelijk en evenredig is om de vordering of potentiële vordering tot schadevergoeding te ondersteunen. In dit verband mag de openbaarmaking alleen betrekking hebben op bewijsmateriaal dat noodzakelijk is voor een beslissing over de desbetreffende vordering tot schadevergoeding, bijvoorbeeld alleen op de delen van de relevante registers of gegevensreeksen die nodig zijn om de niet-nakoming van een in [de AI-verordening] gestelde eis aan te tonen. Om de evenredigheid van dergelijke openbaarmakings- of bewaringsmaatregelen te waarborgen, moeten de nationale rechterlijke instanties over doeltreffende middelen beschikken om de legitieme belangen van alle betrokken partijen te waarborgen, bijvoorbeeld het belang van de bescherming van bedrijfsgeheimen in de zin van Richtlijn (EU) 2016/943 van het Europees Parlement en de Raad 37 en van vertrouwelijke informatie, zoals informatie in verband met de openbare of nationale veiligheid. Met betrekking tot bedrijfsgeheimen of vermeende bedrijfsgeheimen die de rechtbank als vertrouwelijk in de zin van Richtlijn (EU) 2016/943 heeft aangemerkt, moeten de nationale rechterlijke instanties de bevoegdheid krijgen om specifieke maatregelen te nemen om de vertrouwelijkheid van die geheimen tijdens en na de procedure te waarborgen, waarbij een billijk en evenredig evenwicht moet worden bereikt tussen het belang van de houder van het bedrijfsgeheim bij geheimhouding en het belang van de gelaedeerde. Deze bevoegdheid moet zich uitstrekken tot maatregelen om de toegang tot documenten die bedrijfsgeheimen bevatten en tot hoorzittingen of documenten en transcripties daarvan tot een beperkt aantal personen te beperken. Wanneer de nationale rechterlijke instanties over dergelijke maatregelen beslissen, dan moeten zij rekening houden met de noodzaak het recht op een doeltreffende voorziening in rechte en op een eerlijk proces te waarborgen, alsook met de rechtmatige belangen van de partijen en, indien van toepassing, van derde partijen, en met de mogelijke schade voor een van de partijen of, indien van toepassing, voor derde partijen, als gevolg van het gelasten of afwijzen van dergelijke maatregelen. Om een evenredige toepassing van een openbaarmakingsmaatregel ten aanzien van derde partijen in het kader van vorderingen tot schadevergoeding te waarborgen, mogen de nationale rechters bovendien derde partijen alleen gelasten om bewijsmateriaal openbaar te maken als het bewijsmateriaal niet van de verweerder kan worden verkregen.

(21) Hoewel de nationale rechterlijke instanties over de middelen beschikken om hun bevelen tot openbaarmaking door middel van verschillende maatregelen ten uitvoer te leggen, kunnen dergelijke dwangmaatregelen de behandeling van vorderingen tot schadevergoeding vertragen en aldus extra kosten voor de justitiabelen met zich meebrengen. Voor gelaedeerden kunnen dergelijke vertragingen en extra kosten hun beroep op een doeltreffende voorziening in rechte bemoeilijken. Wanneer een verweerder in het kader van een vordering tot schadevergoeding hem ter beschikking staand bewijsmateriaal niet openbaar maakt zoals door de rechter gelast, is het passend om uit te gaan van een vermoeden van niet-nakoming van de zorgvuldigheidsplicht die met dit bewijsmateriaal juist had moeten worden aangetoond. Dit weerlegbare vermoeden zal de duur van rechtszaken verkorten en de efficiëntie van gerechtelijke procedures bevorderen. De verweerder moet dit vermoeden kunnen weerleggen door bewijs van het tegendeel over te leggen.

(22) Om de moeilijkheden te verhelpen bij het aantonen dat een specifieke input waarvoor de potentieel aansprakelijke persoon verantwoordelijk is, een specifieke output van een AI-systeem heeft veroorzaakt die tot de betrokken schade heeft geleid, is het wenselijk om, onder bepaalde voorwaarden, in een vermoeden van causaal verband te voorzien. Hoewel de eiser in het kader van een op schuld gebaseerde vordering gewoonlijk de schade, het menselijke doen of nalaten waarin de schuld van verweerder bestaat en het causaal verband tussen schade en schuld moet bewijzen, worden door deze richtlijn de voorwaarden waaronder de nationale rechter schuld vaststelt, niet geharmoniseerd. Daarvoor blijven het toepasselijke nationale recht en, indien geharmoniseerd, het toepasselijke Unierecht gelden. Evenmin harmoniseert deze richtlijn de voorwaarden met betrekking tot de schade – bijvoorbeeld welke schade voor vergoeding in aanmerking komt – waarvoor ook het toepasselijke nationale recht en het toepasselijke Unierecht blijven gelden. Wil het vermoeden van een causaal verband op grond van deze richtlijn van toepassing zijn, dan moet de schuld van de verweerder worden vastgesteld als een menselijk doen of nalaten dat niet voldoet aan een zorgvuldigheidsplicht uit hoofde van het Unierecht of het nationale recht die rechtstreeks bedoeld is om bescherming te bieden tegen de geleden schade. Van dit vermoeden kan bijvoorbeeld sprake zijn in het kader van een vordering tot schadevergoeding wegens lichamelijk letsel, wanneer de rechter vaststelt dat de verweerder schuldig is omdat hij de gebruiksaanwijzing die bedoeld is om te voorkomen dat natuurlijke personen schade lijden, niet in acht heeft genomen. Niet-nakoming van zorgvuldigheidsplichten die niet rechtstreeks bedoeld waren om te beschermen tegen schade die zich heeft voorgedaan, leidt niet tot de toepassing van het vermoeden; het verzuim van een aanbieder om de vereiste documentatie bij de bevoegde autoriteiten in te dienen, zou bijvoorbeeld niet leiden tot de toepassing van het vermoeden in het kader van vorderingen tot schadevergoeding wegens lichamelijk letsel. Er zou ook moeten worden vastgesteld dat, op basis van de omstandigheden van het geval, redelijkerwijs kan worden aangenomen dat de schuld van invloed was op de door het AI-systeem gegenereerde output of het verzuim van het AI-systeem output te genereren. Ten slotte moet van de eiser nog steeds worden verlangd dat hij aantoont dat de output of het verzuim output te genereren, de schade heeft veroorzaakt.

(23) Een dergelijke schuld kan worden vastgesteld met betrekking tot niet-nakoming van regels van de Unie die specifiek van toepassing zijn op AI-systemen met een hoog risico, zoals de voorschriften die bij [de AI-verordening] voor bepaalde AI-systemen met een hoog risico zijn ingevoerd, voorschriften die bij toekomstige sectorale wetgeving kunnen worden ingevoerd voor andere AI-systemen met een hoog risico overeenkomstig [artikel 2, lid 2, van de AI-verordening], of zorgvuldigheidsplichten die verband houden met bepaalde activiteiten en die van toepassing zijn ongeacht of voor die activiteit AI wordt gebruikt. Tegelijkertijd creëert noch harmoniseert deze richtlijn de vereisten of de aansprakelijkheid van entiteiten waarvan de activiteiten krachtens die rechtshandelingen worden geregeld en doet zij derhalve geen nieuwe vorderingen op grond van aansprakelijkheid ontstaan. Het vaststellen van een inbreuk op een dergelijk vereiste die neerkomt op schuld, zal plaatsvinden overeenkomstig de bepalingen van die toepasselijke regels van het Unierecht, aangezien bij deze richtlijn geen nieuwe vereisten worden ingevoerd en zij ook niet van invloed is op bestaande vereisten. Deze richtlijn laat bijvoorbeeld de vrijstelling van aansprakelijkheid voor aanbieders van tussenhandelsdiensten en de zorgvuldigheidsverplichtingen waaraan zij uit hoofde van [de wet inzake digitale diensten] zijn onderworpen, onverlet. Evenzo moet de nakoming van de vereisten die aan onlineplatforms worden opgelegd om ongeoorloofde mededeling van auteursrechtelijk beschermde werken aan het publiek te voorkomen, worden vastgesteld in het kader van Richtlijn (EU) 2019/790 inzake auteursrechten en naburige rechten in de digitale eengemaakte markt en andere relevante wetgeving van de Unie inzake auteursrechten. 

(24) Op gebieden die niet door het Unierecht zijn geharmoniseerd, blijft het nationale recht van toepassing en wordt het bestaan van schuld vastgesteld krachtens het toepasselijke nationale recht. Alle nationale aansprakelijkheidsregelingen kennen zorgvuldigheidsplichten, waarvoor de wijze waarop een redelijk persoon moet handelen als gedragsnorm geldt, zij het dat de formulering van die norm verschilt, en die ook de veilige werking van AI-systemen waarborgen teneinde te voorkomen dat erkende rechtsbelangen worden geschaad. Dergelijke zorgvuldigheidsplichten kunnen gebruikers van AI-systemen bijvoorbeeld verplichten om voor bepaalde taken een bepaald AI-systeem met concrete kenmerken te kiezen of bepaalde segmenten van een bevolking uit te sluiten van blootstelling aan een bepaald AI-systeem. Het nationale recht kan ook specifieke verplichtingen ter voorkoming van risico’s voor bepaalde activiteiten invoeren die van toepassing zijn ongeacht of voor die activiteit AI wordt gebruikt, bijvoorbeeld verkeersregels of verplichtingen die specifiek zijn ontworpen voor AI-systemen, zoals aanvullende nationale voorschriften voor gebruikers van AI-systemen met een hoog risico overeenkomstig artikel 29, lid 2, van [de AI-verordening]. Dergelijke voorschriften worden door deze richtlijn niet ingevoerd noch worden de voorwaarden voor het vaststellen van schuld in geval van schending van dergelijke voorschriften door haar beïnvloed.

(25) Zelfs wanneer sprake is van schuld die bestaat in de niet-nakoming van een zorgvuldigheidsplicht die rechtstreeks bedoeld is om bescherming te bieden tegen de geleden schade, mag niet iedere schuld leiden tot de toepassing van het weerlegbare vermoeden dat deze verband houdt met de output van de AI. Een dergelijk vermoeden mag alleen van toepassing zijn wanneer op grond van de omstandigheden waarin de schade zich heeft voorgedaan, redelijkerwijs kan worden aangenomen dat een dergelijke schuld van invloed is geweest op de door het AI-systeem gegenereerde output of het verzuim van het AI-systeem om een output te genereren, waardoor de schade is ontstaan. Het kan bijvoorbeeld redelijk aannemelijk worden geacht dat de schuld van invloed is geweest op de output of het verzuim output te genereren, wanneer die schuld bestaat in het schenden van een zorgvuldigheidsplicht met betrekking tot de beperking van het bereik van het AI-systeem en de schade zich buiten dat bereik heeft voorgedaan. Daarentegen zou niet redelijkerwijs kunnen worden aangenomen dat een schending van een verplichting om bepaalde documenten in te dienen of te registreren bij een bepaalde autoriteit van invloed is geweest op de door het AI-systeem gegenereerde output of het verzuim output te genereren, zelfs niet wanneer voor de desbetreffende activiteit in een dergelijke verplichting zou zijn voorzien of een dergelijke verplichting uitdrukkelijk van toepassing zou zijn op de werking van het AI-systeem.

(26) Deze richtlijn heeft betrekking op schuld die bestaat in de niet-nakoming van bepaalde in de hoofdstukken 2 en 3 van [de AI-verordening] opgenomen vereisten voor aanbieders en gebruikers van AI-systemen met een hoog risico, welke niet-nakoming onder bepaalde voorwaarden kan leiden tot een vermoeden van causaal verband. De AI-verordening voorziet in volledige harmonisatie van de vereisten voor AI-systemen, tenzij daarin uitdrukkelijk anders is bepaald. Zij harmoniseert de specifieke vereisten voor AI-systemen met een hoog risico. Met het oog op vorderingen tot schadevergoeding waarbij een vermoeden van causaal verband overeenkomstig deze richtlijn wordt toegepast, wordt de potentiële schuld van aanbieders of personen voor wie de verplichtingen gelden van een aanbieder uit hoofde van [de AI-verordening], dus alleen vastgesteld op grond van de niet-nakoming van dergelijke vereisten. Aangezien het in de praktijk moeilijk kan zijn voor de eiser om een dergelijke niet-nakoming aan te tonen wanneer de verweerder een aanbieder van het AI-systeem is, en in volledige overeenstemming met de logica van [de AI-verordening], moet in deze richtlijn ook worden bepaald dat de stappen die de aanbieder in het kader van het risicobeheersysteem heeft ondernomen en de resultaten van het risicobeheersysteem, d.w.z. het besluit om al dan niet bepaalde risicobeheersmaatregelen vast te stellen, in aanmerking moeten worden genomen bij het bepalen of de aanbieder heeft voldaan aan de relevante vereisten uit hoofde van de AI-verordening waarnaar in deze richtlijn wordt verwezen. Het risicobeheersysteem dat door de aanbieder op grond van [de AI-vordering] is opgezet, is een continu iteratief proces dat gedurende de gehele levenscyclus van het AI-systeem met een hoog risico wordt uitgevoerd, waarbij de aanbieder ervoor zorgt dat de dwingende vereisten ter beperking van risico’s worden nageleefd en kan derhalve een nuttig element zijn voor de beoordeling van deze naleving. Deze richtlijn heeft ook betrekking op gevallen van schuld van gebruikers, wanneer deze schuld bestaat in het niet naleven van bepaalde specifieke vereisten van [de AI-verordening]. Bovendien kan de schuld van gebruikers van AI-systemen met een hoog risico worden vastgesteld na niet-nakoming van andere zorgvuldigheidsplichten die zijn vastgelegd in het Unierecht of het nationale recht, in het licht van artikel 29, lid 2, van [de AI-verordening].

(27) Hoewel de specifieke kenmerken van bepaalde AI-systemen, zoals autonomie en ondoorzichtigheid, het voor de eiser uiterst moeilijk kunnen maken om aan de bewijslast te voldoen, kunnen zich situaties voordoen waarin van dergelijke moeilijkheden geen sprake is omdat de klager over voldoende bewijsmateriaal en deskundigheid beschikt om het oorzakelijk verband aan te tonen. Dit kan bijvoorbeeld het geval zijn bij AI-systemen met een hoog risico waarbij de eiser redelijkerwijs toegang had tot voldoende bewijsmateriaal en deskundigheid vanwege documentatie- en registratievereisten op grond van [de AI-verordening]. In dergelijke situaties mag de rechter het vermoeden niet toepassen.

(28) Het vermoeden van causaal verband zou ook kunnen gelden voor andere AI-systemen dan AI-systemen met een hoog risico, omdat er voor de eiser buitensporige bewijsproblemen zouden kunnen zijn. Dergelijke moeilijkheden zouden bijvoorbeeld kunnen worden beoordeeld in het licht van de kenmerken van bepaalde AI-systemen, zoals autonomie en ondoorzichtigheid, die de uitleg van de interne werking van het AI-systeem in de praktijk zeer moeilijk maken, met negatieve gevolgen voor de mogelijkheid voor de eiser om het causaal verband tussen de schuld van de verweerder en de AI-output aan te tonen. Een nationale rechter moet het vermoeden toepassen wanneer de eiser zich in een buitensporig moeilijke positie bevindt om het causaal verband aan te kunnen tonen, vanwege het feit dat moet worden uitgelegd hoe het AI-systeem werd aangestuurd door een menselijk doen of nalaten dat schuld inhoudt aan het genereren van de output of het verzuim output te genereren waardoor de schade is veroorzaakt. Van de eiser mag echter niet worden verlangd dat hij de kenmerken van het betrokken AI-systeem toelicht, noch dat hij uitlegt hoe deze kenmerken het moeilijker maken om het oorzakelijk verband vast te stellen.

(29) De toepassing van het vermoeden van causaal verband is bedoeld om de gelaedeerde een beschermingsniveau te bieden dat vergelijkbaar is met het beschermingsniveau in situaties waarin geen sprake van AI is en het oorzakelijk verband dus gemakkelijker kan worden aangetoond. Niettemin is het verlichten van de bewijslast inzake het causaal verband in het kader van deze richtlijn niet altijd passend wanneer de verweerder geen professionele gebruiker is, maar een persoon die het AI-systeem voor zijn privéactiviteiten gebruikt. In dergelijke omstandigheden moet, teneinde een evenwicht te vinden tussen de belangen van de gelaedeerde en de niet-professionele gebruiker, rekening worden gehouden met de vraag of dergelijke niet-professionele gebruikers het risico dat een AI-systeem schade veroorzaakt, door hun eigen gedrag kunnen vergroten. Indien de aanbieder van een AI-systeem aan al zijn verplichtingen heeft voldaan en dit systeem bijgevolg voldoende veilig werd geacht om in de handel te worden gebracht voor een bepaald gebruik door niet-professionele gebruikers en het vervolgens dienovereenkomstig wordt gebruikt, mag een vermoeden van causaal verband niet gelden voor de eenvoudige inwerkingstelling van een dergelijk systeem door dergelijke niet-professionele gebruikers. Op een niet-professionele gebruiker die een AI-systeem koopt en het slechts in overeenstemming met het doel ervan in werking stelt, zonder de voorwaarden waaronder het systeem functioneert, wezenlijk te beïnvloeden, mag het in deze richtlijn neergelegde vermoeden van causaal verband niet van toepassing zijn. Indien een nationale rechter echter vaststelt dat een niet-professionele gebruiker de voorwaarden voor de werking van een AI-systeem wezenlijk heeft beïnvloed of dat een dergelijke gebruiker de voorwaarden voor de werking van het AI-systeem moest vaststellen en daartoe ook in staat was, en dit heeft nagelaten, dan moet het vermoeden van causaal verband van toepassing zijn, mits aan alle andere voorwaarden is voldaan. Dit kan bijvoorbeeld het geval zijn wanneer de niet-professionele gebruiker de gebruiksaanwijzing of andere toepasselijke zorgvuldigheidsplichten niet in acht neemt bij de keuze van het werkingsgebied of bij het vastleggen van de prestatievoorwaarden van het AI-systeem. Dit doet geen afbreuk aan het feit dat de aanbieder het beoogde doel van een AI-systeem moet bepalen, met inbegrip van de specifieke context en gebruiksvoorwaarden, en de risico’s van dat systeem moet wegnemen of tot een minimum moet beperken zoals passend op het moment van het ontwerp en de ontwikkeling, rekening houdend met de kennis en deskundigheid van de beoogde gebruiker.

(30) Aangezien deze richtlijn een weerlegbaar vermoeden invoert, moet de verweerder dit vermoeden kunnen weerleggen, met name door aan te tonen dat zijn schuld de schade niet had kunnen veroorzaken.

(31) Er moet worden voorzien in een evaluatie van deze richtlijn [vijf jaar] na afloop van de omzettingsperiode. Bij die evaluatie moet met name worden onderzocht of er behoefte is aan het creëren van risicoaansprakelijkheidsregels voor vorderingen tegen de exploitant, voor zover deze niet reeds onder andere aansprakelijkheidsregels van de Unie, met name Richtlijn 85/374/EEG, vallen, in combinatie met een verplichte verzekering voor de werking van bepaalde AI-systemen, zoals voorgesteld door het Europees Parlement 38 . Overeenkomstig het evenredigheidsbeginsel is het passend een dergelijke behoefte te beoordelen in het licht van relevante technologische en regelgevingsontwikkelingen in de komende jaren, rekening houdend met het effect en de impact voor de uitrol en aanvaarding van AI-systemen, met name voor kmo’s. Bij een dergelijke evaluatie moet onder meer rekening worden gehouden met de risico’s wat betreft negatieve gevolgen voor belangrijke juridische waarden als het leven, de gezondheid en de eigendom van onbewust handelende derden als gevolg van de werking van op AI gebaseerde producten of diensten. Bij die evaluatie moet ook een analyse plaatsvinden van de doeltreffendheid van de maatregelen waarin deze richtlijn voorziet om dergelijke risico’s aan te pakken, alsook van de ontwikkeling van passende oplossingen door de verzekeringsmarkt. Om ervoor te zorgen dat de informatie beschikbaar is die nodig is om een dergelijke evaluatie uit te voeren, is het noodzakelijk gegevens en ander noodzakelijk bewijsmateriaal te verzamelen met betrekking tot de relevante aangelegenheden.

(32) Gezien de noodzaak om de nationale wettelijke aansprakelijkheids- en procedureregels aan te passen ter bevordering van de uitrol van op AI gebaseerde producten en diensten onder gunstige omstandigheden op de interne markt, van maatschappelijke aanvaarding van en consumentenvertrouwen in AI-technologie en van het rechtsstelsel, is het passend om een termijn van uiterlijk [twee jaar na de inwerkingtreding] van deze richtlijn vast te stellen waarbinnen de lidstaten de nodige omzettingsmaatregelen moeten vaststellen.

(33) Overeenkomstig de gezamenlijke politieke verklaring van 28 september 2011 van de lidstaten en de Commissie over toelichtende stukken 39 hebben de lidstaten zich ertoe verbonden om in gerechtvaardigde gevallen de kennisgeving van hun omzettingsmaatregelen vergezeld te doen gaan van één of meer stukken waarin het verband tussen de onderdelen van een richtlijn en de overeenkomstige delen van de nationale omzettingsinstrumenten wordt toegelicht. Met betrekking tot deze richtlijn acht de wetgever de toezending van die stukken gerechtvaardigd.