Software en AI-systemen die gebreken vertonen, kunnen schade veroorzaken wanneer ze zijn ingebouwd in een schoonmaakrobot of als een zelfstandig digitaal product in de handel worden gebracht zoals een gezondheidsapp voor smartphones.
Als personen schade hebben geleden door software of AI-systemen moeten:
- slachtoffers zijn niet meer verplicht zijn om te bewijzen op welke manier de schade door een bepaalde fout of nalatigheid is veroorzaakt. (De bewijslast moet dus niet bij de consument liggen. Dit omdat het lastig te bewijzen is bij producten waarbij kunstmatige intelligentie een rol speelt.);
- bedrijven of leveranciers relevant bewijsmateriaal beschikbaar stellen aan de slachtoffers op last van de rechter als er sprake is van schade bij gevallen van A.I. met een hoog risico. Als er bijvoorbeeld schade wordt veroorzaakt doordat een drone-operator, die pakjes bezorgt de gebruiksaanwijzing niet in acht neemt, moeten slachtoffers de rechter kunnen verzoeken om bewijsmateriaal op te vragen over de informatie van AI-systemen met een hoog risico. Dit zal slachtoffers in staat stellen de persoon te identificeren die aansprakelijk kan worden gesteld en te achterhalen wat er fout is gegaan. Anderzijds zal er bij de informatieverstrekking rekening worden gehouden met de bescherming van gevoelige informatie, zoals bedrijfsgeheimen.
Dit moet slachtoffers een eerlijke kans geven om schadevergoedingen te kunnen vorderen als ze schade ondervinden door de schuld of nalatigheid van een aanbieder, ontwikkelaar of gebruiker van AI. Meer hierover weten? Lees verder.
De huidige regels voor productaansprakelijkheid zijn 40 jaar oud en zijn dan ook aan herziening toe. Het EC-voorstel voor herziening geldt voor alle producten, variërend van tuinstoelen tot geneesmiddelen tegen kanker, van landbouwproducten tot geavanceerde machines, maar ook op software-updates. Meer weten? Lees het volledige persbericht.
Bijzonderheden
- Datum publicatie
- 28 september 2022
- Auteur
- Vertegenwoordiging in Nederland