AI & robots

Kunstmatige intelligentie en wetgeving: moeten robots aansprakelijk gesteld kunnen worden?

Kunstmatige intelligentie krijgt elke maand voet aan de grond in nieuwe industrieën, waardoor het meer verstrikt raakt in ons dagelijks leven. Van de drie soorten is de derde soort, Artificial Super Intelligence (ASI), op alle fronten superieur aan de mens. Zelflerende robots kunnen op een oneindig aantal manieren ons leven flink verbeteren in de toekomst.

In de rechtspraak en bij rechtshulpverlening wordt bijvoorbeeld al gebruik gemaakt van kunstmatige intelligentie om juridische besluiten en uitspraken te nemen. De verantwoordelijkheid voor artificial intelligence zelf is echter nog niet vastgelegd in de wet. Volgens Elon Musk moeten we absoluut proactief zijn om wetgeving te ontwerpen voor AI, omdat het een fundamenteel risico vormt voor ons voortbestaan. Kunnen we kunstmatige intelligentie nog in de hand houden?

Robots als rechtspersoon

Volgens het Europees Economisch en Sociaal Comité (EESC) kunnen we dit wel, maar dan moeten er snel wetten en regels komen. In alledaagse juridische kwesties komen er namelijk steeds meer vragen rondom kunstmatige intelligentie. Wie wordt bijvoorbeeld aansprakelijk gesteld als een zelfrijdende auto een ongeval veroorzaakt? Of in welke mate kan AI diagnoses voor ziektes overnemen van artsen?

Rob van den Hoven van Genderen, universitair docent aan de Vrije Universiteit en directeur van het Centre for Law and Internet, vindt dat autonoom intelligente entiteiten een rechtspersoonlijkheid moeten krijgen. Volgens hem kun je het vergelijken met niet-natuurlijke rechtspersonen: die zijn namelijk ook ontstaan omdat er op basis van hun functie een sociale, economische of andere maatschappelijke behoefte voor was.

Koen Hindriks, universitair hoofddocent aan de TU Delft en bestuursvoorzitter van roboticabedrijf Interactive Robotics, is het hier niet mee eens. Hij vindt het belangrijk om na te denken over een juridisch kader voor AI en robotica, maar het geven van een rechtspersoonlijkheid vindt hij absurd. Hiermee kunnen robots namelijk rechtszaken tegen mensen beginnen. Met hun superioriteit is dat natuurlijk onwenselijk.

Drie wetten van de robotica

De verantwoordelijkheid van robots komt niet nu pas voor het eerst ten sprake. De in 1992 overleden sciencefictionauteur Isaac Asimov kwam zelfs met drie wetten waar zijn fictieve robots zich aan moesten houden:

  1. Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

  2. Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de eerste wet.

  3. Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de eerste of tweede wet.

Hoewel deze regels voor fictie zijn opgesteld, duiken ze vaak op in discussies over robotica en AI ethiek. De meeste academici nemen de regels niet serieus: in de praktijk leidt het immers tot veel conflicten en problemen. De wetten worden echter wel vaak als basis gebruikt in onderzoeken over robotica.

Van fictie naar feit

Ook het EESC is momenteel opzoek naar een algemene wetgeving voor robotica en kunstmatige intelligentie. Een ethische code moet ervoor zorgen dat AI onze mensenrechten en menselijke waardigheid niet aantast. Hier wordt een vijftal principes voor gebruikt:

  • Het principe van respect voor fundamentele rechten; hierbij moet het ontwerp en de implementatie van kunstmatige intelligentie in lijn liggen met de fundamentele rechten van de mens.

  • Het non-discriminatie principe; hierbij moet discriminatie tussen individuen of groepen voorkomen en/of verminderd worden.

  • Het kwaliteits- en veiligheidsprincipe; hierbij wordt gelet op het gebruik van beveiligde technologie.

  • Het principe van transparantie, onpartijdigheid en rechtvaardigheid; hierbij wordt gelet op de verwerking en de begrijpelijkheid van gegevens .

  • Het principe van controle; hierbij moeten mensen de garantie hebben dat ze altijd de controle over machines blijven behouden.

Het merendeel van deze principes zijn richtlijnen waar developers rekening mee moeten houden. Wet- en regelgeving binnen artificial intelligence blijft namelijk een breinbreker. Het is per slot van rekening niet mogelijk om vast te stellen hoe de technologie zich zal ontwikkelen. Wellicht worden robots wel rechtspersonen; de tijd zal het leren.