Artificial Intelligence en ethisch engineeren

Of: waarom de botsing tussen transparantieregelgeving en marketingwensen er voor zorgt dat er voorlopig geen Tesla zonder stuur komt

 

 

U als engineer zal er al volop mee te maken hebben of te maken krijgen: AI die deel uitmaakt van het ontwerp. AI die in sommige gevallen keuzes kan maken waarvan we bij een mens zouden zeggen: ‘dat kan je niet maken’. Welke keuzes maakt u dan als engineer? Als voorbeeld nemen we een Tesla: boordevol AI, en iedere engineer ongeacht zijn exacte ‘bloedgroep’ snapt wat ik bedoel. Wie weet wat een Tesla nú doet als een botsing onvermijdelijk is maar er nog wel een keuzemogelijkheid is waar de Tesla tegenaan botst: een muur (bestuurder dood) of die fietser (fietser dood)? En wat als het ineens vijf fietsers zijn? Wie het weet mag het zeggen. Wat gaat de trend worden? Met het aansprakelijkheidsrecht en recent EU-ethiekbeleid in gedachten zal ik een educated guess doen naar wat Tesla gáát doen: tegen de muur aan botsen, maar voorlopig blijft het stuur met mogelijkheid tot bijsturen. Ik noem steeds Tesla, maar bedoel daarmee alle fabrikanten van zelfrijdende auto’s. Dat scheelt leesmoeheid.

Straks geen stuur of pedalen?

Tot dusver hebben (op een contained experimentje na) alle zelfrijdende auto’s nog een stuur en pedalen, en wordt de bestuurder geacht zelf in te grijpen. Dat is een handige manier om de vraag te ontwijken waar dit stuk mee begon. De mogelijkheid bestaat echter dat op enig moment de techniek zodanig vergevorderd is, dat stuur en pedalen niet meer aanwezig hoeven te zijn. Niet van de wetgever, en ook niet van Tesla, al is het maar omdat die afwezigheid marketingtechnisch beter is. Een auto die beter rijdt dan een mens heeft immers geen stuur nodig. Dus is ook Tesla bezig met die vraag. Elon Musk zei in april 2019 nog: binnen twee jaar geen stuur meer.

Regering laat het aan Tesla over

In 2018 waren er nog vragen vanuit de Tweede Kamer hoe de regering met dit programmeervraagstuk om dacht te gaan. Het briljante en nietszeggende antwoord: “De techniek zal verantwoord getraind moeten worden” (http://bit.ly/techniektrainen ). Ik neem aan dat dit betekent: ‘Dat laten we aan Tesla over’. Dus daar sta je dan, als Tesla. Uiteraard kun je een keuzemogelijkheid inprogrammeren: altijd de bestuurder beschermen/anderen beschermen als het er meer zijn, enzovoort. Als de autorijder ervoor kiest altijd zichzelf te beschermen, is nog maar de vraag of er dan een verzekeraar is die dekking wil bieden. En strafrechtelijk zal die keuze waarschijnlijk ook wel iets betekenen (voorwaardelijk opzet om iemand van het leven te beroven of zo). Bovendien beantwoordt het laten van keuze aan de gebruiker niet aan het adagium van onze minister dat de techniek ‘verantwoord getraind’ zal moeten worden. Daarnaast zou het ook strijdig zijn met een Europese resolutie uit 2017 (http://bit.ly/resolutie2017) die onder andere aanbeveelt aan de Europese Commissie dat er een ‘gebruikerslicentie’ komt voor AI. Die licentie zou dan moeten inhouden dat een AI-gebruiker (zoals een Tesla-rijder) rekening houdt met juridische en ethische normen. Dus die keuze zal er niet komen.

Onderzoek: keuze minste kwaad tenzij het mijn Tesla is

Uit onderzoek blijkt dat mensen heel erg voorstander zijn van utilitair handelende auto’s. Oftewel: het minste van twee kwaden. Dus beter tegen een muur en de enige inzittende dood dan twee fietsers dood. Tenzij ze zelf in die auto zitten (http://bit.ly/utilitair). Ahum! Oftewel: als Tesla haar auto utilitair programmeert en dat bekend maakt, wil niemand meer een Tesla. Zoekt Tesla standaard de twee fietsers op in plaats van de muur, dan zal dat vroeg of laat bekend worden en tot claims leiden.

Heeft Tesla wel een reële keuze?

Meest voor de hand liggende keuze is dan: auto utilitair programmeren. Die keuze is echter slechts deels in in lijn met de eerder genoemde Europese resolutie. Die beveelt een ‘ontwerperslicentie’ aan. Die ontwerperslicentie zou onder meer moeten inhouden dat de robot zich moet houden aan juridische en ethische normen (dus dat wordt neem ik aan utilitair programmeren). Daarnaast zou die licentie moeten inhouden: reconstructiemogelijkheid van de besluitvormingsstappen van robot, transparantie van de programmering en van de voorspelbaarheid van het gedrag van de robot. Dus stilte bewaren over het utilitair programmeren kan Tesla straks vergeten als het aan de EU ligt. Die auto zonder stuur en pedalen zal dus – zelfs als wettelijk op enig moment toegestaan - uit marketingoogpunt op zich laten wachten, tot de kans op een ongeval astronomisch klein is geworden. Voor ontwikkelaars is dat een impuls om zelfrijdende auto’s nóg veiliger te maken.

Over de auteur

Hub Dohmen is gespecialiseerd IT/Tech-advocaat sinds 1988 en oprichter (2003) van een supergespecialiseerd advocatenkantoor met medewerkers die opgeleid zijn en werkervaring hebben in techniek/IT, design en kunst, met als specialismen: IT en technische kwesties enerzijds en intellectuele eigendom (octrooien, modellen, merken, auteursrecht, design, kunst, handelsnamen) anderzijds.


Lees-verder-tips:

10 februari 2020: De recente uitspraak in de zaak tussen Prorail en Nonaf leert ons dat goede contracten in technische kwesties rechtszaken kunnen voorkomen. Column van onze Hub Dohmen voor Engineers Online.

4 december 2019: Nieuwe column over de cursus Ik, robot die onze Hub Dohmen volgde bij het ISVW. Hij volgde daar een interessante bijdrage van Paul Verbeek over de mens die zich verhoudt tot de techniek.

27 november 2019: Nieuwe column over de cursus Ik, robot die onze Hub Dohmen volgde bij het ISVW. De bijdrage van Monica Meijsing (Tilburg University) over de vraag "wat is een persoon?" wordt uitgelicht. Tijdens deze bijdrage werd aandacht besteed aan zaken als persoonlijkheid, identiteit en bewustzijn.

21 november 2019: Onze Hub Dohmen volgde de cursus Ik, robot bij het ISVW. Cursusverslag deel 1: Artificial intelligence en verantwoordelijkheid over de volgende onderwerpen: AI en verantwoordelijke beslissingen door systemen, Het concept van agency, Mind (artificial), bron van verwarring, Forward looking responsibility en backward looking responsibility.

15 november 2019: Onze Hub Dohmen volgde de cursus Ik, robot bij het ISVW. De cursus behandelde de filosofische en ethische aspecten van AI en robotica. Dit artikel bevat een overzicht van de behandelde onderwerpen.

24 mei 2019: Lees hier meer over de zeer succesvolle eerste bijeenkomst en de nieuwe website van de NVAIR Nederlandse Vereniging voor Artificiële Intelligentie- en Robotrecht.

24 mei 2018: Tesla vliegt in brand...hoe zit het met aansprakelijkheid? Column van advocaat en techniek-kenner Hub Dohmen (verscheen ook Engineersonline.nl en Automobielmanagement.nl).

Algemene informatie over automatisering/ICT-recht.


30 maart 2020, Hub Dohmen

Deze column verscheen eerder op Engineers Online
h.dohmen@dohmenadvocaten.nl 
http://twitter.com/hdohmen 
http://nl.linkedin.com/in/hubdohmen 

IHoe kunnen Tesla en andere fabrikanten van zelfrijdende auto's omgaan met ethiek en aansprakelijkheid inzake AI?

Zijn wij de beste advocaat techniek en intellectueel eigendom in Nederland? Vind het uit tijdens ons spreekuur. Dohmen advocaten: uw advocaat gespecialiseerd in techniek en intellectueel eigendom. No cure no pay mag niet in Nederland, maar we helpen u wel graag verder op onze gratis spreekuren 013-5821987.


 


Dohmen advocaten bv | Sportweg 8 | 5037 AC Tilburg | 013-5821987 | info@dohmenadvocaten.nl | KvK: 18076457 | BTW: NL8141.55.637.B.01