Googles första bilolycka

För bara några månader sedan skrev jag om hur det blir allt mer bråttom att ta ett rejält snack om ickemänsklig etik, med fokus på självkörande bilar som redan idag kan hamna i situationer där de måste fatta etiska beslut. Nu börjar det kännas än mer akut, efter att en av Googles självkörande bilar varit med om sin första egenorsakade olycka.

En av Googles självkörande bilar.

En av Googles självkörande bilar.

Både Google och andra företag som satsar på självkörande teknik (främst Tesla, som redan lanserat mer eller mindre autonom mjukvara till sina bilar) har ett skrämmande bra track record vad gäller olyckor. Genom att minska på den mänskliga faktorn som står bakom en bred majoritet av alla bilolyckor (föraren är trött / full / hög / stressad / upprörd) har till exempel Google kört sina bilar enorma avstånd utan att orsaka en enda olycka. De har varit med i olyckor – men bara sådana som orsakats av människor i andra bilar.

I denna nu första olycka där en Google-bil verkar vara i alla fall delvis skyldig blev bilens fil blockerad, varpå den försökte byta fil, trodde att en buss i den andra filen skulle sakta ned, och körde in i kanten på bussen. Olyckan var allt annat än dramatisk och resulterade inte i några som helst människoskador och bara mindre skador för bilarna. Men den är intressant i och med att det är den första bilolyckan där en dator, inte en människa, gjorde fel. Även om det är ett sådant fel som tusentals människor gjort förut.

Så vem är skyldig i dessa fall? Om bedömningen görs att det är den självkörande bilen som orsakade olyckan, vem bötfälls? Är det ledningen för projektet? Bilens ägare (vilket blir mer relevant framöver när dessa bilar säljs till konsumenter)? Bilens designer?

Handout photo courtesy of the Nevada Department of Motor Vehicles shows what the Google self-driven car sees while navigating the road network in Las Vegas, Nevada, May 1, 2012. REUTERS/Nevada Department of Motor Vehicles/Handout

En illustration av vad Googles självkörande bilar ”ser” när de åker runt i Las Vegas. Bild av Nevada Department of Motor Vehicles.

Det finns såklart redan fall där både egendom och människor skadats som följd av vad en maskin gjort, det är ingenting konstigt. Det som gör självkörande bilar (och en hel del annan framtida teknik med lika stor kraft och autonomitet) annorlunda är att det mer eller mindre programmeras för att döda. En självkörande bil kan designas på ett sådant sätt att den planerar att döda eller skada en människa för att undvika att döda eller skada någon annan – exempelvis att den hellre kör in i trottoaren och riskerar att skada en oskyldig förbipasserande, för att på så vis undvika att föraren skadas av något på vägen.

Vi programmerar med andra ord redan idag autonoma maskiner med någon slags digital etik som avgör vad maskinen gör. Den kodas för att döda. Har då bilens skapare begått ett brott genom att programmera den på det viset? Kan det klassas som förberedelse till brott?

Det finns flera intressanta gråzoner (bilen är på väg att krocka och riskera en dödsolycka, men väljer istället att åka av vägen och köra in i en förbipasserande – bilen väljer det mest människovänliga alternativet, att skada istället för att döda). Dessa känns förhållandevisa lätta att lösa – minimera skada på människor, det klassiska spårvagnsproblemet.

Men hur stor skada på en annan människa ska krävas för att bilen ska offra sig själv? Kan bilen få rädda sig själv även om det innebär att en oskyldig förbipasserande dödas? Vad händer om bilen får välja mellan sin förare och en random människa i en annan bil? Vad händer om bilen får välja mellan att döda sin förare och att döda två andra personer?

Ska man få programmera sin bil att alltid rädda ens egna liv framför andra? Får bilföretaget programmera bilen så, för att säkra att folk köper bilarna med vetskapen att det är de som är prio ett?

Det finns enormt viktiga etiska frågor som bör ha en viktig del i debatten, men som knappt syns alls. Trots det är självkörande bilar redan här.

Related posts:

Bookmark the permalink.