Låt oss prata om Asimov

Självkörande bilar har på väldigt kort tid gått från att vara en högtflygande fantasi till att bli en rejäl verklighet. Med Teslas nya mjukvara kör bilar nu helt själva på gator i hela världen, och antalet kommer att stiga exponentiellt de kommande åren. Det juridiska är fortfarande i en gråzon, men det är bara en fråga innan det blir helt klart – i de stora tester som genomförts har det stått väldigt klart att självkörande bilar är bra mycket säkrare än människor.

Ethical carsMen det här väcker också en fråga som börjats diskuteras nu, alldeles för sent. Vilken moral ska vi lägga på de maskiner som tar över våra vardagliga beslut? Technology Review lyfter flera problem i en väldigt intressant artikel med titeln ”Why Self-Driving Cars Must Be Programmed to Kill”. Det stora problemet är ett klassiskt etiskt dilemma – om en självkörande bil av någon anledning hamnar i en situation där den måste välja mellan att köra på och döda en grupp människor, eller att köra in i en vägg och förstöra bilen och döda föraren, vad är rätt?

Rent antalsmässigt är det att välja mellan att döda flera människor och att döda en, och det torde vara enkelt. Samtidigt skulle de flesta människor om de fick bestämma med största sannolikhet hellre döda andra än sig själv, alternativt försöka hitta en irrationell mellanlösning som riskerar att vara ännu farligare. Så bör biltillverkarna programmera bildatorn att alltid skydda så många liv som möjligt, oavsett vilka liv det är? Eller bör de programmera den att alltid försöka rädda sig själv och sin förare, oavsett kostnaden?

Men det blir såklart ännu mer komplicerat. Vad händer om självkörande bilar programmeras att i vissa sammanhang prioritera andra liv framför sin förare, och det resulterar i att fler låter bli att köpa dessa bilar, och istället kör själva – vilket i längden kostar många fler liv?

CC BY-SA Manfred Werner.

CC BY-SA Manfred Werner.

Etik är ytterst komplext, på fler än ett sätt. Alla beslut vi tar får djupa konsekvenser i många steg, och vår hjärna har utvecklats i miljarder år för att på bästa sätt kunna hantera detta. Det är därför högst problematiskt att denna etik inte automatiskt delas av de maskiner vi skapar. Detta har diskuterats i sci-fi-litteraturen i ett hundratal år, populariserat av bland andra Isaac Asimov som tog fram tre (senare fyra) lagar med syftet att reglera artificiell intelligens:

0. En robot får inte genom handling, eller underlåtelse att handla, orsaka att mänskligheten skadas.
1. En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.
2. En robot måste lyda order från en människa, förutom om sådana order kommer i konflikt med första lagen.
3. En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.

Det är nu, när en allt större del av vår vardag digitaliseras och styrs av maskiner, som det är dags att börja tänka på robotetik i praktiken. Det handlar om bilar, men det handlar också om mycket, mycket mer som kan hamna i liknande situationer där teknik kan riskera människors liv. Så kan vi äntligen börja diskutera det?

Related posts: