Hvem vil bli drept av en selvkjørende bil? Maskin, redd så mange mennesker du kan, men mest av alt, redd meg!
Teknologi

Hvem vil bli drept av en selvkjørende bil? Maskin, redd så mange mennesker du kan, men mest av alt, redd meg!

Hvis det oppstår en situasjon der det autonome systemet til en bil må ta et raskt valg av hvem som skal ofres i tilfelle en forestående ulykke, hvordan skal den reagere? Ofre passasjerer for å redde fotgjengere? Om nødvendig, drepe en fotgjenger for å skåne, for eksempel en familie på fire som reiser i bil? Eller kanskje han alltid bør beskytte seg selv først?

Mens mer enn seksti selskaper allerede har mottatt personlige testtillatelser i California alene, er det vanskelig å si at industrien er klar til å møte etiske dilemmaer. For øyeblikket sliter han med mer grunnleggende problemer – driften og navigasjonseffektiviteten til systemene og rett og slett unngå kollisjoner og uforutsette hendelser. I situasjoner som det nylige drapet på en fotgjenger i Arizona, eller påfølgende ulykker (1), har det så langt bare handlet om systemfeil, og ikke om noen form for "etisk valg" av bilen.

Redd de rike og unge

Spørsmålene om å ta denne typen beslutninger er ikke abstrakte problemer. Enhver erfaren sjåfør kan bekrefte dette. I fjor analyserte forskere fra MIT Media Lab over førti millioner svar fra respondenter fra hele verden, som de samlet inn i løpet av forskningen som ble lansert i 2014. Meningssystemet de kaller «Ethical Machine», viste at ulike steder i verden, stilles lignende spørsmål forskjellige svar.

De mest generelle konklusjonene er forutsigbare. I ekstreme situasjoner folk foretrekker å redde mennesker fremfor å ta vare på dyr, med sikte på å redde så mange liv som mulig, og har en tendens til å være yngre enn eldre (2). Det er også noen, men mindre åpenbare, preferanser når det gjelder å redde kvinner fremfor menn, personer med høyere status fremfor fattigere og fotgjengere fremfor bilpassasjerer..

2. Hvem skal bilen redde?

Siden nesten en halv million respondenter fylte ut demografiske spørreskjemaer, var det mulig å korrelere deres preferanser med alder, kjønn og religiøs tro. Forskerne konkluderte med at disse forskjellene ikke påvirket folks avgjørelser «vesentlig», men bemerket noen kulturelle påvirkninger. Franskmennene hadde for eksempel en tendens til å veie avgjørelser på grunnlag av estimert antall dødsfall, mens i Japan var vekten minst. Men i Land of the Rising Sun verdsettes livet til de eldre mye mer enn i Vesten.

«Før vi lar bilene våre ta sine egne etiske avgjørelser, må vi ha en global debatt om dette. Når selskaper som jobber med autonome systemer lærer om våre preferanser, vil de utvikle etiske algoritmer i maskiner basert på dem, og politikere kan begynne å innføre tilstrekkelige lovbestemmelser, skrev forskerne i oktober 2018 i Nature.

En av forskerne involvert i Moral Machine-eksperimentet, Jean-Francois Bonnefont, fant at preferansen for å redde mennesker med høyere status (som ledere fremfor hjemløse) var alarmerende. Etter hans mening henger dette mye sammen med nivået på økonomisk ulikhet i et gitt land. Der ulikhetene var større, ble det foretrukket å ofre de fattige og de hjemløse.

En av de tidligere studiene viste spesielt at, ifølge respondentene, bør en autonom bil beskytte så mange mennesker som mulig, selv om det betyr å miste passasjerer. Men samtidig oppga respondentene at de ikke ville kjøpe en bil programmert på denne måten. Forskerne forklarte det mens folk synes det er mer etisk å redde flere mennesker, er de også egeninteresserte, noe som kan være et signal til produsentene om at kundene vil være motvillige til å kjøpe biler utstyrt med altruistiske systemer.. For en tid siden sa representanter for Mercedes-Benz-selskapet at hvis systemet deres bare reddet én person, ville de velge sjåføren, ikke fotgjengeren. En bølge av offentlig protest tvang selskapet til å trekke tilbake erklæringen. Men forskning viser tydelig at det var mye hykleri i denne hellige indignasjonen.

Dette skjer allerede i noen land. første forsøk på lovregulering i felt. Tyskland har vedtatt en lov som pålegger førerløse biler å unngå skade eller død for enhver pris. Loven sier også at algoritmer aldri kan ta avgjørelser basert på egenskaper som alder, kjønn, helse eller fotgjengere.

Audi tar ansvar

Designeren er ikke i stand til å forutsi alle konsekvensene av driften av bilen. Virkeligheten kan alltid gi en kombinasjon av variabler som aldri har blitt testet før. Dette undergraver vår tro på muligheten for i det hele tatt å «etisk programmere» en maskin. Det virker for oss at i situasjoner der det oppstår en feil og en tragedie oppstår "på grunn av bilens feil", bør ansvaret bæres av produsenten og utvikleren av systemet.

Kanskje dette resonnementet er riktig, men kanskje ikke fordi det var feil. Snarere fordi en bevegelse var tillatt som ikke var 2019% fri for muligheten til å gjøre den. Det ser ut til å være grunnen, og delt ansvar unnslippes ikke av selskapet, som nylig kunngjorde at det ville ta ansvar for ulykker som involverer en 8 år gammel A3 mens de bruker et automatisk Traffic Jam Pilot (XNUMX) system i den.

3. Audi Traffic Jam Pilot Interface

På den annen side er det millioner av mennesker som kjører bil og også gjør feil. Så hvorfor skal maskiner, som statistisk sett gjør langt færre feil enn mennesker, som det fremgår av en rekke feil, diskrimineres i denne forbindelse?

Hvis noen tror at dilemmaene med etikk og ansvar i verden av autonome kjøretøy er enkle, fortsett å tenke...

Legg til en kommentar