Hjem meninger Dilemmaet med å lære etikk til selvkjørende biler | doug nykommer

Dilemmaet med å lære etikk til selvkjørende biler | doug nykommer

Video: Etiske problem og dilemma i sykepleien (Oktober 2024)

Video: Etiske problem og dilemma i sykepleien (Oktober 2024)
Anonim

Det tok ikke lang tid å sykle i Googles selvkjørende bil forrige uke for å innse at teknologien ikke bare er klar for veien, men i noen tilfeller tar bedre beslutninger enn menneskelige sjåfører - som for eksempel bremser og gir etter for syklister.

Men for å gjøre mer enn bare krype langs bygatene, vil autonom teknologi måtte ta den typen kritiske beslutninger som er andre natur for erfarne menneskelige sjåfører. Og det kan hende det må forhandles om etiske dilemmaer like mye som vanskelige kjøresituasjoner.

Som et eksempel legger selvkjørende teknologi til en ny vri på det hundre år gamle filosofiske dilemmaet kjent som "tralleproblemet." I dette scenariet må en person bestemme om han skal trekke en spak i et Y-kryss og kjøre over en person som er bundet til banen for å redde fem personer bundet til det tilstøtende sporet.

For selvkjørende biler har dette blitt omarbeidet som "tunnelproblemet." Se for deg at et autonomt kjøretøy kjører på en enfelts fjellvei og er i ferd med å gå inn i en tunnel, når et barn uforvarende krysser inn på banen like innenfor inngangen, slik at bilen må ta en beslutning om et sekund. Fortsetter det rett og treffer barnet? Eller svinger den og treffer tunnelen, skader eller dreper bilens beboere?

Dagen etter å ha tatt en tur i Googles selvkjørende bil i Mountain View, California, deltok jeg på et arrangement på Mercedes-Benz nordamerikanske FoU-anlegg i det nærliggende Sunnyvale. Blant flere temaer dekket gjennom dagen ga Stanford-professor og leder for universitetets Revs-program Chris Gerdes en presentasjon som gikk inn i emnet etikk og autonome biler.

Gerdes avslørte at Revs har samarbeidet med Stanfords filosofiavdeling om etiske spørsmål som involverer autonome kjøretøy, mens universitetet også har startet en serie tester for å avgjøre hva slags beslutninger en robotbil kan ta i kritiske situasjoner.

Når filosofien tar rattet

Som en del av presentasjonen laget Gerdes en sak for hvorfor vi trenger filosofer for å studere disse spørsmålene. Han påpekte at etiske problemer med selvkjørende biler er et bevegelig mål og "har ingen grenser", selv om det er opp til ingeniører å "binde problemet."

For å gjøre dette og flytte etikken i selvkjørende teknologi utover bare en akademisk diskusjon, kjører Revs eksperimenter med Stanfords x1 testkjøretøy ved å plassere hindringer i veien. Han bemerket at å plassere forskjellige prioriteringer i kjøretøyenes programvare har ført til "veldig forskjellig atferd."

Gerdes hevdet at denne begynnende etikkbaserte programmeringen av selvkjørende programvare kan bli et "kjernekrav" for teknologien - og ikke noe som bare diskuteres i elfenbenstårn. Og han la til at etikk ikke er noe som bilprodusentene kan komme fra en "Tier 1" -leverandør som for eksempel en drivstoffpumpe eller i-dash-skjerm. Den nylige VW Dieselgate-skandalen har absolutt vist det.

Erfarne menneskelige sjåfører har i mange år blitt programmert for å håndtere beslutninger i et sekund - og de gjør fremdeles ikke alltid de riktige. Men etter å ha sett hvordan Googles selvkjørende kjøretøy reagerer på beslutninger i hverdagen, og hørt om arbeidet som Stanford Revs og skolens filosofiavdeling utfører, satser jeg på at bilene til slutt vil ta smartere avgjørelser.

Dilemmaet med å lære etikk til selvkjørende biler | doug nykommer