Hjem meninger Ai-bransjens år med etisk beregning

Ai-bransjens år med etisk beregning

Innholdsfortegnelse:

Video: New rules in the age of AI | Karim R. Lakhani (Oktober 2024)

Video: New rules in the age of AI | Karim R. Lakhani (Oktober 2024)
Anonim

Helt siden dype nevrale nettverk vant verdens viktigste bildegjenkjenningskonkurranse i 2012, har alle vært begeistret for hva kunstig intelligens kunne slippe løs. Men i løpet av å utvikle nye AI-teknikker og applikasjoner, tok de mulige negative virkningene baksetet.

Vi ser nå et skifte mot mer bevissthet rundt AI-etikk. I 2018 ble AI-utviklere mer bevisste på de mulige konsekvensene av deres kreasjoner. Mange ingeniører, forskere og utviklere gjorde det klart at de ikke ville bygge teknologier som skader eller forårsaker skade på uskyldige menneskers liv, og de holdt selskapene sine.

Ansiktsgjenkjenning ved rettshåndhevelse

I det siste var det vanskelig å lage ansiktsgjenkjenningsapplikasjoner, ressurskrevende og feilutsatt. Men med fremskritt i datamaskinvisjonen - delmengden av AI som lar datamaskiner gjenkjenne innholdet i bilder og video - ble ansiktsgjenkjenningsapplikasjoner mye enklere og innen alles rekkevidde.

Store teknologiselskaper som Microsoft, Amazon og IBM begynte å tilby skybaserte tjenester som gjorde det mulig for enhver utvikler å integrere ansiktsgjenkjenningsteknologi i programvaren deres. Dette låste opp mange nye brukssaker og applikasjoner i forskjellige domener, for eksempel identitetsbeskyttelse og autentisering, smarthemmesikkerhet og detaljhandel. Men aktivitetsrettslige aktivister ga uttrykk for bekymring for potensialet for misbruk.

I mai 2018 avslørte American Civil Liberties Union at Amazon markedsførte Rekognition, en sanntids videoanalytisk teknologi, til rettshåndhevelse og offentlige etater. Ifølge ACLU brukte politiet i minst tre delstater Rekognisjon for ansiktsgjenkjenning på overvåkningsvideo-feeds.

"Med Rekognition kan en regjering nå bygge et system for å automatisere identifikasjonen og sporing av hvem som helst. Hvis politiets kroppskameraer, for eksempel, var utstyrt med ansiktsgjenkjenning, ville enheter beregnet på offiserens åpenhet og ansvarlighet ytterligere transformert til overvåkingsmaskiner rettet mot offentlig, "advarte ACLU. "Ved å automatisere masseovervåkning truer ansiktsgjenkjenningssystemer som Rekognition denne friheten, og utgjør en spesiell trussel for lokalsamfunn som allerede er urettmessig målrettet i det nåværende politiske klima. Når kraftige overvåkningssystemer som disse er bygget og distribuert, vil skaden være ekstremt vanskelig å angre."

ACLUs bekymringer ble gjentatt av Amazon-ansatte, som i juni skrev et brev til Jeff Bezos, selskapets administrerende direktør, og krevde at han sluttet å selge Rekognition til rettshåndhevelse. "Vårt firma skal ikke være i overvåkningsvirksomheten; vi skal ikke være i politiforretningen; vi skal ikke være i bransjen for å støtte dem som overvåker og undertrykker marginaliserte befolkninger, " heter det i brevet.

I oktober avslørte en anonym Amazon-ansatt at minst 450 ansatte hadde signert et annet brev som ba Bezos og andre ledere om å slutte å selge Rekognition til politiet. "Vi kan ikke tjene på en del av kraftige kunder på bekostning av lokalsamfunnene; vi kan ikke avverge øynene fra de menneskelige kostnadene ved vår virksomhet. Vi vil ikke stille bygging av teknologi for å undertrykke og drepe mennesker, enten i vårt land eller i andre, " det sto.

Fallout av Googles militære AI-prosjekt

Mens Amazon hadde å gjøre med denne interne tilbakeslaget, opplevde Google lignende kamp om en kontrakt for å utvikle AI for det amerikanske militæret, kalt Project Maven.

Google hjalp angivelig forsvarsdepartementet med å utvikle datavisjons-teknologi som ville behandle drone-videoopptak. Mengden videoopptak som ble registrert av droner hver dag, var for mye for menneskelige analytikere til å gjennomgå, og Pentagon ønsket å automatisere deler av prosessen.

En talsperson for Google, som erkjenner oppgavens kontroversielle natur, ga beskjed om at den bare ga API-er til TensorFlow, dens maskinlæringsplattform, for å oppdage objekter i videofeed. Google understreket også at det utviklet retningslinjer og sikkerhetstiltak for å adressere etiske aspekter ved teknologien.

Men Project Maven satt ikke bra sammen med Google-ansatte - 3000 av dem, inkludert flere titalls ingeniører, signerte snart et åpent brev til administrerende direktør Sundar Pichai som ba om avslutning av programmet.

"Vi mener at Google ikke bør være i krigens virksomhet, " heter det i brevet. Den ba om at selskapet "skulle utarbeide, offentliggjøre og håndheve en klar policy som sier at verken Google eller dets entreprenører noen gang vil bygge krigføringsteknologi."

Google-ansatte advarte også om at arbeidsgiveren deres utsatte omdømmet og evnen til å konkurrere om talent i fremtiden. "Vi kan ikke outsource det moralske ansvaret til våre teknologier til tredjepart, " understreket Googlers.

Kort tid etter oppfordret en underskrift signert av 90 akademikere og forskere de øverste Google-ledere til å avvikle arbeidet med militær teknologi. Underskriverne advarte om at Googles arbeid ville sette scenen for "automatisert målgjenkjenning og autonome våpensystemer." De advarte også om at når teknologien utvikler seg, ville de stå "et kort skritt fra å autorisere autonome droner til å drepe automatisk, uten menneskelig tilsyn eller meningsfull menneskelig kontroll."

Etter hvert som spenningene vokste, trakk flere ansatte fra Google seg i protest.

Hvordan teknologiledere responderte

Under press erklærte Google i juni at de ikke ville fornye kontrakten med Department of Defense på Project Maven etter at den gikk ut i 2019.

I et blogginnlegg erklærte administrerende direktør Sundar Pichai (bildet under) et sett med etiske prinsipper som ville styre selskapets utvikling og salg av AI-teknologi. I følge Pichai vil selskapet fra nå av vurdere prosjekter som er til fordel for samfunnet som helhet og unngå utvikling av AI som forsterket eksisterende urettferdige skjevheter eller undergravet offentlig sikkerhet.

Pichai uttalte også eksplisitt at selskapet hans ikke vil jobbe med teknologier som bryter menneskerettighetsnormer.

Amazons Bezos ble mindre opptatt av forargelsen over Rekognisjon. "Vi kommer til å fortsette å støtte DoD, og ​​det synes jeg vi bør, " sa Bezos på en teknisk konferanse i San Francisco i oktober. "En av jobbene til seniorledelse er å ta den riktige avgjørelsen, selv når den er upopulær."

Bezos understreket også behovet for at teknologisamfunnet skulle støtte militæret. "Hvis store teknologiselskaper skal snu ryggen til DoD, vil dette landet være i trøbbel, " sa han.

Microsofts president Brad Smith, hvis selskap møtte kritikk over arbeidet med ICE, publiserte i juli et blogginnlegg der han ba om en målrettet tilnærming i å selge sensitiv teknologi til offentlige etater. Mens Smith ikke utelukket salg av ansiktsgjenkjenningstjenester til rettshåndhevelse og militæret, understreket han behovet for bedre regulering og åpenhet i teknologisektoren.

  • MIT til å bruke $ 1 milliard på program for å studere AI-etikk MIT til å bruke $ 1 milliard på program for å studere AI-etikk
  • Snakker AI virkelig språket vårt? Snakker AI virkelig språket vårt?
  • Bryte ned Kinas ustoppelige AI-fabrikk Bryte ned Kinas ustoppelige AI-fabrikk

"Vi har tillitsvalgte i Kongressen har verktøyene som trengs for å vurdere denne nye teknologien, med alle dens forgreninger. Vi drar fordel av kontrollene og balansene i en grunnlov som har sett oss fra lysenes alder til en tid med kunstig intelligens. Som i så mange ganger tidligere, må vi sørge for at nye oppfinnelser tjener våre demokratiske friheter i henhold til rettsstaten, ”skrev Smith.

I 2018 ga fjerne trusler om drapsmaskineroboter og massearbeidsløshet bekymringer for den mer umiddelbare etiske og sosiale effekten av AI. På mange måter indikerer denne utviklingen at bransjen modnes, da AI-algoritmer blir mer fremtredende i kritiske oppgaver. Men etter hvert som algoritmer og automatisering blir mer inngrodd i hverdagen vår, vil flere debatter oppstå.

Ai-bransjens år med etisk beregning