Hjem Egenskaper 10 pinlig algoritme mislykkes

10 pinlig algoritme mislykkes

Innholdsfortegnelse:

Video: Spårtsklubben 29: Unnskyldning og pinlig sang (Oktober 2024)

Video: Spårtsklubben 29: Unnskyldning og pinlig sang (Oktober 2024)
Anonim

Teknologi er ikke bare for nørder, det er for alle, og det er mange mennesker. Med bare en håndfull selskaper som kontrollerer det meste av maskinvare og programvare - fra Apple og Amazon til Facebook, Microsoft og Google - kan de bare gjøre så mye for å kontrollere lommeboken og øyeeplene. Hva er et fattig, gigantisk selskap å gjøre? Stol på algoritmer for å ta noen av de viktige beslutningene.

Oxford Living Dictionaries definerer algoritme som "en prosess eller et regelverk som skal følges i beregninger eller andre problemløsningsoperasjoner, spesielt av en datamaskin." Et perfekt eksempel er Facebook News Feed. Ingen vet hvordan det fungerer at noen av innleggene dine vises på noen folks nyhetsfeeder eller ikke, men Facebook gjør det. Eller hva med Amazon som viser deg relaterte bøker? Relaterte søk på Google? Alle disse er nøye beskyttede hemmeligheter som gjør mye arbeid for selskapet og kan ha stor innvirkning på livet ditt.

Men algoritmer er ikke perfekte. De mislykkes og noen mislykkes spektakulært. Legg til gjenskinn fra sosiale medier, og en liten feil kan bli til et PR-mareritt veldig raskt. Det er sjelden ondsinnet; disse har en tendens til å være det New York Times kaller "Frankenstein Moments", der skapningen noen skapte blir til et monster. Men det skjer, og vi har sammenstilt noen av de mest uhyggelige nylige eksemplene nedenfor. Gi oss beskjed om favorittene dine i kommentarfeltet nedenfor.

    1 Instagram tvilsomme annonser

    Som rapportert av The Guardian , liker Facebook å publisere annonser for sin Instagram-tjeneste med innlegg fra egne brukere. Men algoritmen valgte feil "bilde" for å presse til vennene til Olivia Solon, selv reporter på The Guardian , og valgte et år gammelt skjermbilde hun tok av en truende e-post.

    2 målrettede rasistiske annonser

    Forrige uke rapporterte ProPublica at Facebook tillot annonsører å målrette krenkende kategorier av mennesker, som "jødehatere." Nettstedet betalte $ 30 for en annonse (over) som målrettet et publikum som ville svare positivt på ting som "hvorfor jøder ødelegger verden" og "Hitler gjorde ingenting galt." Den ble godkjent innen 15 minutter.

    Skifer fant lignende krenkende kategorier, og det ble en annen i den lange rekken som Facebook måtte ikke bare be om unnskyldning for, men lovet å ordne opp med noe menneskelig tilsyn. Du vet, som da det plasserte valgannonser til $ 100 000 dollar for Russland.

    I et Facebook-innlegg sa COO Sheryl Sandberg at hun var "avsky og skuffet over ordene" og kunngjorde endringer i annonseverktøyene.

    BuzzFeed sjekket for å se hvordan Google ville takle lignende ting, og synes det var lett å også sette opp målrettede annonser som skal sees av rasister og bigots. Daily Beast sjekket det ut på Twitter og fant millioner av annonser som bruker ord som "nazist", "wetback" og N-ordet.

    3 Facebookår i gjennomgang Woes

    Hvis du er på Facebook, har du uten tvil sett de årsslutt-algoritmegenererte videoene med høydepunkter fra de siste 12 månedene. Eller for noen, svake lysene. I 2014 så en far et bilde av sin avdøde datter, mens en annen fikk øyeblikksbilder av hjemmet hans i flammer. Andre eksempler inkluderer mennesker som ser sine kjæledyr, urner fulle av en foreldres aske og avdøde venner. I 2015 lovet Facebook å filtrere bort triste minner.

  • 4 Tesla Autopilot Crash

    De fleste algoritmiske snafus er langt fra dødelige, men verden av selvkjørende biler vil bringe inn et helt nytt farenivå. Det har allerede skjedd minst en gang. En Tesla-eier på en motorvei i Florida brukte semi-autonom modus (Autopilot) og krasjet inn i en traktor-tilhenger som kuttet ham av. Tesla ga raskt oppgraderinger, men var det virkelig Autopilot-modus feil? Nasjonale motorvei for trafikksikkerhet sier kanskje ikke siden systemet krever at sjåføren må være våken for problemer, som du kan se i videoen over. Nå forhindrer Tesla at Autopilot engang blir engasjert hvis sjåføren ikke svarer på visuelle signaler først.

  • 5 Tay the Racist Microsoft AI

    For et par år siden skulle chat-roboter ta verden med storm, erstatte kundeservicerepresentanter og gjøre online-verdenen til et pratsomt sted å få info. Microsoft svarte i mars 2016 ved å skyve ut en AI ved navn Tay som folk, spesifikt 18- til 24-åringer, kunne samhandle med på Twitter. Tay på sin side ville lage offentlige tweets for massene. Men på mindre enn 24 timer, læring fra de styggmunnede massene, ble Tay en fullverdig rasist. Microsoft trakk Tay øyeblikkelig; hun kom tilbake som en ny AI ved navn Zo i desember 2016, med "sterke kontroller og balanser på plass for å beskytte henne mot utnyttelse."

    6 gratulerer med din (ikke-eksisterende) baby!

    Full avsløring: Mens jeg skriver dette, er kona faktisk gravid. Vi fikk begge denne e-posten fra Amazon som sa at noen hadde kjøpt noe for oss fra babyregisteret vårt. Vi hadde ennå ikke offentliggjort det, men det var ikke så sjokkerende. I mellomtiden fikk flere millioner andre Amazon-kunder også den samme lappen, inkludert noen uten register… eller en baby på vei. Det kunne ha vært en del av et phishing-opplegg, men det var det ikke. Amazon fanget feilen og sendte en oppfølgende e-post om unnskyldning. På det tidspunktet hadde mange klaget på at dette var upassende eller ufølsomt. Dette var mindre algoritmer enn glitrende e-postserver, men viser deg at det alltid er lett å fornærme.

    7 Amazon 'anbefaler' bombermaterialer

    Alle hoppet på denne etter at den ble rapportert av Storbritannias Channel 4 News, fra Fox News til The New York Times . Den antok at Amazonas "ofte kjøpte sammen" -funksjon ville vise folk hva de trenger for å bygge en bombe, hvis de startet med et av ingrediensene, som nettstedet ikke ville navngi (det var kaliumnitrat).

    Det Amazons algoritme faktisk gjorde var å vise kjøpere ingrediensene til å lage svart pulver i små mengder, som er helt lovlig i Storbritannia, og brukes til alle slags ting - som fyrverkeri - som raskt ble påpekt i en utrolig gjennomtenkt- ut blogginnlegg på Idle Words. I stedet er alle rapportene om hvordan Amazon ser på det, for det er det de har å si at de gjør i en verden redd for terrorisme og logikk.

    8 Google Maps blir rasist

    I 2015 måtte Google be om unnskyldning da Google Maps søker etter "n ***** king" og "n *** a house", førte til Det hvite hus, som fremdeles var okkupert av Barack Obama på den tiden. Dette var et resultat av en "Googlebomb", der et begrep som brukes om og om igjen blir plukket opp av søkemotoren og merket som "populært", slik at resultatene går til toppen av søket. Det er slik ordet "Santorum" fikk sin nye definisjon.

    9 Google merker mennesker som gorillaer

    Google Foto er en fantastisk app / tjeneste som lagrer alle bildene dine og mye mer. En av disse tingene er å merke auto og ting på bilder. Den bruker ansiktsgjenkjenning for mennesker for å begrense dem helt til riktig person. Jeg har til og med en mappe med alle hundene mine, og jeg merket ingen av dem. For så bra som det fungerer, var det uhyrlig da Google i 2015 måtte be om unnskyldning til dataprogrammereren Jacky Alciné da han og en venn - begge svarte - ble identifisert av tjenesten som gorillaer. "Vi er forferdet og beklager at dette skjedde, " sa Google til PCMag.

    10 Robotsikkerhet treffer barn, dreper selv

    Knightscope lager autonome sikkerhetsroboter kalt K5 for patruljering av skoler og kjøpesentre og nabolag. De 5 meter høye Dalek-eske kjeglene på hjul - som til sin rett fremdeles er i betatesting - har en tendens til å gjøre nyhetene ikke for å hindre kriminalitet, men for sviktet.

    I juli 2016 løp K5 i Stanford Shopping Center i Palo Alto for eksempel over foten til en 16 måneder gammel, og Knightscope måtte formelt be om unnskyldning. Den samme plasseringen - kanskje den samme droid - hadde en forandring på en parkeringsplass med en full, men det var i det minste ikke K5s feil. Juryen er fremdeles ute på K5-enheten i Georgetown Waterfront, kontor / shoppingkompleks i Washington DC… at man angivelig snublet ned noen trapper i en vannfont etter bare en uke på jobben. Det ser ikke bra ut for Skynets hær.

10 pinlig algoritme mislykkes