Hjem meninger Alexa, lær meg å snakke med deg | tim bajarin

Alexa, lær meg å snakke med deg | tim bajarin

Video: Apple's HomePod Mini takes on the best of the smallest from Amazon and Google (Oktober 2024)

Video: Apple's HomePod Mini takes on the best of the smallest from Amazon and Google (Oktober 2024)
Anonim

Da Apple introduserte sin første personlige digitale assistent (PDA), Newton, i 1992, var det helt fra starten at det ikke var lenge etter denne verdenen.

Som konsept var Newton en vendevender, men utformingen og funksjonene var mildt sagt svake.

Det største problemet var den dypt mangelfulle håndskriftgjenkjenningsteknologien. De tilgjengelige mobilprosessorene på det tidspunktet var ikke i stand til å håndtere denne oppgaven med hvilket som helst nivå av nøyaktighet eller presisjon, mens programvaren ble dårlig utført.

Jeg husker jeg flyr til Chicago for lanseringen av Newton på forespørsel fra daværende Apple-administrerende direktør John Sculley, som kjørte dette prosjektet fra begynnelsen. Men under demonstrasjonen på scenen mislyktes gjenkjennelsen av håndskrift gjentatte ganger. Vi ble fortalt at det var en tidlig versjon av programvaren, men jeg hadde en sterk følelse av at Apple var overprompromiserende.

I de første årene av Newton begynte Palm Computing-grunnlegger Jeff Hawkins å jobbe med sin egen versjon av en PDA. Mens den enheten fremdeles var i utvikling, inviterte Hawkins meg til kontoret sitt for å se en mockup, som var en trekloss som var skulpturert for å se ut som til slutt ville bli PalmPilot.

Jeg spurte Hawkins hvorfor han trodde Newton hadde mislyktes. Han pekte på tiden sin på Grid Systems, som introduserte den første virkelige bærbare datamaskinen for pennedatamentering i 1989, kalt GridPad. Også den hadde en lavnivå CPU og klarte ikke å håndtere ekte karaktergjenkjenning. Men det lærte Hawkins at når det gjaldt penninndata og karaktergjenkjenning, trengte man å følge en nøyaktig formel og skrive karakterene som angitt i manualen.

Derfor inkluderte PalmPilot Graffiti-skrivesystemet, som lærte en bruker å skrive et tall, bokstav i alfabetet eller spesifikke tegn (som #, $) på måter PalmPilot kunne forstå. Jeg var en av de første som testet en PalmPilot og syntes Graffiti var veldig intuitiv. Man kan kalle dette en form for omvendt programmering siden maskinen lærte meg å bruke den på språket den forsto.

Spol frem til i dag, og jeg tror vi har en lignende ting som skjer med digitale assistenter.

En stor forskjell denne gangen er at prosessorkraften, sammen med AI og maskinlæring, gjør disse digitale assistentene mye smartere, men ikke alltid nøyaktige.

I det jeg tenker på som et Graffiti-aktig trekk, sender Amazon meg ukentlige e-postmeldinger som inkluderer over et dusin nye spørsmål Alexa kan svare på. Også dette er en slags omvendt programmering, da det lærer meg å stille Alexa de riktige spørsmålene.

Fra en nylig e-post, her er noen av de nye tingene Alexa kan svare på:

• "Alexa, hva er det i tankene dine?"

• "Alexa, hva er et annet ord for 'lykkelig?'"

• "Alexa, hva kan jeg lage med kylling og spinat?"

• "Alexa, ring mamma."

• "Alexa, test staveferdighetene mine."

• "Alexa, vekke meg om morgenen."

• "Alexa, hvor lang tid er filmen Black Panther ?"

• "Alexa, snakk med iambisk pentameter."

• "Alexa, hvor mange dager til minnedagen?"

Disse ukentlige spørsmålene lar meg og andre ekko-eiere forstå den riktige måten å stille Alexa et spørsmål, og bygger opp vår selvtillit til å samhandle med plattformen.

Jeg er ikke i tvil om at etter hvert som raskere prosessorer, maskinlæring og AI blir brukt på digitale assistenter, vil de bli smartere. Men jeg mistenker at flere og flere selskaper som oppretter digitale assistenter også vil begynne å bruke Amazons modell for å lære folk å stille spørsmål som er mer i tråd med hvordan deres digitale assistenter ønsker at en spørring skal oppgis.

Alexa, lær meg å snakke med deg | tim bajarin