Hjem Fremover tenking Science fiction-enheter som er (nesten) ekte

Science fiction-enheter som er (nesten) ekte

Innholdsfortegnelse:

Video: HorrorBabble's When Horror Meets Science Fiction: A Collection (Oktober 2024)

Video: HorrorBabble's When Horror Meets Science Fiction: A Collection (Oktober 2024)
Anonim

Som mange mennesker elsker jeg science fiction og går ofte på show som CES i håp om å se den typen teknologi vi leser om i bøker eller ser i filmer. Men mens CES i år hadde god teknologi, fungerte det også som en god påminnelse om at vi fortsatt er langt fra teknologien vi forestiller oss i bøker og i film; vi har egentlig ikke selvkjørende biler ennå, mye mindre brukbare roboter eller holodeck.

Likevel så jeg mye fremgang, selv om disse teknologiene har en lang vei å gå før de faktisk er tilgjengelige i den virkelige verden. Så igjen, det er sannsynligvis også en god ting at Skynet ikke er i gang, ennå.

CES biler handler ikke om selvkjøring

Hvert år ser det ut til at CES blir mer et bilshow, og i år var det store flertallet av Nordhallen full av bilprodusenter og deres leverandører.

Jeg forventet å se - og så - mange mennesker som snakket om autonome kjøretøy. Nvidia brukte mesteparten av hovedutviklingen før showet på å diskutere det nye systemet for slike kjøretøy, med fokus på Xavier, "verdens mektigste SoC." Xavier har 9 milliarder transistorer i en 350 mm2 dyse, med en tilpasset 8-kjerners CPU, en ny 512-kjerners Volta GPU, en ny dyp læringsakselerator, nye datasynsakseleratorer og nye 8K HDR videoprosessorer. Selskapet sier at det leverer 30 billioner operasjoner per sekund mens de bare bruker 30 watt.

Dette utgjør kjernen i selskapets Pegasus-kjøresystem, som er bygget på to Xavier SoC-er (systemer på en brikke) og to neste generasjons Nvidia GPU-er. Nvidia sa at kundene vil få de første prøvene av Pegasus, som er i stand til 320 billioner operasjoner per sekund av behandlingsytelsen, i midten av 2018. Det er ment å muliggjøre fullstendig autonome kjøretøy (nivå 5).

I mellomtiden presset Intel sitt Mobileye-oppkjøp, og snakket om hvordan brikkene er i mange biler som allerede er i produksjon, og bemerker at dette tallet vokser. Selskapet snakket om nye partnerskap for å bygge HD-kart for bruk i smarte byer, og dets fokus på sikkerhet og avanserte sjåførassistansesystemer (ADAS) over helt autonome kjøretøy.

På samme måte brukte ARM betydelig tid på å snakke om de forskjellige leverandørene av bilindustrier som bruker prosessorene sine i alt fra ADAS til smarte lys.

Mens mye av diskusjonen på CES involverte autonome kjøretøyer - fra bilprodusenter og brikkeprodusenter til produsenter av alle slags komponenter fra LIDAR til skjermer til programvare - var det også mange diskusjoner som fokuserte på andre bilteknologier på utstillingen.

Det var noen få demonstrasjoner av drivstoffcellebiler og til og med noen ganske pene konseptbiler. Jeg fokuserte egentlig ikke på disse, men de var veldig interessante.

Den merkeligste bilteknologien jeg så var Nissans eksperiment for å kontrollere biler etter tanke, basert på ideen om at du vet når du vil trykke ned bruddet raskere enn benet ditt kan reagere. Selv om det er en interessant teori, er jeg ikke sikker på hvor praktisk den er.

Roboter overalt, men ikke de droider du leter etter

Vi hører mye om roboter, men med unntak av noen "robot" -enheter som utfører en spesifikk funksjon (for eksempel en robotstøvsuger), er det bare ikke så mange roboter i den virkelige verden som du kan forvente, gitt alt sprøytenarkoman.

På CES var det alle slags roboter på skjermen - fra husholdningsroboter som gjør lite mer enn å følge deg rundt, oppføre deg som en Amazon Echo på hjul, til leker designet for å samhandle med barn, til mer spesifikke maskiner som gjorde ting som å spille sjakk eller til og med ping pong, sistnevnte av disse tilsynelatende designet mer for å tiltrekke folkemengder enn å selge i stort antall.

I hovednotatet viste LG til sin CLOi hjemme-robot (som ikke virkelig fungerte, men det er en demo), samt nye kommersielle versjoner, inkludert en som serverer mat og drikke, en annen som fungerer som en portør for å levere bagasje, og en tredje som fungerer som en handlekurv med en integrert strekkodeleser. Dette er interessante ideer, men ser ut til å være langt fra mainstream.

For meg var det best å se på den nye versjonen av Sonys robothund Aibo, som nå er i stand til nye triks, og kan svare annerledes på forskjellige mennesker ved å bruke ansiktsgjenkjenning. Aibo kan også gjøre ting som å leke med en ball, legge seg og reagere på berøringen din, som tilsynelatende er veldig hundeaktig. Den japanske versjonen som nå er tilgjengelig er ikke billig; en amerikansk versjon er ennå ikke kunngjort. Det ser ut som mye moro.

Imidlertid var mitt generelle inntrykk at ingen av disse i det hele tatt er i nærheten av robotene som folk forestiller seg i bøker og filmer. De er alle veldig begrensede, og er ofte lite mer enn samtalestykker. Men ting ser ut til å utvikle seg.

Realtidsoversettelse du kan ta med deg

Kanskje er science fiction-teknologien nærmest å være klar til forbrukerbruk den universelle oversetteren. Selv om den "universelle" delen fremdeles ikke er klar, har jeg blitt veldig imponert over de mange forbedringene innen oversettelsesteknologi, spesielt mellom to språk, og det er det vi virkelig trenger likevel.

Hvis du vil ha noe du kan oversette fra et bestemt språk til et annet (og tilbake igjen), er det nå en rekke kommersielle enheter som tilbyr slike funksjoner. Det er noen få telefonapper som prøver å gjøre det samme (for eksempel Google Translate og Pixel Buds), men jeg ble imponert over demoer av noen få små enheter som hevder å gjøre jobben med mikrofoner, programvare og høyttalere innstilt på oppgaven., og som kan fungere med hvilken som helst smarttelefon, eller til og med uten en.

Det kinesiske AI-selskapet iFlytek hadde to forskjellige versjoner for å oversette mellom mandarin-kinesisk og engelsk - en som jobber offline og vil selge for rundt $ 150, og en annen som gjør en noe bedre jobb og er koblet til skyen via cellenettverk. Denne enheten selger for rundt $ 350. Selskapet jobber også med å konvertere fra kinesisk til andre språk. Jeg snakker ikke mandarin, men det så ganske imponerende ut.

Sourcenext, et japansk selskap, demonstrerte Pocketalk, en håndholdt toveis taleoversetter som den vil kunne jobbe på 63 forskjellige språk. Demoene jeg så inneholdt japansk og engelsk, og selv om det så veldig bra ut, siden jeg ikke snakker japansk, kunne jeg egentlig ikke være sikker. Dette forventes utgitt i mai.

Men fra et designperspektiv var enheten som virket mest interessant for meg Mars-oversetteren fra Naver, som bruker selskapets Papago-oversettelsesteknologi, og en assistent kalt Clova, utviklet av Naver og den asiatiske meldingstjenesten Line. Med denne designen bærer du et par ørepropper, og setter det ene i øret, og gir det andre til personen som snakker det andre språket. Demonstrasjonen, som brukte koreansk til engelsk, så også imponerende ut (men igjen, jeg kan ikke virkelig si det). Selskapet sier også at det vil støtte kinesere og spanske.

Som jeg har sagt, jeg snakker ikke noen av de demonstrerte språkene, så jeg kan ikke garantere for hvor gode produktene er. Men disse ser ut til å bevege seg veldig raskt i riktig retning.

VR forbedrer seg, men Holodeck er langt unna

VR-headset er nå selvfølgelig vanlig, men de fleste jeg kjenner som bruker dem synes de er underholdende bare i en kort periode. I mellomtiden har augmented reality-headset, som Google Glass, ikke fått med seg ennå, bortsett fra noen få høyspesialiserte applikasjoner. For meg er det fordi teknologien ikke ser ut til å være helt klar for primetime - VR-headset er ofte tunge og klumpete, enhetene må enten kobles sammen, eller de er ikke ganske kraftige nok, og skjermen har ofte et begrenset felt av utsikt. Dessuten er oppløsningen generelt dårlig nok slik at du kan se pikslene, noe som gir skjermen en "skjermdør-effekt."

På CES i år så jeg noen tegn til at dette begynner å bli bedre.

Royales Moon 3D Mobile Theatre tilbyr en mer oppslukende opplevelse av å se filmer ved å bruke doble AMOLED-skjermer på 1080p i et hodesett, og en støydempende hodetelefon som dekker ørene dine, slik at du stort sett bare kan høre og se filmen.

ThirdEyes X1 har to 720p gjennomsiktige skjermer for utvidet virkelighet, og er primært rettet mot helsevesenet og utdanningsmarkedene.

Rokid, en ny kinesisk spiller, viste frem AR-briller som ser mer ut som et forbrukerprodukt, med briller som ikke er for mye større enn vanlige solbriller. Rokids enhet inkluderer et frontvendt kamera for ansiktsgjenkjenning og stemmegjenkjenning. Dette var bare en prototypemodell, og det er uklart når den vil komme på markedet.

Den kanskje mest interessante var Vuzix Blade. (Se bildet øverst i dette innlegget.) Vuzix har fraktet AR- og VR-briller til bedriftsmarkedet i noen tid, men bladet virker både lettere og nærmere den visjonen folk flest har om AR-briller. Disse ser ut som solbriller, men med en liten fargeskjerm på siden av rammen, som inkluderer batterier, et 8-megapikselkamera, og bruker Amazon Alexa som stemmeassistent.

På noen måter er dette ganske mye en oppdatert versjon av Google Glass-konseptet, ved at det nesten er på det punktet der jeg kan se forbrukere som bruker det. (Google Glass eksisterer fremdeles for bedriftsmarkedet, der det konkurrerer med produkter fra Vuzix, Epson og andre.) Glassene jeg prøvde føltes ganske bra: relativt lette, og selv om de ikke hadde alt jeg vil se i denne typen briller - displayet er fremdeles ikke så bra som jeg vil - det er nær å være et ekte produkt, med Vuzix lovende utviklersett snart, og en forbrukerversjon å følge. Det er ganske kult.

Bak disse nye funksjonene - og de vi trenger å se fremover - var enormt forbedrede skjermer, og arbeidet pågår med nye LCD-skjermer og Micro OLED-er (organiske lysdioder), så vel som på lysfeltskjermer.

I Micro OLED-riket så jeg et antall hodesett som brukte Kopins Lightning 720p OLED-mikrodisplay, som har en 0, 49-tommers diagonal størrelse, og en lysstyrke på over 1000 ni. Noen av dagens mest interessante hodesett ser ut til å bruke det.

Et jeg fant spesielt interessant bruker et mikrodisplay og integrerer Flirs termiske bildesystemer for å lage et hodesett som fungerer som en maske for brannmenn som kan varsle dem om hot spots i en brennende bygning.

Ser vi lenger framover, viste Kopin frem sin Lightning 2K AMOLED, en 0, 99-tommers skjerm (18 mm på hver side) med 2048 by-2048 piksler, som skal ut senere i år. Selskapet har laget skjermer for hodesett i mange år, og lager nå mikro-OLED-er som et ledd i et joint venture med displayprodusenten BOE, med sikte på å skape bedre "assistent reality."

I fremtiden vil jeg være veldig interessert i AR-applikasjoner spesielt, men for i år tror jeg det fremdeles i stor grad er en nisjeapplikasjon, best egnet for vertikale markeder med spesifikke behov.

Fortsatt, i et annet nikk mot science fiction-filmer, ser hologrammer ut til å gjøre mye fremgang. Jeg ble spesielt imponert av Hypervsn fra Kino-mo, et britisk selskap som bruker lysdioder for å projisere 3D-hologrammer som ser ut som de flyter i luften. Denne teknologien brukes først og fremst i markedsføring, for å lage iøynefallende skjermer. Det fanget meg absolutt.

Science fiction-enheter som er (nesten) ekte