Hjem Nyheter og analyse Hva er maskinlæring?

Hva er maskinlæring?

Innholdsfortegnelse:

Video: Lego City 60004 Fire Station / Feuerwehr Hauptquartier - Lego Speed Build Review (Oktober 2024)

Video: Lego City 60004 Fire Station / Feuerwehr Hauptquartier - Lego Speed Build Review (Oktober 2024)
Anonim

I desember 2017 introduserte DeepMind, forskningslaboratoriet kjøpt av Google i 2014, AlphaZero, et kunstig intelligensprogram som kunne beseire verdensmestere på flere brettspill.

Interessant nok fikk AlphaZero null instruksjoner fra mennesker om hvordan man spiller spillene (derav navnet). I stedet brukte den maskinlæring, en gren av AI som utvikler sin atferd gjennom erfaring i stedet for eksplisitte kommandoer.

I løpet av 24 timer oppnådde AlphaZero overmenneskelige prestasjoner i sjakk og beseiret det forrige sjakkprogrammet for verdensmester. Like etter mestret AlphaZeros maskinlæringsalgoritme også Shogi (japansk sjakk) og det kinesiske brettspillet Go, og den beseiret forgjengeren, AlphaGo, 100 til null.

Læring av maskiner har blitt populær de siste årene og hjelper datamaskiner med å løse problemer som tidligere antas å være det eksklusive domenet til menneskelig intelligens. Og selv om det fremdeles er langt unna den opprinnelige visjonen om kunstig intelligens, har maskinlæring fått oss mye nærmere det endelige målet om å lage tenkemaskiner.

Hva er forskjellen mellom kunstig intelligens og maskinlæring?

Tradisjonelle tilnærminger til å utvikle kunstig intelligens innebærer omhyggelig koding av alle regler og kunnskap som definerer en AI-agents oppførsel. Når du lager regelbasert AI, må utviklere skrive instruksjoner som spesifiserer hvordan AI skal oppføre seg som svar på alle mulige situasjoner. Denne regelbaserte tilnærmingen, også kjent som god gammeldags AI (GOFAI) eller symbolsk AI, prøver å etterligne menneskesinnets resonnement og kunnskapsrepresentasjonsfunksjoner.

Et perfekt eksempel på symbolsk AI er Stockfish, en topp sjangermotor med åpen kildekode mer enn ti år i produksjonen. Hundrevis av programmerere og sjakkspillere har bidratt til Stockfish og bidratt til å utvikle logikken ved å kode reglene - for eksempel hva AI skal gjøre når motstanderen flytter ridderen fra B1 til C3.

Men regelbasert AI brytes ofte når man håndterer situasjoner der reglene er for kompliserte og implisitte. Å gjenkjenne tale og objekter i bilder, for eksempel, er avanserte operasjoner som ikke kan uttrykkes i logiske regler.

I motsetning til symbolsk AI, er maskinlærende AI-modeller utviklet ikke ved å skrive regler, men ved å samle eksempler. For å lage en maskinlæringsbasert sjakkmotor oppretter en utvikler for eksempel en basisalgoritme og "trener" den opp med data fra tusenvis av tidligere spilte sjakkspill. Ved å analysere dataene finner AI vanlige mønstre som definerer vinnerstrategier, som den kan bruke for å beseire virkelige motstandere.

Jo flere spill AI anmelder, jo bedre blir det til å forutsi vinnende trekk under spillet. Dette er grunnen til at maskinlæring er definert som et program hvis ytelse forbedres med erfaring.

Læring av maskiner kan brukes på mange virkelige oppgaver, inkludert bildeklassifisering, stemmegjenkjenning, anbefaling av innhold, gjenkjenning av svindel og naturlig språkbehandling.

Veiledet og uovervåket læring

Avhengig av problemet de vil løse, forbereder utviklere relevante data for å bygge sin maskinlæringsmodell. For eksempel, hvis de ønsket å bruke maskinlæring for å oppdage uredelige banktransaksjoner, ville utviklere sammenstille en liste over eksisterende transaksjoner og merke dem med resultatet (uredelig eller gyldig). Når de mater dataene til algoritmen, skiller de de uredelige og gyldige transaksjonene og finner de felles egenskapene i hver av de to klassene. Prosessen med å trene modeller med kommenterte data kalles "supervised learning" og er i dag den dominerende formen for maskinlæring.

Mange online lagringsplasser med merkede data for forskjellige oppgaver eksisterer allerede. Noen populære eksempler er ImageNet, et åpen kildekode-datasett med mer enn 14 millioner merkede bilder, og MNIST, et datasett på 60 000 merkede håndskrevne sifre. Utviklere av maskinlæring bruker også plattformer som Amazons Mechanical Turk, et online ansettelsesnav på forespørsel for å utføre kognitive oppgaver som merking av bilder og lydprøver. Og en voksende sektor av oppstarter spesialiserer seg på dataarmentering.

Men ikke alle problemer krever merkede data. Noen maskinlæringsproblemer kan løses gjennom "uovervåket læring", der du gir AI-modellen rå data og lar den finne ut av hvilke mønstre som er relevante.

En vanlig bruk av uovervåket læring er anomali påvisning. For eksempel kan en maskinlæringsalgoritme trene på de rå nettverkstrafikkdataene til en Internett-tilkoblet enhet - si, et smart kjøleskap. Etter trening etablerer AI en grunnlinje for enheten og kan flagge oppførsel som er større. Hvis enheten blir infisert med skadelig programvare og begynner å kommunisere med ondsinnede servere, vil maskinlæringsmodellen kunne oppdage den, fordi nettverkstrafikken er forskjellig fra normal oppførsel observert under trening.

Forsterkningslæring

Nå vet du sannsynligvis at kvalitetsopplæringsdata spiller en enorm rolle i effektiviteten til maskinlæringsmodeller. Men forsterkningslæring er en spesialisert type maskinlæring der en AI utvikler sin atferd uten å bruke tidligere data.

Forsterkningslærende modeller starter med en ren skifer. De får kun instruksjoner om miljøets grunnleggende regler og oppgaven. Gjennom prøving og feiling lærer de å optimalisere handlingene sine for sine mål.

DeepMinds AlphaZero er et interessant eksempel på forsterkningslæring. I motsetning til andre maskinlæringsmodeller, som må se hvordan mennesker spiller sjakk og lærer av dem, begynte AlphaZero bare å kjenne brikkenes trekk og spillets vinnevilkår. Etter det spilte den millioner kamper mot seg selv, og startet med tilfeldige handlinger og gradvis utviklet atferdsmønstre.

Forsterkningslæring er et hett forskningsområde. Det er den viktigste teknologien som brukes til å utvikle AI-modeller som kan mestre komplekse spill som Dota 2 og StarCraft 2, og som også brukes til å løse virkelige problemer, som å administrere datasenterressurser og lage robothender som kan håndtere gjenstander med menneskelignende fingerferdighet..

Dyp læring

Dyp læring er et annet populært undergruppe av maskinlæring. Den bruker kunstige nevrale nettverk, programvarekonstruksjoner som er omtrent inspirert av den biologiske strukturen til den menneskelige hjernen.

Nevrale nettverk utmerker seg med å behandle ustrukturerte data som bilder, video, lyd og lange utdrag av tekst som artikler og forskningsartikler. Før dyp læring måtte maskinlæringseksperter legge ned mye arbeid for å trekke ut funksjoner fra bilder og videoer og ville kjøre algoritmene på toppen av det. Nevrale nettverk oppdager disse funksjonene automatisk uten å kreve mye krefter fra menneskelige ingeniører.

Dyp læring ligger bak mange moderne AI-teknologier som førerløse biler, avanserte oversettelsessystemer og ansiktsgjenkjenningsteknologien på din iPhone X.

Grensene for maskinlæring

Folk forveksler ofte maskinlæring med kunstig intelligens på menneskelig nivå, og markedsavdelingene i noen selskaper bruker med vilje begrepene om hverandre. Men mens maskinlæring har tatt store skritt mot å løse komplekse problemer, er det fremdeles veldig langt fra å skape de tenkemaskinene som pionerene til AI har sett for seg.

I tillegg til å lære av erfaring, krever ekte intelligens resonnement, sunn fornuft og abstrakt tenking - områder der maskinlæringsmodeller presterer svært dårlig.

Selv om maskinlæring for eksempel er god til kompliserte mønstergjenkjenningsoppgaver som å forutsi brystkreft fem år i forveien, sliter den med enklere logikk og resonneringsoppgaver som å løse matematikkproblemer på videregående skole.

Maskinlærings mangel på resonnementskraft gjør det dårlig til å generalisere kunnskapen. For eksempel vil et maskinlæringsagent som kan spille Super Mario 3 som en proff ikke dominere et annet plattformspill, for eksempel Mega Man, eller til og med en annen versjon av Super Mario. Det må trent fra grunnen av.

Uten kraft til å hente ut konseptuell kunnskap fra erfaring, krever maskinlæringsmodeller mange treningsdata for å utføre. Dessverre mangler mange domener tilstrekkelig treningsdata eller har ikke midler til å skaffe mer. Dyp læring, som nå er den utbredte formen for maskinlæring, lider også av et problem som kan forklares: Nevrale nettverk fungerer på kompliserte måter, og til og med skaperne deres sliter med å følge beslutningsprosessene deres. Dette gjør det vanskelig å bruke kraften fra nevrale nettverk i innstillinger der det er et lovkrav for å forklare AI-avgjørelser.

Heldigvis arbeides det med å overvinne maskinlæringens grenser. Et bemerkelsesverdig eksempel er et utbredt initiativ fra DARPA, Forsvarsdepartementets forskningsarm, for å lage forklarbare AI-modeller.

  • Hva er kunstig intelligens (AI)? Hva er kunstig intelligens (AI)?
  • De fleste AI-dollar går til maskinlæring De fleste AI-dollar går til maskinlæring
  • Hvordan vil du se AI brukt? Hvordan vil du se AI brukt?

Andre prosjekter tar sikte på å redusere maskinlæringens overhengighet av kommenterte data og gjøre teknologien tilgjengelig for domener med begrenset opplæringsdata. Forskere ved IBM og MIT gjorde nylig inngang i feltet ved å kombinere symbolsk AI med nevrale nettverk. Hybride AI-modeller krever mindre data for trening og kan gi trinnvis forklaring på beslutningene.

Hvorvidt utviklingen av maskinlæring til slutt vil hjelpe oss å nå det stadig unnvikende målet om å skape AI på menneskelig nivå, gjenstår å se. Men det vi vet med sikkerhet er at takket være fremskritt i maskinlæring, blir enhetene som sitter på pultene våre og hviler i lommene, smartere for hver dag.

Hva er maskinlæring?