Hjem Fremover tenking Abstraksjon og automatisering fremhever emc verden

Abstraksjon og automatisering fremhever emc verden

Video: Jeff Clarke, Dell Technologies | Dell Technologies World 2020 (Oktober 2024)

Video: Jeff Clarke, Dell Technologies | Dell Technologies World 2020 (Oktober 2024)
Anonim

Jeg tilbrakte store deler av denne uken på den årlige EMC World-konferansen og kom bort og lurte på: planlegger IT-avdelinger virkelig for den type forstyrrelser som industrileverandørene og pundits tror er i vente? Spesielt har EMC endret hovedbudskapet fra "Journey to the Private Cloud" til en mer generisk "Lead Your Transformation." Dette gjenspeiler en underliggende antagelse om at analyse av mobil, sosial, sky og big data vil endre vår forståelse av IT-avdelingens rolle.

EMC er kjent som den største leverandøren av enterprise lagringssystemer, men selskapet er faktisk mer en sammenslutning av forskjellige underliggende selskaper: kjernen EMC, som gir lagrings-, replikasjons-, sikkerhetskopierings- og gjenopprettingsfunksjoner; RSA, en sikkerhets- og identitetsavdeling innen EMC; VMware (som for det meste eies av EMC), og tilbyr virtualiseringsprogramvare og styringsverktøy for datasenter; og det nyeste tilskuddet, Pivotal, som har laget en skyplattform for big data-analyse (og som eies av EMC, VMware og GE).

Men fra hver av disse divisjonene kom budskapet om endring høyt og tydelig.

I hovedtaler beskrev EMC-styreleder og administrerende direktør Joe Tucci (over) trendene med mobilitet, sky, big data og social som både forstyrrende og muligheter for IT. Han oppfordret publikum til å bruke disse trendene for å endre forretningsmodeller. En serie animasjoner antydet at du kanskje må bli en superhelt for å gjøre alt dette.

Tucci siterte IDC og sa at vi går over til den tredje store plattformen for databehandling. Med den første plattformen hadde vi terminaler som koblet til mainframes og minicomputers med millioner av brukere og tusenvis av applikasjoner. Den andre plattformen innebar at PC-en koblet via LAN i et klient / server-miljø med hundrevis av millioner brukere og titusenvis av applikasjoner. Nå, sa han, kommer vi til den tredje plattformen, med mobile enheter som kobles til skyen og lager big data, noe som resulterer i milliarder brukere og millioner av apper.

Han sa at bare den ene leverandøren, IBM, flyttet vellykket fra den første til den andre. De fleste av dagens leverandører, sa han, vil kjempe på lignende måte i overgangen, bortsett fra, selvfølgelig, EMC delvis på grunn av de store investeringene i FoU og teknologierverv. Han så ut til å antyde at mange IT-avdelinger vil slite med den samme overgangen, om ikke annet på grunn av den enorme veksten i data, applikasjoner og brukere.

Den overordnede løsningen som alle EMC-selskapene skyver dreier seg om det den kaller det "programvaredefinerte datasenteret", basert på konseptet som IT-avdelinger trenger for å "abstrahere, samle og automatisere" alle prosessene sine.

Mye av dette konseptet har kommet fra virtualisering, og de viktigste IT-organisasjonene har mye av sin datainfrastruktur som allerede kjører på hypervisorer, og skaper det VMware har kalt programvaredefinert beregning.

Men EMC har presset det "programvaredefinerte konseptet" mye lenger. VMware har anskaffet Nicira, en av lederne innen programvaredefinert nettverk. RSA-divisjonen har snakket om "programvaredefinert sikkerhet."

Kanskje den største kunngjøringen på messen fra EMC-divisjonen var et produkt kalt ViPR, som gir "programvaredefinert lagring" designet for å la deg administrere bassenger med lagring fra EMC, konkurrenter eller bare generelle harddisker, slik at en prosess kan definere hvor data fra en applikasjon skal ligge.

Kombiner alle disse funksjonene sammen, og du har et system som kan abstrahere all den fysiske maskinvaren - databehandling, lagring og nettverk - men fortsatt kan utnytte intelligensen til den underliggende maskinvaren, som ganske mye definerer visjonen om den større EMC.

Teoretisk sett kunne en IT-avdeling velge hvilken som helst serverleverandør, lagringsleverandør eller nettverksleverandør og administrere alt sammen. Tanken er at du kan kjøre hvilken som helst applikasjon på hvilken som helst "sky" i det EMC og VMware kaller "programvaredefinert datasenter."

Konseptet er overbevisende, spesielt den delen som sier at du vil kunne flytte applikasjoner mellom flere skyer, inkludert private nettverk og offentlige leverandører, og tanken om at mer av datasenteret kan automatiseres. Det virkelige spørsmålet vil selvfølgelig være hvor godt alt dette fungerer i den virkelige verden. Jeg er spesielt nysgjerrig på om dette konseptet vil være kostnadseffektivt for noe annet enn de største selskapene.

Den delen jeg fant mest interessant var diskusjonen om Pivotal, som tar sikte på å lage en big data analytics-plattform som kjører på alle slags "skyer." Dette er et nytt selskap som har absorbert forskjellige teknologier fra EMC og VMware (inkludert Greenplum BI-plattformen, Spring framework for Java og Cloud Foundry), men målet er en mye større plattform.

Pivotal CEO Paul Maritz (ovenfor, tidligere administrerende direktør i VMware) sa Pivotal er fokusert på å bygge en ny type plattform som vil kombinere "big data, fast data og en ny generasjon applikasjoner på en måte som er uavhengig av eller bærbar blant forskjellige typer skyer."

Verden beveger seg mot en ny stil med programmering og plattformer, sa han, og begynte med tidlige pionerer hos selskaper i internasjonal målestokk som Google, Facebook, Amazon og Yahoo. Disse selskapene trengte å lagre og resonnere over veldig store datamengder mer effektivt enn tradisjonelle databaser og datavarehus tillot, så de skapte nye teknologier som Hadoop. De tror også på veldig rask applikasjonsutvikling, med Maritz som legger merke til at en ny ansatt hos Facebook blir oppfordret til å distribuere sin første applikasjon på deres første arbeidsdag. Slike selskaper trenger å operere i stor skala på en svært automatisert måte.

Men det er ikke bare Internett-data. Maritz snakket lidenskapelig om "The Internet of Things", og beskrev hvordan "gjennomgripende telemetri" på alle slags enheter vil føre til en enorm flom av data. For eksempel, sa han, i en enkelt transatlantisk flytur, vil en Boeing 777 skape 30 TB data. Derfor, sa han, applikasjoner trenger å innta et stort antall hendelser. Dette er grunnen til at GE har bestemt seg for å kjøpe 10 prosent av Pivotal, sa Maritz.

Den nye plattformen, kalt Pivotal One, vil omfatte et datastoff, applikasjonsstoff og et skystoff. Dette vil inneholde et neste generasjons datastoff som består av en Hadoop-implementering med spørringsfunksjoner; en sanntids metode for inntak av data; en analysemotor; et applikasjonsstoff som vil innlemme vårens rammeverk; og Cloud Foundry, som lar plattformen løpe på toppen av alle slags "skyer" fra en privat sky til VMwares vCloud for å referere skyplattform som Amazon Web Services og OpenStack. Hele plattformen forventes ikke å være ute før fjerde kvartal, men forskjellige deler er tilgjengelige nå.

Pivotal har absolutt et ambisiøst mål om å lage en helt ny plattform, men det virker som en stor endring i måten programmerere jobber. Det vil sannsynligvis møte konkurranse fra både de eksisterende utviklingsplattformene og det enorme open source-økosystemet.

Abstraksjon og automatisering fremhever emc verden