364
UTFORSKA vad vi kan och gör
UTFORSKA vad vi kan och gör

Stäng

Kompetensområden

Kontakta mig

Vill du veta mer och ta reda på hur vi kan hjälpa just dig? Lämna dina kontaktuppgifter

Valdation:
* Förnamn:
* Efternamn:
Företag:
Tel:
* Email:
Land:
* Meddelande:
Successfully sent!
Could not send the mail, try again later!
KAFFE ELLER TÉ? Vi kan väl ses över en kopp.

Blogg maj 08, 2015

Microsoft om Big data och Internet of Things under Build-konferensen

På Microsofts stora utvecklingskonferens ”Build” i San Fransisco, den 29 april – 1 maj, lanserade Microsoft en del intressanta nyheter för oss som är intresserade av Business Intelligence-frågor. Microsoft spenderade största delen av sin inledande presentation åt Windows 10, men hann dessförinnan med att även prata om både Internet of Things och traditionella datalager.

De började med att berätta att de i juni kommer öppna en publik preview av sin nya produkt Azure SQL Data Warehouse. Detta är, precis som namnet antyder, ett datalager som lagras i Azure. Den stora vinningen är att man dels betalar en liten avgift för datalagringen och sedan en timbaserad avgift på själva kraften som krävs att ställa frågor mot databasen. Ett exempel på detta är att man en gång i kvartalet brukar vilja ta fram en avancerad kvartalsanalys. Då kan det vara effektivt att bara betala för den extra processorkraften som man köper när man ska generera just den analysen. Det här datalagret har kapacitet att ta emot mycket stora datamängder men också att man inom loppet av några sekunder kan bygga om storleken på datalagret. Något som Amazons konkurrerande datalagerprodukt AWS Redshift inte klarar alls lika snabbt. Detta var Scott Guthrie, Microsofts chef för Azure Application Platform, mycket snabb med att berätta.

När man byggt ett datalager i Azure SQL Data Warehouse kan man antingen visualisera och interagera med hjälp av Power BI, eller ställa frågor i programmeringsspråket R för att med Machine learning skapa modeller eller söka mönster i stora datavolymer.

Jag tycker inte att det känns oväntat att Microsoft kommer med den här produkten. Med Azure Data Warehouse bygger Microsoft ut sitt databaserbjudande i Azure och börjar nu få en riktigt bra portfölj av databasprodukter i sitt moln.

Skärmbild på datalager i Azure från Microsofts keynote presentation 29 april 2015.

Den andra stora nyheten som Microsoft presenterade var Datalake – en datapool där man kan lagra mycket stora mängder ostrukturerad data i Azure. Ett exempel på detta är att alla små sensorer som samlar in data kan lagra detta i en Datalake. Därefter kan man göra analyser i realtid mot all data. Detta är alltså en backend-service mot det som populärt kallas Internet Of Things. Microsoft berättade som ett exempel att biltillverkaren Ford börjat bygga in små datorer i sina bilar som kontinuerligt skickar data till en Datalake. Det man sedan gör är att analysera hur bilarna fungerar och hur de används. Man adresserar sin Datalake med standard Hadoop-API:er. Jag fick tillfälle att prata med Microsoft om vad skillnaden egentligen var mellan ett vanligt Hadoop-kluster och en datalake. De förklarade att de är bra på olika typer av data – en datalake har snabbare through-put än ett Hadoop-kluster för viss typ av ostrukturerad data. Det är inte heller lika hårt knutet till en dedikerad blobbstorage som Hadoop måste vara.

Skärmbild på Azures olika erbjudanden från Microsofts keynote presentation 29 april 2015.

När en sådan stor och viktig aktör som Microsoft visar vad de satsar på för framtiden är det många som lyssnar. Tydligt är att Microsoft fokuserar väldigt mycket på sitt Azure-moln. Slutligen ska tilläggas att alla de case som vi på Enfo Pointer har byggt med Azure har varit väldigt lyckade.

Nu i veckan, på Microsofts nästa stora konferens Ignite, var Satya Nadella uppe på scenen igen och släppte då lite nyheter om nästa version av SQL Server, nämligen "SQL Server 2016", men mer om den i ett annat blogginlägg.

David Stavegård, Resultatområdeschef, Enfo Pointer