partner serwisu

Microsoft SQL Server 2014 - polska premiera

Microsoft SQL Server 2014 - polska premiera
Autor:
Krzysztof Pojawa
Data publikacji:
28 kwietnia 2014, 05:29
Średnia ocena:
Twoja ocena:
Tagi:
azure, bazy danych, big data, chmura, columnstore index, inmemory oltp, microsoft sql serwer, power bi, sql server 2014

Ostatnie tygodnie były dla Microsoftu dobrym okresem, przynajmniej pod względem ilości informacji medialnych. Pełen nowości Build 2014 w San Francisco, premiery dwóch systemów operacyjnych - stacjonarnego Windows 8.1 Update 1 i mobilnego Windows Phone 8.1, premiery dwóch nowych odmian pakietu biurowego - Office dla iPada i Office Mobile dla Androida oraz wprowadzenie subskrypcji Office 365 Personal. Do tego ostateczne zakończenie procesu przejmowania działu urządzeń i usług Nokii. I wszystko to zdarzyło się w ciągu ostatniego miesiąca. 
Wydarzenia te, choć na pierwszy rzut oka dotyczące różnych obszarów rynku IT mają jeden element wspólny - wszystkie są rozwiązaniami quasi konsumenckimi i skierowane są do (szeroko pojętego) odbiorcy indywidualnego. 
Nie należy jednak zapominać, że Microsoft to również narzędzia informatyczne do zadań w pełni profesjonalnych, kierowane do odbiorców instytucjonalnych czy komercyjnych. Jednym z tych rozwiązań jest system do obsługi baz danych Microsoft SQL Server, którego najnowszą wersję, oznaczoną symbolem 2014 spółka zaprezentowała oficjalnie 25 kwietnia, niejako zamykając w ten sposób miesiąc pełen nowości produktowych.

Prezentacja Microsoft SQL Server 2014 podzielona została na kilka sesji merytorycznych, prezentujących zarówno technologiczne i funkcjonalne nowości zastosowane w oprogramowaniu, jak i praktyczne sposoby jego wykorzystania w celu optymalizacji działania, bezpieczeństwa przetwarzanych danych, szybszej i dokładniejszej ich analizy a także łatwiejszego tworzenia czytelnych dynamicznych raportów. 

Motywem przewodnim spotkania, powtarzającym się podczas każdej sesji było jednak hasło Big Data

Big Data - informacja czy inwigilacja

Na temat Big Data narosło w ostatnim czasie wiele mitów. Określenie to przywodzi często na myśl gromadzenie jak największej liczby informacji o naszych zachowaniach w sieci i poza nią. W jakie linki klikamy, co kupujemy (łącznie z rozmiarem buta lub kolorem ulubionej sukienki), jakiej słuchamy muzyki i jakie oglądamy filmy. Coraz częściej pojawiają się też sensacyjne informacje o przechowywaniu przez odpowiednie służby a także niektóre korporacje naszych maili, smsów i nagranych rozmów telefonicznych. Spora część tych informacji okazała się być prawdziwa. Wszystkie te dane są zbierane, żeby zapewnić nam bezpieczeństwo a także po to, żeby móc skuteczniej sprzedać nam więcej usług i produktów. Czy jednak tylko do tego służy Big Data? Czy ta nazwa to wyłącznie lepiej brzmiący odpowiednik określenia permanentna inwigilacja? Czy może jednak nie do końca dobrze rozumiemy, co się kryje za wielkimi danymi?

Po raz pierwszy pojęcie Big Data zostało jasno zdefiniowane w 2001 roku w raporcie firmy Gartner (w tamtym czasie nazywała się ona META Group). Opisano je jako zbiór danych spełniający następujące warunki:

  • duża ilość danych liczona w terabajtach lub petabajtach
  • duża zmienność danych
  • duża różnorodność danych

W przypadku Big Data mamy więc do czynienia z ogromnymi ilościami danych pochodzącymi z wielu różnych źródeł, często nieustrukturyzowane, różnorodne, o wysokiej dynamice zmienności, które ze względu na swoje nieuporządkowanie wymagają nowoczesnych form przetwarzania w celu ich ustrukturyzowania i możliwości przeprowadzania dokładnych analiz i wyciągania wniosków.

Definicja wygląda prosto, ale co oznacza w praktyce? Ni mniej ni więcej, tylko gromadzenie danych pochodzących z wielu różnych źródeł, nawet takich, które jeszcze niedawno nie były brane pod uwagę, czyli np. z serwisów społecznościowych. 
Dobrym, choć bardzo prostym przykładem będzie tutaj sposób działania nowoczesnego banku, który obliczając ryzyko kredytowe dla swojego klienta bierze już pod uwagę nie tylko jego dochody, przepływy na rachunku, rodzaj umowy, staż pracy i sytuację osobistą (to są dane, które klient przekazał bankowi sam), ale też np. analizuje jego profil na facebooku, sprawdzając, czy nie uprawia on sportów ekstremalnych lub nie jeździ na wycieczki do lasów w Patagonii, narażając się na spotkania z wężami i jadowitymi pająkami, co oczywiście zwiększałoby ryzyko niespłacenia kredytu i czego skutkiem byłoby podniesienie oprocentowania lub decyzja o odmowie udzielenia finansowania. 

Innym przykładem może być też opisana w 2009 roku w magazynie Nature metoda szacowania zachorowalności na grypę i wykrywania potencjalnych ognisk epidemii, działająca w czasie rzeczywistym. Co ciekawe, metoda ta została stworzona przez firmę, która zazwyczaj kojarzy się z drapieżną inwigilacją w celach marketingowych, czyli przez Google. W oparciu o analizę pochodzących z okresu między 2003 a 2008 rokiem zapytań dotyczących grypy i porównanie ich z raportami Centrum Kontroli i Prewencji Chorób w USA. Dzięki analizie tak dużej, obejmującej pięć lat, ilości danych możliwe jest teraz błyskawiczne wykrywanie wzrostu aktywności wirusa i potencjalnych źródeł epidemii na podstawie określonego wzrostu pochodzących z różnych części świata zapytań związanych z tą chorobą.

Widać więc, że Big Data nie musi oznaczać inwigilacji i wykorzystania informacji przeciwko ludziom (czy raczej - przeciwko ich portfelom). Równie dobrze wielkie dane mogą zostać użyte do wczesnego wykrywania potencjalnych epidemii a także, co zrobił Michael Bloomberg, burmistrz Nowego Jorku w latach 2002 - 2013, w celu zapobiegania pożarom. Jak mu się to udało? Otóż z danych nowojorskiej straży pożarnej wynikało, że pożary najczęściej zdażają się w nielegalnie podzielonych i równie nielegalnie zajmowanych przez zbyt duże ilości osób mieszkaniach. Pomimo tej wiedzy i pomimo otrzymywania rocznie kilkudziesięciu tysięcy skarg dotyczących nielegalnego zajmowania mieszkań, miasto nie było w stanie odpowiednio szybko reagować ze względu na brak odpowiedniej liczby inspektorów. Bloomberg postanowił więc wykorzystać wszystkie możliwe dane dotyczące prawie miliona miejskich budynków - wskaźniki przestępczości, informacje o zaległościach podatkowych i spóźnionych opłatach komunalnych, dane dotyczące interwencji pogotowia, a nawet te związane ze zbyt dużym (porónując ze średnimi wartościami) zużyciem wody i prądu - do porównania ich z raportami straży pożarnej i znalezienia korelacji wskazujących na wysokie ryzyko wystąpienia pożaru. 
Efekt? Przed przeprowadzeniem tego projektu kontrole miejskich inspektorów po otrzymanych skargach tylko w 13% kończyły się wydaniem nakazu opuszczenia budynku. Dzięki wykorzystaniu Big Data i na podstawie analizy, którymi skargami należy zająć się w pierwszej kolejności, wskaźnik ten wzrósł do ponad 70%.

Big Data nie jest więc w założeniu niczym negatywnym. Oczywiście są sytuacje, w których dane przetwarzane i analizowane są wyłącznie w celu zoptymalizowania sprzedaży bądź z czystej chęci posiadania jak największej wiedzy o jak największej ilości ludzi, często jednak ich wykorzystanie ma na celu osiągnięcie dużo bardziej pozytywnych efektów, jak ograniczanie ryzyk biznesowych czy - to doskonały przykład - wczesne wykrywanie ognisk epidemii chorób.

Sam dostęp do ogromnej ilości informacji to jednak za mało. Niezbędne są narzędzia, dzięki którym informacje mogą być w błyskawiczny i, co niezwykle istotne, absolutnie bezpieczny sposób przetwarzane i analizowane.

Brak komentarzy do tej publikacji. Dodaj pierwszy komentarz.