Home / Blog / Potencjał Big Data

Potencjał Big Data

Przewiduje się, że w 2020 roku rynek Big Data przekroczy już próg 203 mld dolarów.

Globalny rynek danych, aktualnie jest wyceniany na 130 mld dolarów i ma rosnąć w kolejnych latach w dwucyfrowym tempie. Technologie Big Data rozwijają się sześciokrotnie szybciej niż pozostałe segmenty sektora IT. Tymczasem polski biznes wydaje się być wciąż nieświadomy wyścigu, w którym uczestniczy. Wygrają w nim te firmy, które będą mieć dostęp do odpowiednich danych i zrobią z nich jak najlepszy pożytek.
Według IDG Enterprise 2016 Data & Analytics Research, aż 78% przedsiębiorców uważa, że zbieranie i odpowiednie przetwarzanie danych może zainicjować zmianę sposobu prowadzenia ich biznesu w ciągu najwyżej trzech lat. Polska wpisuje się w ten światowy trend. Rodzimi przedsiębiorcy podchodzą jednak do Big Data z daleko idącą ostrożnością – tylko 5,9% polskich firm korzysta z rozwiązań do analizy dużych zbiorów danych.
Polacy, podchodzą z dystansem do technologicznych nowinek. Świadczy o tym dalekie, 23. miejsce wśród zaawansowanych cyfrowo państw Unii Europejskiej według analiz KE. Jednak w przypadku Big Data perspektywy są optymistyczne. Aż 8 do 10 polskich menedżerów IT jest zdania, że analityka wielkich zbiorów danych będzie stanowić podstawę strategii biznesowych dla ich firm w przeciągu najbliższych 5 lat.
2016 rok stanowił przełom dla wielu firm powiązanych z segmentem Big Data. Według Deloitte kluczowym trendem w tym okresie była monetyzacja danych. W oparciu o Big Data coraz częściej podejmuje się ważne decyzje biznesowe dotyczące rozwoju, strategii czy kampanii marketingowych. Według IDG Enterprise 2016 Data & Analytics Research firmy inwestowały do tej pory w narzędzia do analityki danych głównie z myślą o dwóch celach biznesowych: poprawie jakości systemów CRM oraz poszukiwaniu w danych możliwości ich wymiernego wykorzystania w przedsiębiorstwie (tzw. data – driven business).
Skala możliwości zastosowania rozwiązań Big Data jest w dużej mierze zależna od branży. Przede wszystkim korzystają z nich firmy z sektora usług finansowych. W ich wypadku Big Data służy m.in. do oceny ryzyka kredytowego lub selekcji klientów, którym zostanie przedstawiona oferta konkretnego produktu bankowego. Dzięki zaawansowanym algorytmom takie procesy są realizowane w czasie rzeczywistym. Jeszcze niedawno zajmowały nawet do kilku dni.
Kolejnym sektorem świadomym użyteczności Big Data jest handel i telekomunikacja. Do tego grona zaliczają się również firmy produkcyjne, które dzięki analityce mogą obniżać koszty operacyjne nawet o 20% i liczyć na 30% wzrost zysków. Na ten efekt, a więc wymierne pójście w górę słupka przychodu, liczą wszyscy menedżerowie wprowadzający do firm projekty BI. I oczekują wykazania ich skuteczności.

Jakość i dostępność danych jak główne cele

Monetyzacja danych wiąże się  pewnymi wyzwaniami. Głównym problemem jest dokładna ocena przydatności i wiarygodności zasobów danych. Także tych pochodzących ze źródeł zewnętrznych, których do tej pory przedsiębiorstwa w ogóle nie brały pod uwagę, a będą wykorzystywane coraz częściej. Zasilanie systemów firmowych danymi zewnętrznymi to działanie określane jako „data enrichment”. Dzięki niemu firma zyskuje możliwość przetestowania skuteczności zebranych przez siebie informacji. Ze względu na to, biznes będzie przywiązywał coraz większą wagę do jakości danych, zasilając nimi wewnętrzne systemy BI. W tej sytuacji kluczowa staje się aktualność tego typu treści. Dane muszą być regularnie odświeżane i aktualizowane, ponieważ coraz więcej parametrów (np. intencja zakupowa klienta) ma charakter krótkoterminowy. Do tego dochodzi kwestia utrzymywania w bazie pewnego porządku, mająca na celu chociażby uniknięcie mnożenia się kosztów np. związanych z utrzymaniem serwerów.
Drugim istotnym zagadnieniem, zaraz po jakości danych, jest ich dostępność oraz łatwość zarządzania nimi. Firmy chcą analizować treści w czasie rzeczywistym i sprawnie dostosowywać swoje oprogramowanie w zależności od bieżących potrzeb. Takie możliwości otwierają przed nimi usługi chmurowe – czyli w skrócie model usług przetwarzania danych oparty na zewnętrznej infrastrukturze dostawcy. Według analiz Gartnera do ich zalet należą m.in. elastyczność, skalowalność, obniżka kosztów, innowacyjność i wsparcie wzrostu biznesu.
Usługi w modelu „chmura” dają użytkownikom szansę sprawnego funkcjonowania w świecie Big Data bez zbędnych inwestycji np. w drogi sprzęt czy serwery, przy zachowaniu pełnej sprawności działania. Umożliwiają też pracę z dowolnego miejsca. Równie ważny jest fakt, że dzięki funkcjonowaniu „na zewnątrz” produkty chmurowe mogą być szybko aktualizowane i dostosowywane do zmian zachodzących na rynku. Trudno się więc dziwić, że zyskują na popularności. Jak przewiduje Gartner, do 2020 roku aż 50 proc. usług w zakresie tzw. outsourcingu IT będzie związanych z strategiami wdrożenia usług chmurowych.
Opracowanie na podstawie:
IDG Enterprise 2016 Data & Analytics Research
Gartner.com
Top