Jak wizualizacja danych pomaga w biznesie?

wrz 15, 2021

Business Intelligence

Wizualizacja Danych

Kilka miesięcy temu nasz CEO – Piotr Reszka wziął udział w podcaście Stacja IT prowadzonym przez Łukasza Kobylińskiego. Spotkali się, ponieważ Piotr jest jednym z wykładowców Politechniki Warszawskiej na studiach podyplomowych na kierunku Wizualna analityka danych. 

Każdy z wykładowców na co dzień pracuje przy dużych projektach biznesowych. Wielu z nich prowadzi zajęcia od pierwszej edycji studiów. Każdy z nich poza ekspercką znajomością technologii posiada doskonałe umiejętności dydaktyczne zdobyte na salach szkoleniowych, wykładowych, konferencyjnych. Szczegóły studiów podyplomowych na Politechnice Warszawskiej znajdziesz pod linkiem: Wizualna Analityka Danych.

Zapraszamy do przeczytania wywiadu o wartości wizualizacji danych i kompetencjach wymaganych od osób, które zajmują się wizualną analityką danych.

Łukasz Kobyliński: Biorąc pod uwagę dojrzałość rynku czy generalnie wiedzę klientów o tych technologiach, które wdrażacie i które sprzedajesz, to czy w ostatnich latach łatwiej jest przekonać klientów do zakupu tego rodzaju systemów czy niekoniecznie?

Piotr Reszka: Tak, zdecydowanie. Zaczynaliśmy z BI jakieś siedem lat temu. Wówczas narzędzia do analizy danych były bardzo techniczne i wymagały dużego udziału działów technicznych do tego, żeby w ogóle zacząć raportować. To był czas, kiedy na rynku popularnością cieszyły się rozwiązania, takie jak IBM czy SAP, które wymagały dużych nakładów czasowo-technologicznych, żeby cokolwiek z nich uzyskać. I generalnie nastąpiła pewnego rodzaju rewolucja, gdzie nowe narzędzia, które weszły wtedy na rynek, sprawiły, że dostęp do analiz i odpowiedzi na pytania biznesowe stał się bardziej powszechny – i wtedy po raz pierwszy spotkaliśmy się z Tableau. I to osoby z biznesu mogły bezpośrednio pracować na tych narzędziach. Nie były wymagane rzeczy typu programowanie czy jakaś integracja, przygotowanie źródeł danych. Bardzo dużo się zmieniło. W tym momencie te narzędzia są standardem. Obecnie są one bardzo user trendy. Łatwość wdrożenia, użycia, adaptacji są nieporównywalne do tego, co było kilka lat temu, i co sprawia, że ludzie z tego korzystają. Ludzie, którzy potrzebują raportować, potrzebują odpowiedzi z danych, mają te narzędzia i mogą ich użyć.

Wrócę do tego, jak to wyglądało kilka lat temu. Można sobie wyobrazić taki obrazek, na którym dział biznesu miał jakieś potrzeby dotyczące raportowania czy chciał podjąć decyzję. I za każdym razem musiał iść do informatyków, przekazywać swoje potrzeby. Ponieważ dział IT często miał dużo pracy, w związku z tym były tam jakieś kolejki, frustracje, nieścisłości wynikające z tego, że biznes przekazywał IT wymagania itd. W efekcie, mimo że był kupiony i wdrożony bardzo drogi system, kończyło to się tym, że większość analiz trafiała do Excela i firma korzystała z niego jako głównego narzędzia analitycznego. Teraz to się już zmienia. Istnieją bardzo fajne, nowoczesne narzędzia, które można szybko uruchomić, nie są drogie i dają komfort pracy osobom nietechnicznym. Tak więc wracając do twojego pytania, jest łatwiej, ponieważ zwiększyła się świadomość i są lepsze narzędzia. Z drugiej strony rynek coraz bardziej się nasycił. Czyli patrząc na nasz biznes, sprzedajemy więcej usług niż samych narzędzi, bo często te firmy już te narzędzia posiadają. Oferujemy zatem cały zestaw usług związanych z przygotowaniem rozwiązania oraz jakimiś rzeczami technicznymi.

Ł.K.: Jak powstała twoja firma? Czy to się zaczęło od twoich indywidualnych zainteresowań tematem wizualizacji, analizy danych, takie były potrzeby rynku czy to wyszło jakoś przypadkiem?

P.R.: Moje początki z biznesem są bardzo odległe. Od ponad 20 lat prowadzę różne firmy – i programistyczne, i takie, które wdrażały rozwiązania typu ERP. Siedem lat temu doszliśmy do świadomego wniosku, że na rynku brakuje takich elementów analitycznych. Zrobiłem analizę rynku wewnątrz firmy i trafiliśmy na amerykańską firmę – startup Tableau, która zatrudniała 400 osób. Bardzo prężnie się rozwijała. Widoczna była w Raportach Gartnera. Gartner to organizacja, która bada rynki technologiczne w różnych aspektach, produkuje coroczne raporty, które przedstawiają te rozwiązania na danym segmencie rynku, akurat tu mówimy o business intelligence w taki bardzo skondensowany sposób. Jeśli ktoś byłby zainteresowany, żeby poszerzyć swoją wiedzę, to polecam. To jest dokument, który ma 20 stron, streszcza, jakie trendy Gartner przewiduje, które będą ważne za kilka lat. I robi przegląd rynku, wszystkich rozwiązań, kilka słów, czym się wyróżniają i jakie są ich potencjalne ograniczenia. Przeanalizowaliśmy te raporty Gartnera, Forrestera z kilku lat i tam dominowało Tableau głównie w jednej kategorii. Nazywała się ona ease of use, czyli łatwość użycia, wdrożenia, adaptacji, przystosowania do swoich potrzeb. I to Tableau było bardzo, bardzo wysoko. Wyróżniało się. Był to początek tej rewolucji. Mieliśmy trochę szczęścia, bo oni w zasadzie nie szukali drogi do sprzedaży w tej części Europy, natomiast zdecydowali się, żeby rozwinąć sieć partnerską, ponieważ Europa jest troszkę inna niż Stany, jest tam wiele języków, wiele krajów, kultur, w związku z tym, jak trzeba mieć kogoś lokalnego, żeby tam sprzedawał, to ta koncepcja sprzedaży przez partnerów jest najlepsza. I tak zaczęliśmy współpracować z Tableau.

Bardzo szybko okazało się, że narzędzie świetnie się sprzedaje. Było ono początkiem rewolucji i mieliśmy dużą łatwość w przekonaniu potencjalnych klientów, żeby kupili to narzędzie, bo było niedrogie w porównaniu do standardów. Robiło efekt wow, wyglądało sexy, miało świetny marketing. Generalnie do dzisiaj jest bardzo dobrym narzędziem, które ma prosty interfejs użytkownika i bardzo zaawansowane funkcje analityczne. Taki był początek tej naszej drogi w biznesie związanym z danymi – business intelligence. W kolejnych latach dokładaliśmy kolejne elementy do tej układanki, w szczególności inne narzędzia, takie jak Alteryx do zaawansowanej analizy, Snowflake do Big Data – cały szereg usług, które robimy, związanych i z narzędziami, i z projektowaniem, doradztwem, warsztatami, integracją. Obecnie w swojej ofercie mamy wszystkie te narzędzia, które dominują na rynku, czyli oferujemy zarówno Tableau, jak i usługi do trzech dominujących narzędzi: Tableau, Qlik, Power BI. Plus Snowflake, Alteryx, ale to od strony produktowej. Natomiast od strony biznesowej mamy szereg rozwiązań dla różnych branż, typu logistyka, telco, produkcja i wiele, wiele innych. Jeśli kogoś by to interesowało, to zapraszam na nasze strony astrafox.pl, tam można popatrzeć, co robimy, zapoznać się z narzędziami, których używamy.

Ł.K.: Powiedz w kilku słowach o tym, co tak naprawdę firmy zyskują, że tego rodzaju analitykę wizualną, analitykę danych wdrażają. Jakie są najczęstsze przykłady sukcesów? Gdzie to się najbardziej sprawdza, w jakich branżach i w jakiej wielkości firmach?

P.R.: Nie wspomnieliśmy o takim aspekcie, jak wizualizacja danych. To też dotyczyło części tej rewolucji. Te siedem, osiem lat temu, kiedy dominował Excel i bardzo ciężkie rozwiązania, takim głównym skutkiem tych prac były analizy w postaci tabel. Te nowe narzędzia typu Tableau wymuszają stosowanie wizualizacji. I historia samej wizualizacji danych i tego, dlaczego się ją stosuje, jest bardzo oczywista i niezwiązana z konkretnymi narzędziami, tylko z tym, jak działa percepcja człowieka, w szczególności wzrok, który odpowiedziany jest za ponad 80% wszystkich informacji docierających do nas ze świata zewnętrznego. I jeżeli podejdziemy do tego naukowo, to wzrok jest czuły na pewne atrybuty bardziej, a niektóre mniej. Przykładem takiego atrybutu jest długość, np. długość słupka, pozycja kropki na wykresie XY, szerokość słupka. Jeżeli użyjemy tych atrybutów, to wzrok zadziała automatycznie – automatycznie wyłapie pewne wzorce i pomoże nam szybko wyciągnąć wnioski. Ciężko zobrazować to słownie, ale jeżeli wyobrazimy sobie tabelę w Excelu, która jest bardzo skomplikowana, ma wiele kolumn i wierszy, to da się ją zdekomponować do kilku wykresów słupkowych. Wyciągnięcie wniosków z wykresu słupkowego jest praktycznie natychmiastowe i nie wymaga przeliczenia w mózgu. Po prostu tak jest skonstruowana percepcja.

Niesie to bardzo duży benefit, związany z szybkością analizy, z drążeniem, z tym, że jest ona bardziej atrakcyjna, ciekawa, przyciąga uwagę i pozwala szybciej wnioskować analizą wizualną versus analizowaniem samych tabel w Excelu. Przykładów z biznesu jest wiele. Początki przekonywania klientów do tego, żeby korzystali z analizy wizualnej, były ciężkie. Przychodziliśmy do firmy, która używa np. Cognosa – jest to klasyczne rozwiązanie BI-owe, które istniało na rynku już od 20–30 lat. Słyszeliśmy: „Fajne to Tableau, więc teraz weźmy te tabele z Cognosa i przenieśmy je do Tableau”, czyli jeden do jednego. Czyli to nigdy nie działało. Musieliśmy edukować klientów, że należy podejść do tego w ten sposób: cofnąć się, powiedzieć sobie, co chcemy uzyskać, i zrobić to samo w formie wizualnej. Ludzie otwierali się i przekonywali do tej analizy wizualnej.

Jest wiele benefitów z tym związanych, począwszy od tego, że możemy dużą ilość informacji zobaczyć na jednym ekranie, mimo milionów tych kwadracików dostrzec ten jeden, który się wyróżnia. Analiza liczb w tabeli jest żmudna i wymaga bardzo dużego skupienia. Czasami człowiek może być na tyle zmęczony, że nie dostrzeże istotnych rzeczy.

Ł.K.: Jak to wygląda w praktyce? Ktoś przychodzi do was, jest zainteresowany produktem, np. Tableau czy dowolnym innym, i może nawet wdrożeniem od razu. Czy identyfikujecie główne, najistotniejsze dane dla tej organizacji, tak żeby móc je zwizualizować, robić jakieś dashboardy? Czy identyfikujecie jakichś głównych beneficjentów, w sensie: działy w firmie, które by miały takie dane analizować?

P.R.: W większości przypadków, gdy odchodzimy od tego i nie skupiamy się na samym narzędziu, klient ma zwykle potrzebę uzyskania pewnych informacji czy zrobienia pewnych analiz, żeby podejmować decyzje, np. mamy cel, którym jest zwiększenie sprzedaży, zmniejszenie retencji klientów. Podchodzimy do tego w ten sposób, że konstruujemy ilość wskaźników, KPI czy elementów, które muszą pojawić się w tego typu analizie, po to żeby podjąć jakieś decyzje, np. żeby zbudować narzędzia do rozliczania handlowców czy marketingu. I do tego dopieramy narzędzia. Można tu wyróżnić wiele różnych modeli współpracy. Taki idealny model całościowy polega na tym, że projektujemy, co ma być zrobione, skąd pobrać te dane, budujemy całą maszynkę do pobierania danych i robimy frontend, czyli te dashboardy, raporty już w narzędziu. Wspominałem wcześniej, że na rynku dominują trzy narzędzia – Tableau, Qlik, Power BI – które narzędzie wybierze firma, zależy od wielu czynników, również finansowych, one troszeczkę różnią się w modelach cenowych. Ja akurat jestem fanem Tableau, ponieważ jest to narzędzie proste we wdrożeniu, oferuje bardzo zaawansowaną analitykę, której może używać w firmie praktycznie każdy.

Te wszystkie narzędzia, szczególnie Tableau, wymuszają wizualizację. Oczywiście można stworzyć tabele przestawne, jeśli ktoś bardzo chce, natomiast niespecjalnie trzeba się nad tym skupiać. Tableau jest tak skonstruowane, że można zaznaczyć kilka pól, z których chcemy stworzyć raport, czyli np. „sprzedaż”, „czas”, „handlowiec”, „produkt” i po prostu kliknąć taki magiczny przycisk „show me”, który przekształci te cztery pola w wizualizacji i dobierze automatycznie typ wizualizacji optymalny do tych pól. Tak więc tu niewiele trzeba się skupiać, żeby ten efekt wizualizacyjny uzyskać. I ładnie to wygląda i z pudełka. Szybko też uzyskujemy efekt końcowy.

Wracając do tych etapów wdrożenia. Zależnie od tego, jakie są potrzeby, możemy wszystkie z tych elementów, o których mówiłem, rozwijać. W najprostszym przypadku może to być dostarczenie samego narzędzia i warsztatów. Takie warsztaty robimy. Bardzo dużo ich robimy dla klientów, co też świadczy o tym, że te narzędzia są self service, czyli nie wymagają specjalnie dużo usług wdrożeniowych. Wystarczy, że klient się przeszkoli, i praktycznie może działać sam. Od wielu lat uczestniczę jako wykładowca na studiach dotyczących analizy danych, data science czy wizualizacji danych. I tam również szkolimy, prowadzimy praktyczne warsztaty, jak to Tableau wykorzystywać. Te warsztaty całkowicie wystarczą do tego, żeby rozpocząć swoje analizy, swoje przygody z samym Tableau. Natomiast w dużych firmach występują aspekty związane z wielkością organizacji. Jest ta część serwerowa, mamy różne technikalia, sposoby autentykacji, autoryzacji, sposób dzielenia się danymi itd. Tam zaczynają się takie bardziej specyficzne już usługi, które oczywiście też dostarczamy dla dużych firm.

Ł.K.: Wspomniałeś, że te różne rozwiązania różnią cenowo. Czy orientacyjnie lub przez porównania tych produktów można określić, jaki to koszt? Czy to są drogie rozwiązania czy też potencjalnie każdą firmę na nie stać?

P.R.: Myślę, że wszystkie z tych produktów, które wymieniłem, można używać w wersji podstawowej za darmo. Koszty komercyjne teraz się zmieniły, bo wcześniej mieliśmy licencję tzw. modelu perpetual, czyli trzeba było kupić licencje, które kosztowały np. 10 tys. dol., i to był taki set minimalny. Teraz to się zmieniło i te licencje są w modelu subskrypcyjnym i same ceny Tableau, Qlika czy Power BI są do siebie zbliżone. Niuanse zaczynają się w przypadku dużej skali. To jest koszt rzędu kilkuset złotych za użytkownika rocznie. To nie są wygórowane ceny dla narzędzi, które pozwalają skutecznie podejmować decyzje. Tak więc tu też to się zmieniło. Ta rozmowa to nie miejsce na robienie porównania szczegółowego, nie podejmuję się tego, bo to zależy od układu w firmie, tego, jakie narzędzia ma obecnie firma i jak jest duża. Przykładowo: Power BI jest mocno związany z samym Microsoftem i strukturą office’ową, być może firma ma benefit wynikający z tego, że zaczyna używać Power BI. Przy dużych skalach i użytkownikach rzędu kilkuset czy kilku tysięcy te ceny się zrównują. Dużo jest różnych niuansów, które trzeba wziąć pod uwagę w przypadku kalkulowania ceny.

Ł.K.: To mamy już taki orientacyjny koszt za użytkownika.

P.R.: Kilkaset złotych rocznie za usera. Wszystkie te rozwiązania mają ten koszt.

Ł.K.: Wspomniałeś o różnych elementach, o które trzeba zadbać przy wdrożeniu. Jaki aspekt jest zwykle najtrudniejszy w tym wszystkim? Powiedziałeś, że trzeba zidentyfikować cel firmy, KPI, które chcemy zrealizować, wymyślić wizualizacje, zebrać dane, porobić integracje z innymi systemami. Co podczas wdrażania u różnych klientów jest najbardziej czasochłonnym czy najtrudniejszym elementem?

P.R.: Myślę, że nie ma tu jednej reguły. Do tej pory najbardziej czasochłonny był zwykle ten element związany z przygotowaniem danych do analizy, bo jednak te dane skądś trzeba wziąć. Tableau i pozostałe produkty dają możliwość podłączenia się do wielu źródeł danych, takiego prostego, bez wybierania i programowania. Możemy podłączyć się do SQL Servera czy innego źródła danych i te dane analizować już ad hoc. W zadziwiająco dużej ilości przypadków to działa, natomiast w większych organizacjach zdarzają się i są istotne te elementy związane z przygotowaniem tego modelu danych. I on ma wiele kroków, wiele różnych źródeł danych, wiele wyjątków, wiele logiki jest tam w środku zachodzi. I do tego są używane inne narzędzia. My akurat mamy u siebie ten Alteryx, który świetnie nadaje się do modelowania danych i procesowego podejścia do ich przygotowania. I to potrafi być czasochłonne. Wbrew pozorom same przygotowania dashboardów, jeżeli firma się na nie zdecyduje, również zabiera czas, np. wiele tygodni. To jest związane z tym, że taki dashboard zawiera różnego rodzaju elementy, które są kalkulowane, zależą od siebie, i które trzeba odpowiednio przygotować. Ten układ graficzny również wymaga uwagi. Natomiast jeśli miałbym oceniać, który z tych elementów jest najbardziej czasochłonny, to jednak to przygotowanie danych do analizy.

Ł.K.: Koncentrując się na samej wizualizacji danych, padło tu hasło: „wizualna analityka danych”. Czy to jest wg ciebie bardziej techniczne zajęcie, w którym trzeba przygotować jakieś dashboardy i spiąć je różnymi źródłami danych, coś oprogramować, żeby wliczały się tam poszczególne rzeczy, czy to jest bardziej kwestia sztuki wizualizacji, żeby to wyglądało atrakcyjnie, niosło te informacje, które powinno nieść, i było zrozumiałe dla użytkowników, czy widzisz to jeszcze inaczej w takim całościowym aspekcie architektoniczno-programistycznym, w którym trzeba przewidzieć sprawność całego systemu, i to jest dla ciebie najważniejszy element takiego wdrożenia?

P.R.: Przede wszystkim musimy wiedzieć, że te narzędzia, które teraz są, całkowicie wspierają wizualizację. Czyli tu nic nie trzeba programować, po prostu klikamy i mamy tę wizualizację. Podstawowe elementy, szczególnie w Tableau, ta cała metodyka wizualizacji, zachowania atrybutów jest zaimplementowana, czyli nic nie musimy programować, skupiamy się wyłącznie na raportowaniu. To, co nas interesuje, to jakie miary, wymiary mamy wyświetlać. Jeśli ewentualnie musimy coś skalkulować, zaprogramować, to tylko rzeczy związane z danymi, a nie samą wizualizacją. Czyli można powiedzieć, że działa to jak z pudełka, działa to fajnie i nie wymaga dużo pracy. To jest taki core, czyli podstawa tego, co uzyskujemy z tych narzędzi.

Na drugim krańcu jest to, co nazwałeś „sztuką samą w sobie”. Jeśli ktoś chciałby się zainspirować, to polecam takie miejsce jak Tableau Public. Są tam publikowane wizualizacje robione przez użytkowników na całym świecie, z różnych obszarów: biznesowych i niebiznesowych. One są publiczne, zrobione w Tableau, można je ściągnąć, skopiować, podłączyć swoje własne dane, zainspirować się, zmodyfikować. Świetne źródło gotowych projektów. Natomiast pewna część prac, które tam trafiają, to takie minidzieła sztuki. U nas w biurze na ścianach znajdują się wizualizacje, zrobione w Tableau, wydrukowane na dużych posterach – są takimi obrazami, które niosą w sobie historie związane z danymi. Nasi pracownicy czy goście często się zatrzymują i na nie patrzą. Tak więc jest to pewien rodzaj sztuki. Żeby uzyskać taki końcowy efekt, trzeba włożyć w to dużo więcej pracy i mieć troszeczkę duszy artystycznej czy koncepcji, wizji, jak to zrobić. To jest taki drugi biegun. Natomiast ze strony biznesowej nic nie musimy tutaj programować, to po prostu wynika z funkcji tych narzędzi, które mamy.

Ł.K.: Powiedziałeś, że same wizualizacje mają w sobie potencjał sztuki, ale czy w tym wszystkim też można znaleźć dobre praktyki, opracowane sposoby na to, jak poszczególne dane najlepiej wizualizować, żeby to dawało odpowiedni efekt, czy jest to czysto artystyczna działalność od przypadku do przypadku?

P.R.: Wszystkie plakaty opowiadają pewną historię związaną z danymi, czyli to jest rodzaj analizy danych, przedstawionej w ciekawy sposób, który przykuwa użytkownika. Jeden z klasycznych przykładów pochodzi jeszcze sprzed czasów technologicznych, jest to wizualizacja kampanii wojsk Napoleona na Rosję, którą narysował Charles Minard (połowa XIX w.). Przedstawia ona w formie mapy inwazję wojsk na Rosję i odwrót, i różnego rodzaju dramatyczne punkty, typu przeprawa wojsk przez Berezynę, podczas której zginęło 10 tys. żołnierzy. Generalnie jest to taka ikonografika związana z danymi, która przedstawia pewną historię, równie dobrze mogłaby być przedstawiona w formie tabeli, ale nikt by się przy niej nie zatrzymał. Większość z tych ikonografik z dashboardów czy analiz przedstawia pewną historię związaną z danymi. Do tego są użyte takie podstawowe elementy, jak słupki, bar charty czy wykresy liniowe, ale również ikony, obrazy, mapki, rzeczy ze świata realnego. I kombo tych elementów sprawia, że to jest ciekawe, rodzi zainteresowanie, refleksję i chęć dalszej analizy danych; taka jest też tego funkcja. Jeśli chodzi o metodykę czy najlepsze praktyki wizualizacji, to jest kilka takich klasycznych atrybutów, np. słupek, wykres liniowy itd., ale oczywiście takich graficznych wariacji jest wiele i można to uzupełniać o ikonografiki, tak żeby to było ciekawe i jednocześnie przekazywało informacje.

Ł.K.: Kto takie wizualizacje potrafi robić? Wspomniałeś, że prowadzicie warsztaty, że klienci sami się dokształcają, bo chcą to umieć robić dobrze. Powiedziałeś też o studiach; jako Sages współprowadzimy taki kierunek dotyczący wizualnej analityki danych, który od października rusza na Politechnice Warszawskiej. Jakie tutaj kompetencje są potrzebne i ile czasu potrzeba do tego, żeby je zdobyć?

P.R.: Wrócę do tego, co powiedziałem odnośnie tej rewolucji w narzędziach. Otóż to są narzędzia, które służą do szukania odpowiedzi w danych, a więc użytkownikiem, który ma takie potrzeby, jest ktoś, kto szuka tych odpowiedzi w danych. Ma do podjęcia jakąś decyzję, np. biznesową lub osobistą, i najlepiej podjąć ją na podstawie danych, a nie intuicji. I to jest podstawowe kryterium. Absolutnie nie są to narzędzia, które wymagają wiedzy technicznej, czyli nie trzeba być programistą, konsultantem wdrożeniowym, wystarczy podstawowa umiejętność pozwalająca na użycie Excela (Tableau to taki nowoczesny Excel).

Jeśli chodzi o to, ile czasu trzeba się uczyć, to my mamy na Politechnice warsztaty w wymiarze 16 godzin, czyli niedużo. Udostępniamy studentom podstawowy kurs on-line dotyczący naszych narzędzi, trwający 40 godzin i poruszający różne aspekty. Te 16 godzin wystarczy do tego, żeby używać tego narzędzia, rozpocząć pracę. Natomiast biegłość czy doświadczenia zyskuje się w boju, pracując na konkretnych przypadkach, analizując dane, szukając w nich odpowiedzi, im dłużej, tym lepiej. Jest wiele różnych przypadków z życia.

Gdzie można się nauczyć? Oczywiście na naszych studiach na Politechnice, ale też jest wiele informacji dostępnych on-line. Wszystkie te narzędzia są otwarte, szczególnie Tableau ma olbrzymie community. Nawet po polsku. My od wielu lat tworzymy treść merytoryczną związaną ze szkoleniami, jeśli ktoś miałby ochotę, to zapraszam na nasze strony. Jest tam wiele materiałów szkoleniowych, na stronach Tableau czy innych jego partnerów międzynarodowych. Mamy wiele kursów i przykładów. Można również skorzystać z Tableau Public, w którym użytkownicy publikują swoje raporty, chwalą się nimi. Wybór zależy od tego, kto ma jakie preferencje w trybie nauczania. Ja akurat lubię uczyć się sam, więc odpowiada mi, jak te materiały są dostępne lub można je kupić i samemu przerobić. Robimy kursy, warsztaty w różnych tematykach. Można skorzystać z oferty studiów Politechniki. Ta oferta zresztą jest dużo szersza, ona nie dotyczy tylko Tableau, ale również innych narzędzi do analizy danych w mniej lub bardziej skomplikowany sposób. Tak więc do wyboru, do koloru.

Ł.K.: Czy na podstawie doświadczenia we współpracy z różnymi firmami i wiedzy o tym, jakie kompetencje są przekazywane m.in. na takich studiach, możesz określić, jakie role mogą pełnić w firmach osoby posiadające te kompetencje? I odwrotnie: jakie role pełnią osoby, które zajmują się w firmach rozwijaniem tego rodzaju rozwiązań opartych na wizualnej analityce danych? Czy to są analitycy, specjaliści od data science? Jak to widzisz ze swojej perspektywy?

P.R.: Wydaje mi się, że to zależy od wielkości organizacji. W dużych firmach, takich jak telco, z którymi współpracujemy, są zwykle działy analiz, w których pracują analitycy. Jest ich tam np. 50 i odpowiadają oni za różne obszary, którymi się zajmują, wykorzystując w nich narzędzia typu Tableau. Czyli jest to analityk danych – bardzo modne, bardzo sexy zajęcie i intratne w dzisiejszych czasach, tak więc polecam, gdyby ktoś planował ścieżkę kariery w tę stronę. Data science jest tu też taką pozycją, która jest właściwa. Te dane, które wcześniej przygotujemy, trzeba w jakiś sposób analizować. Samo Tableau i te pozostałe narzędzia, które wspieramy, również ma takie podstawowe funkcjonalności związane z zaawansowaną analityką danych, typu regresja, klastering, forecasting, to wszystko jest jakby gotowe, nie trzeba tu specjalnie nic programować.

W mniejszych firmach, jak np. nasza, ja mam potrzeby związane z analizą danych i robię to bezpośrednio. Nie mamy tu działu analityków, tylko praktycznie każda osoba, która chce, ma dostęp do przygotowanych, predefiniowanych źródeł danych i może je w jakiś sposób analizować. W szczególności wszystkie decyzje, które podejmują czy raportują nasi menedżerowie, są poparte jakimiś analizami w Tableau. Czyli bezpośrednio osoby, które zajmują się merytorycznie czym innym. Przykładowo: szefowa marketingu czy sprzedaży bezpośrednio analizuje dane w Tableau. Tak więc również takie osoby, które nie zajmują się tylko analityką danych sensu stricto, tylko potrzebują pewnych informacji, chcą podjąć decyzje, chcą mieć dostęp do danych, w związku z tym potrzebują tych narzędzi do tego, żeby te dane przeanalizować, również mogą być beneficjentami czy użytkownikami tego typu narzędzi.

Ł.K.: Czy na koniec chciałbyś przekazać coś naszym słuchaczom w kontekście tego rodzaju usług, np. dla tych, którzy wahają się, czy warto się tym zainteresować? Czy coś ostatnio zmienia się w kontekście trendów w tym obszarze? Powiedziałeś, że była tu duża rewolucja w kontekście Tableau, które zmieniło rynek. Czy są takie zmiany, które powodują, że warto patrzeć w stronę nowych firm, nowych rozwiązań?

P.R.: Tak, dwie sprawy na podsumowanie. Pierwsza dotyczy trendów. Gartner czy inne organizacje, które badają rynki, bardzo stawiają na coś takiego, jak inteligentne analizy. Czyli te narzędzia, które mamy obecnie, już teraz dają możliwość analizowania danych w sposób automatyczny, również z uwzględnieniem np. NLP, czyli zadawanie pytań do danych w języku naturalnym. Czyli tak jak Google pytamy „Czy jutro będzie ładna pogoda?” i Google odpowiada nam: „Jutro będzie tyle i tyle stopni”, tak samo możemy zadać pytanie naszym danym, np.: „Jaki był najlepszy klient w czwartym kwartale 2020 r. w regionie wschodnim?”, i otrzymamy odpowiedź. Tego typu przekształcenie interfejsów urządzeń, które służą do analizy danych, jest przewidywane – i to już się dzieje, Tableau ma coś takiego wbudowane, można z tego korzystać, działa to coraz lepiej i z pewnością spowoduje poszerzenie ilości użytkowników, którzy korzystają z tych danych. Bo jeżeli do danych będzie można zadać pytanie w języku naturalnym i uzyskać odpowiedź, to zniknie tu w ogóle ta bariera potrzeby nauki, wdrażania czy warsztatów. To jest przyszłość i to się dzieje. Te narzędzia zawierają coraz więcej zaawansowanej analityki, która jest dostępna w prosty dla użytkowników sposób. Rzeczy zaawansowane, wymagające kiedyś programowania w Pythonie, teraz są na wyciągnięcie ręki i stały się standardem.

Podsumowując, chciałbym zachęcić do tego, żeby rozważyć podejmowanie decyzji jednak na podstawie danych, a nie intuicji, czyli żeby sięgnąć do tych danych, spróbować takich narzędzi, jak Tableau, które są proste, podłączyć się do własnego źródła danych i poszukać tej odpowiedzi w danych. Bo moim zdaniem te decyzje, biznesowe czy osobiste, są najlepsze. I zadziwiająco często jest tak, że intuicja może nam podpowiadać coś innego, szczególnie w takich nieoczywistych przypadkach. Tak więc analizujcie dane i podejmujcie decyzje na ich podstawie. A jeżeli to będzie w Tableau, to super, może się gdzieś spotkamy, czy na szkoleniach, czy w biznesie.