piątek, 24 stycznia 2014

Komunikat o Studiach Podyplomowych "Excel w controllingu dla zaawansowanych"

Zakończyliśmy właśnie zajęcia na drugiej edycji Studiów Podyplomowych:

MS Excel w controllingu dla zaawansowanych

To nie jest reklama. To uprzejma informacja dla wielu zainteresowanych i pytających. :)
Kto pierwszy raz i nie wie o co chodzi, podaję linki.

Studia specjalistyczne analityków biznesowych. Teoria i praktyka. Część I

Trzecia edycja trwa już od października.

Zapisy na edycję czwartą zostały zakończone z braku miejsc. Rusza od marca.
(przyp.10.03.2014: już ruszyła. Odbyły się dwa weekendowe zajęcia. Świetna grupa :) )
Wobec dużego zainteresowania, postanowiono uruchomić edycję piątą!
Rusza od kwietnia. Są jeszcze miejsca.

Edycja warszawska ciągle jeszcze się waha. Czy wejdziemy na teren  lwa (żeby nie mówić o jaskini)? Proszę śledzić dalsze komunikaty...

Nie jest to sytuacja zwyczajna na Studiach Podyplomowych. Było kilkadziesiąt projektów. Ruszyło osiem. Nasz projekt jest jednym z najbardziej obleganych. Czy może gdzieś jest łatwiej?
Jak na "byle co", (określenie pewnego trolla z cenzusem na znakomitym GL o naszej koncepcji i o naszych kompetencjach) to chyba nie byle co?

Tylko kilka zdań refleksji

Fascynująca Przygoda

W tej naszej "przygodzie ze Studiami" zasmakowaliśmy czegoś fascynującego, co składa się na rzetelną działalność akademicką.

W kontakcie ze słuchaczami Studiów, o wyższej, niż studenci, samoświadomości, z ludźmi, którzy mają już doświadczenia łączenia wiedzy i praktyki, doskonalimy przekaz, pogłębiamy samo - rozumienie naszej koncepcji.
Przypomnę - architektury SOA - oraz procesu excelocentrycznej, profesjonalnej analizy w tej architekturze - z dodatkową warstwą danych, należącą do analityka.

Weryfikujemy jej sensowność i przydatność w warunkach dużych firm, które albo mają system raportowy (tzw.BI) albo "tylko" system ERP.
Poprzez konkretne, praktyczne zastosowania - dostrzegamy nowe aspekty naszej "teorii".
Chyba na tym polega praca na uczelni? Muszę o tym jeszcze podyskutować z naszymi kolegami - akademikami. Bo niby już to wiedziałem, ale teraz to mnie znowu zafascynowało.

Dla mnie osobiście wielką pomocą są rozwiązywane "zadania domowe".
Jeśłi już się wynuka ich przysłanie. Nigdy 100% uczestników. Ale większość. Po trudach.
Trzeba popracować nad formami nacisku...

To lustro mojej "dydaktycznej siły rażenia".
Niespodzianki, że to, co dla mnie było oczywiste, budzi powszechne trudności.
Możliwość oceny, gdzie się kończy sztampa, a zaczyna samodzielne myślenie.

Zaskakujące zastosowania typowych, zdawałoby się problemów.
Trudne, wymagające wiele nakładu pracy własnej i konsultacji dodatkowych, ale efektywne i efektowne koncepcje, podejmowane przez niedocenionych słuchaczy.  Które materializują się  w proces przełomowy dla firmowej analizy. I budzą prawdziwą satysfakcję zarówno dydaktyka, jak i słuchacza. To jednak już rzadkość, godna oryginalnej, o pracochłoności wyższej od przeciętnej, pracy dyplomowej.
"Nareszcie poczułem możliwości"
Przyjemne i "kontrowersyjne" są prośby o przysłanie gotowych rozwiązań.
"bo muszę to szybko zastosować w firmie". 
Wtedy dusza dydaktyka cierpi, bo słuchacz powinien to już umieć, i walczy o lepsze z duszą "wynalazcy", szczęśliwego, że wynalazek jest tak upragniony.


"Efekt dydaktyczny"

Dlaczego w cudzysłowie? Bo to jest efekt u prowadzącego, nie u słuchacza. Coś komuś tłumacząc, lepiej precyzujemy pojęcia, dostrzegamy, co jest ważne a co nieistotne.

Nasi słuchacze nie tylko słuchają i rozumieją nasz tok rozumowania i "teoryzowania".
Oni mają swoje konkretne, profesjonalne potrzeby, które wyrażają na przerwach zajęć i w e-mailach.
My też się od nich uczymy.

Excel, jako konkurent biajów, czy partner?

Nasi przeciwnicy twierdzą, że ani jedno, ani drugie. Excel - to getto. Trzeba się jak najszybciej wydostać. I wejść do świata profesjonalnej analizy.
A my?
Kolejny raz potwierdziliśmy nasz ogląd sytuacji: "wszyscy robią analizy w Excelu", korzystając, zarówno ze źródeł danych z eksportów z systemów BI, z systemów ERP, jak i z innych, zupełnie dowolnych.

Nie wyklucza to wykorzystania przez menadżerów raportów generowanych przez systemy raportujące, przygotowane najczęściej przez samych dostawców bi - ajów. Drogie, trudne w modyfikacji, czasem zresztą działające w zbyt długim cyklu odświeżania, jak na potrzeby bieżącej analizy.

Ale ta frekwencja i atmosfera na zajęciach mówi za siebie.
Można to też zanegować:
Na moją opinię:
Na Studia przychodzą tylko tacy, którzy to rozumieją.
Widzą nieakceptowane braki środowiska analizy i swoje trudności w zmianie tego stanu rzeczy.
Te trudności chcą usunąć przez podwyższenie swoich kwalifikacji. Kończą studia usatysfakcjonowani. Przynajmniej niektórzy, zwłaszcza tacy, którzy przyłożyli się na zajęciach.
Zapytają ci, co negują i hejtują:

Ale może inni, nie tyle nie rozumieją roli Excela w analizie, ile rozumieją, że ta rola nie jest tak ważna?

Nie rozstrzygajmy tego. My się zajmujemy tymi, którzy się z nami zgadzają i im chcemy pomóc.
Reszta niech sobie pomaga na swój sposób. Prawdopodobnie "sama sobie szkodzi" grzęznąc w exceliozie. Ale to legalne.
Na ich nawracanie przyjdzie czas, kiedy "partia rozsądku" zdobędzie wyższą pozycję i wyjdzie z "getta excela".

czwartek, 9 stycznia 2014

Technologia OLAP dla analityków (4)

Architektura analizy z Excelem w roli głównej

Praktyka Dzisiaj

Jaka jest teraz, dzisiaj rola Excela w analizie - to wie dobrze każdy analityk, mający szczęście współpracować z jakimś systemem bi – aj. Opisałem to tutaj.  A także jeszcze gdzieś, w formie rozwiniętej, pasjonującej historyjki. Prosto z życia. Tam.

Najpierw musi coś zrobić w swoim bi-aju. A potem?
1)      Potem – dostęp tylko w interface’ie (kontrolce) tabeli przestawnej bi – aja. Własnej kontrolce bi - aja. (…).
2)      Jak analityk koniecznie chce, to może zawsze użyć innej kontrolki - „Excel”. (czyli „Export do Excela” przyp KR, żeby pewien czytelnik zrozumiał, że Excel nie jest wprawdzie kontrolką, ale istnieją kontrolki „Excel” :) ) (…). Wówczas analityk otrzyma w Excelu piękną tabelkę prostokątną, z nagłówkami, której postać wynika z tego, jak obsłużył „kontrolkę” TP w (…) bi-aju.
3)      Jak wejdziemy w szczegóły, to się okaże, że musi jeszcze wykonać mnóstwo czynności, które równają się ciągnięciu wózka inwalidzkiego po błocie. Ale później?
Później może już w Excelu robić, co chce.

Taka jest powszechna praktyka we wszystkich znanych mi firmach. Moi polemiści żądają dowodu.  Dostarczę go natychmiast, gdy oni dostarczą mi dowodu, w formie wzoru z całką potrójną, na fakt, że woda jest mokra.

No dobrze. Tak jest dzisiaj. Ale na początku tak nie było.

Praktyka z wczoraj i co się z nią stało

Opiszmy, jak to widział Microsoft, jeszcze pod wodzą Billa Gates’a.
Zacytujmy oficjalne opracowanie Microsoftu o hurtowniach danych z roku 2000:
Microsoft oferuje następujące narzędzia do budowy systemów wspomagania decyzji: serwer OLAP, usługi PivotTable, OLE DB, DTS, (…), Office 2000 i Microsoft Repository.
(…)
Składniki Office 2000, takie, jak Excel, umożliwiają przeglądanie danych kostki w arkuszu kalkulacyjnym. Można także napisać kod Visual Basic for Applications (VBA) i stworzyć moduły programowe dla uzyskania danych i manipulacji nimi, co umożliwia tworzenie własnych interface’ów dla hurtowni danych.

W jaki sposób miał się odbywać ten dostęp  do hurtowni? Czy to może zupełnie przebrzmiała sprawa sprzed półtorej dekady i nie ma co do niej wracać?
W tej samej publikacji Microsoft ogłasza:

API OLE DB jest podstawą uniwersalnego dostępu. Interface OLE DB może być używany przez aplikacje baz danych dla dostępu do każdego typu danych posiadającego dostawcę OLE DB. (…)
ActiveX Data Objects (ADO)  jest narzędziem, które pozwala programistom Visual Basic na dostęp do interface’u OLE DB.

Czy te enuncjacje były jakąś rewelacją w owym czasie? Nawet wówczas nie. Były konsekwentną realizacją polityki MS w zakresie dostępu do baz danych dla użytkowników Excela. 

Standard OLE DB został ogłoszony przez MS w roku 1992, wraz z innym standardem – ODBC. Standard ODBC został wprowadzony do Excela w wersji 5 (rok 1995), wraz z dodatkiem MS Query.

Rewelacją było co innego. W roku wydania omawianej publikacji standard OLE DB został wprowadzony jednocześnie z serwerem MS SQL 7.0 do Excela 2000. Wraz z procedurą tworzenia offline’owych kostek OLAP!

Microsoft dokonał rewolucji, prawie niezauważonej. W każdym razie nie było żadnego materiału w tefałenie. 
W kilku gabinetach jednak na pewno odbyły się nerwowe narady. Potwornie drogie systemy analizy wielowymiarowej, wielkie serwery analityczne i elitarne procesy OLAP zyskały niemal darmowego konkurenta. 
Każdy użytkownik Excela mógł podłączyć się do kostki OLAP wystawionej na stosunkowo niedrogim serwerze MS SQL. Ba, mógł sobie sam wyprodukować kostkę OLAP na swoim PC-ie dysponując programem MS Excel 2000 wartości 500 dolarów. Wydawało się, że Microsoft dokonał kolejnego wyłomu w samozwańczych „świątynnych twierdzach” informatycznych. 

Zdemokratyzował profesjonalną analizę biznesową. Tą drogą szedł jeszcze kilka lat, doskonaląc analityczne funkcjonalności Excela w wersji 2003. Potem, po odejściu Gates’a ta konsekwentna linia rozwojowa, załamała się w połowie lat 2000 –nych. Jednym z sygnałów odwrotu było wyłączenie kreatora kostek w wersji Excela 2007 a także regres w istotnych dla dostępu do danych funkcjach serwera MS SQL 2008.

Jaka może być hipoteza wyjaśniająca, dlaczego ta linia rozwojowa się załamała?
Może to, że Microsoft poważnie zagroził interesom biznesu analiz? Wówczas właśnie nastąpiła „odpowiedź” w postaci systemów Bi Aj? A w Microsofcie nastąpiła akurat, pechowo, zmiana warty?

Wracamy do dnia dzisiejszego

Dzisiaj, zamiast napisać 
Składniki Office 2013, takie, jak Excel, umożliwiają przeglądanie danych kostki w arkuszu kalkulacyjnym”.

Musimy napisać: Najpierw musisz użyć bi-aja!

A potem?
Jak analityk koniecznie chce, to może zawsze użyć ( w bi-aju) innej kontrolki  - „Excel”. (…). Wówczas analityk otrzyma w Excelu piękną tabelkę prostokątną, z nagłówkami, której postać wynika z tego, jak obsłużył „kontrolkę” TP w (…) bi-aju.

Konsekwencje dziwnego rozwoju analizy

Tak właśnie prawidłowa, (albo, jak kto woli, genialna w swej prostocie i konsekwencji) koncepcja Microsoft’a, koncepcja architektury profesjonalnej analizy, w której Excel jest pełnoprawnym elementem, zintegrowanym ze środowiskiem przez standardy informatyczne, takie jak OLE DB, została sprowadzona do prymitywnej, tępej i egoistycznej koncepcji bi-ajków.

„Bądź naszym użytkownikiem, chcesz, czy nie. Ostatecznie możesz sobie wypluć coś do Excela”.

Kontrolka „Excel”, czyli miłościwie panujący klawisz „Export do Excela” zabiła „architekturę służebną” która udostępniała dane dla Excela „raz na zawsze” i zastąpiła ją „architekturą ochłapu”, rzucającą te dane, jak ochłap. I utrzymująca stan „karmienia”, czyli stałego uzależnienia.

W wyniku otrzymujemy podział świata analizy na dwie części, odcięcie analityków od głównego nurtu informatyki, skazanie ich na rolę outsiderów, obciachowych „użytkowników excelka”.

Konsekwencje tej sytuacji są negatywne i wielorakie.

Zamiast promowania efektywnych, profesjonalnych standardów, procesów i architektury wśród analityków, oferuje się im (za pośrednictwem ich zdezorientowanych szefów, omamionych przez specjalistów od sprzedaży) fałszywą alternatywę: albo – bi-aj albo pozostanie w zatęchłym „informatycznym slumsie exceliozy”. 

Analitycy się nie buntują. Robią swoje i biorą swoje. Jak im wdrożą bi-aja, dopiero się okaże, jak są potrzebni z tym swoim obciachowym excelkiem.

„Rządzą” tam - biegli w swoim rzemiośle „guru”, power-userzy, specjaliści od negocjacji z „bi – ludkami”, aby uzyskać jakiś „raport”, z którego „jakoś” się skorzysta w analizie. Im pozostają exporty, przeklejki i excelioza, czyli analityczne getto na obrzeżach bi-ajów z ich rzekomo jedynie profesjonalnymi raportami.

Ale co za różnica? Życie toczy się gdzie indziej.

Wnioski

Co wynika z tego opisu założeń architektury procesu analizy z przełomu wieków oraz jego konfrontacji z dzisiejszym podejściem?

I co mnie tak uderzyło w pełnej poczucia wyższości tyradzie wygłoszonej przez Pewnego Informatyka, specjalisty BI, do analityka, ciekawego świata i grzecznie zadającego pytania?

OLAP to technologia. (…) Nie ma możliwości i nie można tego porównywać bo to zupełnie inne bajki.

Otóż zdałem sobie sprawę, że mam do czynienia ze sceną symboliczną. Oto rozmawiają ze sobą, jak gęś z prosięciem, dwaj przedstawiciele tej samej dziedziny biznesu, tyle, że z różnych segmentów procesu, który obaj realizują. Te różne segmenty procesu zakładają wprawdzie różne kompetencje u każdego z uczestników, ale powinna występować przynajmniej wspólnota celów i zrozumienie wzajemnego uzależnienia.

A jaki obraz wyłania się z tej konfrontacji postaw?

Z jednej strony - postawa ciekawości i pokory. Wiadomo – obciachowy analityk. Nie tylko dobrze wychowany, ale zna swoje miejsce. Jest „tylko” analitykiem.

Z drugiej strony – pycha, przekonanie o swojej niewątpliwej kompetencji oraz o niekompetencji ludzi „z innej bajki” i …kompletne zagubienie celu swojej działalności.

Kompletnie inne bajki? Nie można tego porównywać? Absurd?
Tak, dokładnie tak. Może z wyjątkiem absurdu. Samo życie.


Koniec kłótni. Z mojej strony.

Technologia OLAP dla analityków (3)

Technologia OLAP – to takie proste

Powiedzieliśmy już, jaki CEL ma technologia OLAP. To technologia uzyskiwania danych w postaci najbardziej przydatnej do analizy biznesowej. 

Skrót OLAP oznacza OnLine Analitycal Processing, czyli, po prostu, przetwarzanie (danych dla celów) analizy na bieżąco.
Skrót ten powstał, jako odróżnienie od innego procesu, OnLine Transactional Processing (OLTP), czyli bieżącego przetwarzania transakcji. 

Przetwarzanie transakcji oznaczało systemy obsługi bieżącej działalności przedsiębiorstwa: wystawianie faktur, rejestrowanie płatności, ruchów w magazynie, księgowanie wszystkich zdarzeń gospodarczych. Na bieżąco.

Dodatek „na bieżąco” – to oczywiście chwyt marketingowy producentów tych systemów, a jednocześnie postulat funkcjonalny. Konkurencyjny biznes znajduje się pod presją czasu. Szybkość reagowania na zdarzenia jest krytyczna.

Dzisiaj termin ten, wobec wszechobecnej funkcjonalności „na bieżąco” ma już wyłącznie znaczenie historyczne. Podobnie z innymi wynalazkami. Skoro wszyscy mają komórki, nikt nie reklamuje „łatwej łączności na bieżąco”. Teraz ten środek łączności musi się odróżniać czymś innym. Na przykład – możliwością oglądania telewizji w autobusie, nie tyle na bieżąco, co na stojąco.

A w analizie biznesowej oczywiście taka presja też występuje. Stąd też ukuto analogiczny termin: OLAP. Ale co by nie powiedzieć, presja jest zdecydowanie mniejsza. Obliczenie KPI dla zestawu parametrów biznesowych, takich, jak produkt, najważniejsza grupa klientów, kwartał może być czasem sprawą gardłową. Ale chyba jednak rzadko. Najczęściej wykonanie tego zadania dopiero po wypiciu kawy będzie zupełnie wystarczające.

Systemy OLAP odróżniają się jednak od systemów OLTP również ważniejszymi cechami. Operują na danych w dużym zakresie czasu. W analizie nie tylko bieżące zdarzenia ale i historia jest ważna. Ponadto dane te powinny być dostosowane do szybkich odpowiedzi na różnorodne, często trudne do przewidzenia, pytania.

W systemach transakcyjnych (OLTP) transakcje są ściśle zdefiniowane już na etapie projektu. A więc sposób komunikacji z systemem jest wynikową tych definicji.

W systemach analitycznych (OLAP) – mamy chronologicznie gromadzone zasoby danych, które jeszcze nie są informacją przydatną do zarządzania. Projektant ma więc za zadanie stworzyć system, który efektywnie udostępni te dane. Co to znaczy – efektywnie? To znaczy – wygodnie i szybko. Tak, żeby zaspokoić potrzeby informacyjne kierownictwa nie wzbudzając ich zniecierpliwienia, ułatwiając im zarządzanie.

Jak to zrobić?
Punktem wyjścia jest … Tabela Przestawna. Mianowicie - trzeba te dane zorganizować w taki sposób, żeby mogły być szybko, najlepiej bezpośrednio, na bieżąco - wykorzystane przez Tabelę Przestawną. Pamiętacie? Miary i wymiary!

To rodzi potrzebę przetwarzania baz transakcyjnych do postaci bazy analitycznej, zwanej tradycyjnie Hurtownią Danych (HD) oraz do specjalnych obiektów analitycznych, zwanych kostkami OLAP. Niektórzy specjaliści BI rozdzielają te dwa obiekty (HD i kostki OLAP)na dwie warstwy danych analitycznych. My je będziemy traktowali, jako jedną warstwę danych analitycznych (WDA), składającą się z dwóch rodzajów obiektów: Hurtowni Danych (HD) i kostek OLAP.

Hurtownia Danych – to w naszym ujęciu - dane analityczne w formie relacyjnych baz danych. Bazy te są zorganizowane wokół tabel faktów, zawierających pola miar i pola identyfikatorów wymiarów. Za pośrednictwem tych identyfikatorów tabela faktów jest powiązana ze słownikami w strukturę gwiazdy (gdy każdy identyfikator wymiaru w tabeli faktów jest połączony ze słownikiem tego wymiaru) lub płatka śniegu (gdzie struktura tabel jest dużo bardziej swobodna).
To jest w istocie baza typu ROLAP czyli Relational OnLine Analitycal Processing.

Kostki OLAP – to coś w rodzaju konstrukcji przestrzennej, bardziej zwartej niż HD, a więc bardziej efektywnej, którą tworzy się właśnie z „szerokiej” tabeli (patrz tekst: Kłótnia….), utworzonej z kolei z tabeli faktów powiązanej ze słownikami.

Dlaczego kostka? Ponieważ można ją opisać, ograniczając się do przykładu trójwymiarowego, właśnie, jako kostkę albo układ sześcianów z podziałką. Wyobraźmy sobie przestrzenny obszar, którego trzy, wzajemnie prostopadłe wymiary,  są opisane np. kolejno - przez miasta, lata i produkty, tworząc podziałki miast, lat i produktów.

W jednym kierunku odznaczyliśmy: Warszawa, Wrocław, Opole; w drugim lata 2011,2012,2013, w trzecim Monitor X2011, Monitor X2012, Monitor X2013. Utworzyliśmy trójwymiarowy układ współrzędnych. Każdy punkt tej przestrzeni może być opisany przez ciąg wartości atrybutów: {Warszawa, 2011, Monitor X2011}, {Wrocław, 2012, Monitor X2013}, {Opole, 2013, Monitor X2012}….itd.

Powiedzmy, że każdy punkt powstały z przecięcia linii podziałek będziemy nazywać ciągiem. Ciąg – to po prostu lista trzech wartości trzech wymiarów: np. Warszawa, rok 2013 i monitor X2013.
Czy to już jest kostka OLAP? Jeszcze nie. Aby kostka OLAP była kompletna, potrzebne jest coś jeszcze. Jak pamiętamy - tabela faktów zawiera miarę. Każdej trójce wartości wymiarów przypisana jest jedna wartość miary.

Mamy więc ciąg i wartość miary dla tego ciągu. Czyli jeden element kostki OLAP.

Skończony zbiór wszystkich takich elementów, ciągów (list wartości wymiarów) oraz wartości miary dla danego ciągu – to właśnie kostka OLAP.

Taki obiekt – to zbiór uporządkowanych danych – a więc to chyba … baza danych? Tak, oczywiście,  jest to jest właśnie baza danych. Typu MOLAP czyli Multidimensional Analitical Processing.

Powiedzmy jeszcze, że kostki OLAP (a także bazy ROLAP) mogą oczywiście zawierać więcej, o wiele więcej, niż trzy wymiary. Np. …64 wymiary. Oznacza to, że szeroka tabela ma wówczas 64 pola wymiarów, a kostka ma punkty opisane ciągiem 64 wartości wymiarów.

Technologia OLAP może być opisana, jako zespół dwóch komponentów: (1)aparat zasilający  warstwę danych analitycznych WDA i (2) platforma analizy danych z warstwy DA.

Najbardziej zaawansowaną i wszechstronną platformą analizy danych jest właśnie Tabela Przestawna, stanowiąca specjalny obiekt Excela, tej najbardziej zaawansowanej, najbardziej efektywnej i najbardziej popularnej platformy analizy danych.

Podsumowując: technologia OLAP jest więc zestawem metod i technik analizy danych, podporządkowanym celowi – efektywnej analizie danych dostarczającej informacji potrzebnej do zarządzania.


czwarta część cyklu o technologii OLAP

Technologia OLAP dla analityków (2)


Geneza technologii OLAP i …Tabeli Przestawnej

W pierwszej części „Kłótni …”, która to część była w istocie wprowadzeniem do trudnych (ale bez przesady, wszystko to jest dla ludzi), informatycznych problemów technologii OLAP, opisaliśmy dobroczynne funkcjonalności Tabeli Przestawnej dla analityków.

To punkt wyjścia do rozważań o technologii. Żeby dobrze zrozumieć jej sens, najlepiej prześledzić, po co i jak ta technologia się rodziła.

Tabelę przestawną wynalazł Amerykanin z Cambridge, Massachusetts,  Salas Pito na przełomie lat osiemdziesiątych i dziewięćdziesiątych. Zauważył on, że znajdująca się w arkuszu elektronicznym tabela danych, jeśli ma odpowiedni układ, jest gotowym wzorcem danych do analizy. Analizę można przeprowadzać przez m a n i p u l o w a n i e  czyli - przenoszenie myszką w odpowiednie miejsca nazw kategorii, co jest najszybszym sposobem zmiany modelu analizy.

Koncepcja Pito została przez firmę Lotus wdrożona na platformie Windows w 1993 roku w arkuszu elektronicznym 1-2-3. Niedługo potem, Microsoft opracował swoją implementację tabeli przestawnej do Excela w wersji 5.

Od chwili swego powstania, tabela przestawna przeszła burzliwy rozwój i okazała się dużo bardziej efektywnym narzędziem analizy, niż języki definiujące modele danych, które były żmudnie tworzone przez ostatnich 20 lat.

Powtórzmy:
Tabela Przestawna służy do:
·        wieloaspektowej, wielowymiarowej i hierarchicznej analizy 
·        wszystkich dostępnych cech 
·        pewnego zbioru faktów.
Specjalista od inteligentnego klikania myszą może więc w ciągu paru minut uzyskać jeden z kilku, kilkunastu czy kilkudziesięciu wariantów – kombinacji cech faktów opisanych sumami wartości ich miar dla tych faktów.

Pozostał problem z efektywnym wprowadzaniem danych do arkusza. Na początku w wielu firmach wprowadzano je po prostu ręcznie. To było jednak nie do zaakceptowania. 

I tutaj zaczyna się ta "całkiem inna bajka".

I co z technologią OLAP, tą rzekomo całkiem inną bajką?

W tym samym czasie, czyli w połowie lat dziewięćdziesiątych ubiegłego wieku rozwijała się koncepcja hurtowni danych oraz ich wielowymiarowa analiza.  Prowadzona przy pomocy skomplikowanych metod, potężnych maszyn liczących i ogromnych nakładów finansowych, na które stać było tylko bogate firmy.
Przynosiło to jednak korzyści usprawiedliwiające wielkie przedsięwzięcie.

Technologia OLAP to po prostu metody, techniki i narzędzia pozyskiwania danych. Po co?
Do analizy. W tabeli przestawnej. Analizy danych „uszlachetnionych”, odpowiednio skompresowanych i zdatnych do bezpośredniego „spożycia” w dalszym procesie – procesie analizy.

Nie tylko w tabeli przestawnej. Nawet nie tylko w Excelu. W Excelu można te dane analizować na najróżniejsze sposoby. W architekturze SOA. Lub w architekturze MOA (błota). Elastycznie, szybko, skutecznie. To jest Excela przewaga konkurencyjna. I źródło zgryzoty producentów systemów raportujących bi – aj. 
Ale skupmy się teraz na głównym nurcie. Od OLAPu do TP.

Technologia OLAP to właśnie skojarzenie tych dwóch wynalazków: hurtowni danych i tabeli przestawnej.

W końcu dwudziestego wieku Tabela Przestawna została  uzupełniona, można powiedzieć – obdarzona - zaawansowanym, najnowocześniejszym na owe czasy oprogramowaniem, całą technologią, która służy zasileniem tejże Tabeli w zawsze aktualne fakty, bogate w atrybuty i miary.

Spotkały się dwie bajki, które były bajkami niedoskonałymi i złączyły się w bajkę – światowy hit.


Ale pamiętajmy: Tabela Przestawna jest pointą tej nowej bajki. Jej bajka otworzyła tamę do burzliwego rozwoju analizy i jest teraz źródłem innych, już nie tak pasjonujących, przynajmniej dla analityka, ale za to bardzo intratnych dla ich autorów bajek. 
Dla nowych bajkopisarzy, którzy swoje bajki promują.

Ale to jeszcze nie koniec!

 Wydawnictwo Helion - pliki przykładów z wydanych książek informatycznych, jak ściągnąć? Wpis nie sponsorowany Helion wydaje ważne dla mnie ...