Repozytorium analityczne


Proste narzędzie do trudnych dyskusji

Opracowanie to przybliża zagadnienia związane z powołaniem do życia repozytorium analitycznego i zarządzaniem jego życiem. Podejmę również próbę opisania scenariuszy definiujących przyszłe kierunki rozwoju narzędzi analitycznych.

Kluczową tezą niniejszego opracowania jest stwierdzenie, że niezależnie od modelu projektowego i sposobu prowadzenia projektu – metodą zwinną bądź klasyczną – repozytorium analityczne i zawarte w nim informacje przedstawiają określoną wartość.

Wpływają na nią następujące czynniki:

  • przejrzystość oraz użyteczność zbieranych i przetwarzanych informacji;
  • łatwość dostępu i wyszukiwania informacji w repozytorium;
  • liczba osób zaangażowanych w codzienną pracę w repozytorium (TEAM – Together Everyone Achives More);
  • dostępność narzędzi podnoszących wartość i dostępność informacji zawartych w repozytorium analitycznym.

Dzisiejszy rynek oferuje wiele narzędzi Case do budowania repozytorium analitycznego. Warto, aby narzędzia te posiadały otwarte API i oferowały bogatą gamę dodatków, które mogą zwiększać atrakcyjność samych narzędzi Case, jak również decydować o ich uniwersalności – szerszym spektrum zastosowań.

Prezentowany przykład adaptacji narzędzia „Enterprise Architect” firmy SparxSystem udowadnia, że dobre narzędzie nie musi być drogie, a możliwości jego dostosowania do potrzeb zespołów wytwórczych są praktycznie nieograniczone. Repozytorium analityczne zbudowane na powyższym narzędziu – uzupełnionym o kilka dodatków – może stanowić świetne środowisko pracy nie tylko dla analityków, ale i całego zespołu wytwórczego. Co najważniejsze, każdy z członków zespołu znajdzie dla siebie narzędzia i techniki pozwalające utrzymywać katalogi informacji oraz modele użyteczne w codziennej komunikacji z pozostałymi członkami zespołu. Narzędzie dodatkowo zapewni (pomoże utrzymać) spójność tych informacji.

Najważniejszą cechą takich narzędzi jest fakt, że repozytorium zbudowane na ich bazie stanowi zalążek dla narzędzi wsparcia decyzji. Dobrze skrojone metamodele – bazujące na rynkowych standardach notacji, takich jak ArchiMate, UML czy BPMN – pozwalają zbudować model core’ owy (ang. core model). Pokrywa on swoim zakresem większość zagadnień związanych z modelowaniem i wytwarzaniem oprogramowania, począwszy od prostych modeli funkcjonalnych, a na zagadnieniach architektonicznych czy BCM (ang. Business Continuity Management) kończąc.

Na dziś brakującym elementem tego podejścia jest niska dostępność przyjaznych narzędzi do wizualizacji, które, na bazie informacji zbieranych w repozytorium, pozwalałyby prezentować punkty widzenia czytelne i zrozumiałe dla udziałowców realizowanych przedsięwzięć.

Wielowymiarowe ujęcie powyższych informacji w tak zdynamizowanym, a jednocześnie złożonym świecie, w jakim dziś funkcjonujemy staje się kluczowe dla poprawnej syntezy wniosków. Możliwość szybkiego dostępu do informacji, zaprezentowania jej w czytelnej i atrakcyjnej formie, wreszcie możliwość pracy nad uzgodnieniami w czasie rzeczywistym, wymiana poglądów, osądów oraz przenoszenie uzgodnień wprost do repozytorium – to dziś największe i najważniejsze wyzwania stojące przed nowoczesnymi narzędziami Case.

Dotychczas brakowało technologii, która pozwalałaby przenieść powyższe dywagacje w świat wielowymiarowych obrazów, prezentujących informacje z kilku obszarów jednocześnie, połączone z sobą siecią zależności. Już dziś architekci podejmują – często dość nieudolne, ale jednak – próby pokazania stopnia komplikacji zagadnień, z jakimi się mierzą – poszukiwania synergii działań domeny biznesowej i technologicznej. 

Architekci z firmy Rabobank podjęli wyzwanie, wykonując makietę modelu organizacji.

Kilku dostawców narzędzi architektonicznych czy też analitycznych podejmowało próby przeniesienia swoich modeli w przestrzeń trójwymiarową. Niestety żadne z nich do dziś nie przyjęło się na tyle, aby stanowić wzór czy wręcz wykreować standard.

Na szczęście pojawiają się nowoczesne technologie, które otwierają zupełnie nowe możliwości. Okulary wirtualnej rzeczywistości (VR), manipulatory przestrzenne do konsol gier takie jak Kinect, pozwalają „poczuć” informację, znaleźć się w świecie rodem z filmu „Iron Man”. Pojawiają się stoły holowizyjne, ekrany do prezentacji trójwymiarowych, rodem z produkcji filmowych takich jak „Star Wars” czy „Avatar”. Ta technologia staje się faktem, dlaczego więc z niej nie skorzystać?

Kadr z filmu „Avatar” J.Cameron

Aby korzystanie z informacji zawartych w repozytoriach i prezentowania ich w tak futurystycznej formie było jednak możliwe, potrzebne są solidne fundamenty – dostosowane do potrzeb, utrzymywane i rozwijane repozytorium analityczne.

Dobre repozytorium analityczne to takie, które:

  • zawiera tylko potrzebne informacje + minimum uzupełniających;
  • pozwala na łatwe i intuicyjne zarządzanie informacją (grupowanie – strukturalizowanie informacji, dodawanie, modyfikowanie, wyszukiwanie);
  • ułatwia dostęp do informacji – wyszukiwanie, współdzielenie, komentowanie (kolaborację);
  • pozwala na analizowanie zależności pomiędzy poszczególnymi grupami informacji;
  • ułatwia atrakcyjną i intuicyjną formę prezentacji dostosowana do czasów (spod znaku Like i Tweet);
  • zapewnia otwartość na dostosowanie do indywidualnych potrzeb poszczególnych interesariuszy w zakresie dostępu do informacji – otwarte API;
  • umożliwia integrację z standardowymi narzędziami rynkowymi, np. MS Office.

Trudno wskazać narzędzie, które spełnia te wszystkie kryteria, można jednak znaleźć narzędzia oferujące na tyle otwartą architekturę, aby bazując na dobrych tych fundamentach, brakujące funkcjonalności łatwo skonfigurować czy też dorobić na zasadzie konektorów, plug-in’ów lub integracji własnych rozwiązań.

Klasyczne repozytorium analityczne w modelu WaterFall

Przy wyborze narzędzia do zarządzania repozytorium warto stawiać na dobre fundamenty, czyli dostępność, intuicyjność oraz łatwość adaptacji wybranego narzędzia z innymi rozwiązaniami. Niejednokrotnie kwestia migracji potencjalnie istniejącego repozytorium do nowego narzędzia może pochłonąć mnóstwo zasobów i być najzwyczajniej nieopłacalna. W przypadku większych repozytoriów nie bez znaczenia pozostaje koszt pojedynczych licencji dostępowych do narzędzia – nie należy tego aspektu pomijać. Doświadczenie uczy, że nawet najlepsze narzędzie, wykorzystywane przez wąską grupę specjalistów, może skutkować efektem tzw. wieży z kości słoniowej. Powstaje wtedy repozytorium niedostępne dla szerszej grupy, utrzymywane przez wybrańców, a tym samym – repozytorium całkowicie bezużyteczne! Tylko współdzielenie informacji i wspólne jej rozwijanie daje szanse na powołanie repozytorium z prawdziwego zdarzenia, będącego jednym źródłem prawdy dla wszystkich zainteresowanych oraz narzędziem wsparcia decyzji, kluczowym w budowaniu i realizacji strategii biznesowej.

Skoro już mowa o strategii – najczęściej bazuje ona na bardzo wielu kategoriach informacji. Przy jej planowaniu należy uwzględniać nie tylko korelacje bloków budowlanych z poszczególnych domen architektury korporacyjnej, ale również projekcje w czasie, czyli dynamikę zmian w odniesieniu do poszczególnych punktów widzenia. Punkty widzenia powinny bazować na dobrych praktykach i doświadczeniu w prowadzeniu projektów w danej organizacji. Dla wizualizacji powyższych zagadnień polecam punkty widzenia opracowane w ramach specyfikacji ArchiMate.

Jak powołać repozytorium do życia?

Podstawą jest pomysł na to, jakie informacje powinny być utrzymywane, jak nimi zarządzać oraz – co najważniejsze – jak i w jakim celu korzystać z tej informacji? Podczas planowania metodyki zarządzania repozytorium należy mieć świadomość, że każda informacja ujęta w modelu niesie za sobą koszty związane z jej pozyskaniem, opracowaniem i utrzymaniem jej aktualności.

Kolejną istotną sprawą jest kwestia struktury informacji. Podobnie jak w przypadku hurtowni danych, gdzie struktura, kompletność, aktualność i adekwatność informacji są kluczowe dla jej użyteczności, tak w przypadku repozytorium analitycznego metamodel opisujący informacje w nim utrzymywane warunkuje ich przydatność oraz to, jakie wnioski na ich podstawie można będzie formułować.

Należy zatem zacząć od określenia roli, jaką repozytorium ma pełnić w organizacji oraz ewentualnego zakresu wsparcia dla procesów decyzyjnych. Trzeba również wskazać, jakie artefakty będą powstawały na bazie repozytorium i jak będzie wyglądał proces zbierania i utrzymania informacji zarządczej. Dopiero posiadając tę wiedzę, można przystąpić do planowania metamodelu, strukturyzowania informacji, definiowania relacji pomiędzy poszczególnymi elementami modelu, poszukiwania wzorców, inspiracji metodykami, standardami, poszukiwanie ram, w których dane repozytorium ma być osadzone.

Na koniec warto przygotować plan wdrożenia repozytorium, mocując odpowiednio tę inicjatywę w organizacji. Nie bez znaczenia będzie tu pozyskanie przychylności decydentów (im wyżej mocowani, tym lepiej). Warto też znaleźć sojuszników – ludzi, którzy uwierzą w szansę powodzenia tej inicjatywy, dostrzegą jej potencjał. Na koniec najtrudniejsza rzecz: przestrzeń dla wszystkich zaangażowanych w tworzenie repozytorium. Przestrzeń ta musi być rozumiana jako budżet i czas, a że czas to budżet…

Ewolucja, nie rewolucja

Proces musi być realizowany iteracyjnie, na zasadzie małych kroków. Najkorzystniej jest wdrożyć proponowane podejście na przykładzie małego projektu, pokazując dobitnie korzyści, które często niestety pojawią się dopiero w kolejnych iteracjach realizacji projektu i korzystania z repozytorium. Mamy tu do czynienia z efektem kuli śniegowej: kolejne iteracje projektu uzupełniają repozytorium o coraz to nowe informacje i asymptotycznie zbliżają do stworzenia kompletnej i aktualnej bazy wiedzy o realizowanych przedsięwzięciach.

Ostatecznie warto zadbać o szeroko rozumiany proces zapewnienia jakości informacji przechowywanych w repozytorium. Wprowadzanie metodyki wymaga powołania procesów kontrolnych, audytowych, kształcenia użytkowników repozytorium, utrzymania jego aktualności, ale i reagowania na pojawiające się coraz to nowe pomysły i potrzeby w odniesieniu do zbieranych informacji.

Rolą dostawcy metodyki jest również nadzór i asertywna postawa w odniesieniu do tzw. schizmatyków. W każdym procesie normalizacyjnym czy też regulacyjnym pojawia się naturalny opór przed zmianą. Nie należy z nim walczyć na siłę. Tylko systematyczna praca u podstaw może zapewnić sukces. Istotna jest tu elastyczność w odniesieniu do proponowanego podejścia. Informacja zwrotna od użytkowników repozytorium to najbardziej wartościowe narzędzie dla jego rozwoju. Konieczna jest równowaga pomiędzy forsowanym podejściem a rodzącymi się potrzebami jego modyfikacji w zakresie raz już przyjętych rozwiązań w ramach metodyki.

Pro publico bono…

Ostatnim etapem jest udostępnienie repozytorium – a ściślej rzecz biorąc tego, co ono oferuje – do powszechnego stosowania. Nie każdy musi znać UML, BPMN czy też inne standardy notacji stosowane w modelowaniu systemów. Należy więc znaleźć narzędzia do komunikacji pozwalające wyciągnąć – często mocno specyficzne – informacje z repozytorium i podać je w postaci zrozumiałej dla potencjalnych odbiorców.

I tu można napotkać pierwszy poważny problem: narzędzia Case dla zarządzania repozytorium zakładają jednak określony poziom kompetencji jego użytkowników. W tym momencie należy się odwołać do jednego ze wspomnianych już kryteriów przydatności – otwartego API. Jeśli dane narzędzie Case oferuje otwarte API, można znaleźć dedykowane narzędzia do zarządzania dostępem do informacji, jej zakresem i formą prezentacji i zintegrować te dwa byty. Przy wyborze takiego narzędzia cały czas należy mieć na uwadze odbiorców informacji, ich oczekiwania co do formy, ale też oczekiwania względem ich zaangażowania w kontekście dostępu do informacji zawartych w repozytorium.

Kadr z filmu „Iron Man 3” w reżyserii Shane Black’a.

W idealnym świecie narzędzie takie powinno serwować informacje pochodzące z repozytorium analitycznego w sposób zrozumiały dla wszystkich interesariuszy uwzględniając przede wszystkim tych biznesowych. Percepcja ludzi ze świata biznesowego znacząco różni się od optyki zawartej w repozytorium. Należy więc szczególnie zadbać o ograniczenie formy i zakresu prezentowanych informacji do tych wartościowych i niezbędnych z punktu widzenia danego odbiorcy.

Dostęp do informacji zawartej w repozytorium powinien być realizowany – o ile to możliwe – w czasie rzeczywistym, w zakresie i formie przewidzianych dla danego interesariusza projektu. Inną perspektywę będzie mieć reprezentant domeny biznesowej, inną – projektant systemu. Co ważne, obie grupy udziałowców muszą bazować na tych samych informacjach źródłowych. Tylko takie podejście gwarantuje spójność, rzetelność i kompletność prezentowanych informacji oraz uzgodnień podejmowanych na ich podstawie.

Innym dość ważnym aspektem w poszukiwaniu narzędzi do kolaboracji jest łatwość zarządzania dużym zakresem informacji. Obecnie funkcjonujące najczęściej dwuwymiarowe ujęcie informacji na zasadzie przyczyna – skutek, przestaje mieć rację bytu. Przeniesienie dywagacji w przestrzeń wielowymiarową otwiera zupełnie nowe możliwości. Można niejako „poczuć” informację, z którą dany użytkownik ma okazję się zetknąć, zrozumieć wielowymiarową istotę problemu, widząc ‚w jednym miejscu’ wszystkie skorelowane informacje z domen opisujących analizowane zagadnienie. Obszar ten do dziś nie jest zagospodarowany. Może już nadszedł czas, aby takie narzędzia się pojawiły?

 

W kolejnych opracowaniach w tym cyklu pojawią się przykłady zastosowania narzędzi Case w tworzeniu i utrzymaniu repozytorium analitycznego.

Planowane jest również omówienie przykładów zastosowania narzędzi do kolaboracji wspierających utrzymanie aktualności repozytorium analitycznego takich jak Jira, eaDocX, Prolaborate.

 


Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

2 komentarzy do “Repozytorium analityczne