Trendy w branży teleinformatycznej
Z okazji 30-lecia Polskiej Izby Informatyki i Telekomunikacji, Izba opublikowała na swojej stronie Raport „Trendy w branży teleinformatycznej”, który został też omówiony w tym numerze CRN. Ja zaś, w ramach felietonu pozwolę sobie na kilka komentarzy – może nie tyle krytycznych, co raczej odmiennych w treści od przyjętej poprawności biznesowej tego Raportu.
Opublikowany w w ograniczonej wersji w CRN nr 11/2023
Trzeba się zgodzić, że cyfryzacja gospodarki jest warunkiem jej dalszego rozwoju, a ta w Polsce przebiegała w miarę dobrze. Niestety pandemia, wojna w Ukrainie, inflacja i brak „skoordynowanej strategii cyfryzacji gospodarki” podziałał hamująco na ten rozwój. Pesymistycznie brzmi prognoza spadku o 0,5% wydatków na teleinformatykę w Polsce w tym 2023 roku.
Tu, tak na marginesie, chciałbym zwalczyć pojawiający się aż 21 razy w tym raporcie skrót ICT, który został do UE i do nas przywleczony z UK, w USA jest nieznany, a w Polsce jest mało zrozumiały (bo brzmi „Aj si ti" czyli "I see tea" - gdzie ta herbata?) – wystarczy nam termin „teleinformatyka”.
Podobnie jest z innym terminem – edge computing, który nie ma dobrego polskiego odpowiednika, a tym samym nie jest jednoznacznie rozumiany. A jest to przetwarzanie lokalne danych zbieranych lokalnie, które są następnie przesyłane do przetwarzania w chmurze. I zamiast mówić o obliczeniach brzegowych, poprawniej byłoby mówić o przetwarzaniu krawędziowym na styku lokalnego systemu informatycznego a siecią dostępu internetowego. Ale zostawmy to – polska terminologia teleinformatyczna jest moją fobią.
Powinniśmy popierać hasło (tytuł) „Przemysł 4.0. Najwyższy czas na cyfryzację”, bo niestety mamy tutaj tylko świetne hasło, bez konkretów. Kolejnym trudnym tematem jest cyfryzacja administracji publicznej.
Prawdą jest, że jakoś się informatyzuje - dała sobie radę z receptami, rejestracją szczepień, udostępnia usługi (np. opłacania podatków) przez internet (o mObywatelu i ePUAPie już pisałem), itd. - ale dalej wiele się musi jeszcze zmienić na zapleczu, gdzie jeszcze musi być papier z własnoręcznym podpisem. Dla firm teleinformatycznych jest to też trudny, ale pożądany klient. Trochę za mało o tym w tym raporcie napisano, ale trend jest ważny.
Oczywiście kolejnym ważnym jest temat cyberbezpieczeństwa – czyli bezpieczeństwa systemów teleinformatycznych. W raporcie jest to powiązane z brakiem specjalistów, gdy wartość tego rynku rośnie co roku o ponad 15%. Zasadnym jest wskazanie na znaczenie regulacji w dyrektywie NIS2, ale trzeba byłoby tu dodać, że ta regulacja właśnie spowoduje konieczność zatrudnienia profesjonalnych specjalistów IT do modyfikacji licznych systemów w celu uzyskania ich cyberodporności. I niestety w tych pracach zwykli programiści-koderzy oraz Chat GPTcode niewiele będą mogli pomóc. Powstaje więc pytanie, skąd weźmiemy tych specjalistów, jak liczba absolwentów kierunków teleinformatycznych spada? Pewnym rozwiązaniem jest oddanie spraw bezpieczeństwa systemów firmom zewnętrznym – w raporcie np. firmie Netia.
Czytając po raz n-ty o problemach cyberbezpieczeństwa powraca mi uparcie myśl, że ten budowany tak mozolnie system wykrywania i gromadzenia informacji o zagrożeniach przypomina nieco linię Maginota – silnie ufortyfikowaną od frontu, a zdobytą przez Niemców od zaplecza. Tutaj tym zapleczem jest brak jakichkolwiek działań, aby było możliwe odcięcie sieci internetowej na określonym obszarze Polski lub Unii Europejskiej tak aby mogła ona dalej funkcjonować, póki nie da się uporać z silnymi zagrożeniami zewnętrznymi, wtedy już nie mającymi bezpośredniego dostępu do naszych zasobów tej chwilowo autonomicznej sieci.
I jest jeszcze druga uparcie powracająca myśl, że obecnie filozofia cyberbezpieczeństwa opiera się tylko na obronie naszych zasobów teleinformatycznych. Nigdzie zaś nie ma informacji (a może są, ale są tajne) o planach skutecznego wykrywania sprawców cyberataków oraz miejsca ich pobytu, a następnie o podejmowaniu działań odwetowych: złapania ich i osądzenia lub na dokonaniu wobec nich odwetowych cyberataków blokując lub niszcząc ich systemy. Oczywiście należy przy tym odróżnić sprawców prywatnych (przestępców) od państwowych (wojskowych), gdyż wtedy musi być inne postępowanie wymagające już podejmowania decyzji na wysokim szczeblu. Ale te „złote” myśli powinny zaprzątać głowę politykom, a nie biznesowi.
ESG – jak słyszę o konieczności raportowania z przestrzegania dobrych praktyk, to nie rozumiem o co chodzi, ale definitywnie jestem za nowym zielonym ładem. I szlag mnie trafia jak widzę ile drzew wokół jest ścinanych – w zasadzie każde drzewo powinno być już zapisane w systemie teleinformatycznym dla jego ochrony.
Prowadzenie firm jest uzależnione od dysponowania odpowiednio wykształconymi pracownikami, a tutaj okazuje się, że jest to problem. W tych zmiennych czasach problem ten również ma inne oblicza – obecnie po regulacji stanu zatrudnienia w niektórych firmach informatycznych, nastąpiły niewielkie zamiany miejsc pracy. Dobrze, że podkreślono przy tym wagę zmniejszania rotacji pracowników, szczególnie tych kluczowych. Wymiana pracownika jest równoważna 6 miesiącom straty ich – odchodzącego i przychodzącego do pracy.
Nie bardzo za to podoba mi się hasło „demokratyzacja IT”, chyba że różnię się z autorami raportu w rozumieniu tego pojęcia. Mi się wydaje, że w informatyce mamy wystarczająco demokratyczne zasady – każdy po kierunku informatycznym, mający odpowiednie kompetencje może znaleźć odpowiednią pracę (chyba że ma jakieś ograniczenia lub wygórowane wymagania). Jak rozumiem ma to być apel o zatrudnianie na tych stanowiskach osób z innym wykształceniem zawodowym lub biznesowym. Oczywiście w każdym przedsięwzięciu teleinformatycznym nie wszyscy w zespole muszą być teleinformatykami, ba – nawet nie powinno tak być, gdyż oprócz technicznych zadań informatycznych niezbędne jest rozumienie zakresu wiedzy przyszłych użytkowników oraz odpowiednia organizacja projektu. Powiedzmy więc, że demokratyzacja IT polega na dopraszaniu do prac IT osób mających specjalistyczną wiedzę o tym co ma dany system przetwarzać, ale coraz silnej z regulacji wynika konieczność dopuszczania do prac informatycznych tylko odpowiednio formalnie wyedukowanych oraz certyfikowanych specjalistów informatyków.
Ciekawy jest tytuł rozdziału „Sztuczna inteligencja. Obawa przed nieznanym”. Rozumiem, że w takim raporcie należy używać skrótu AI, ale ja tutaj będę to nazywać systemem SI (w tym się też mieści słynny już „rewolucjonista” ChatGPT). W zasadzie trzeba się zgodzić z zaprezentowanymi przykładami możliwych zastosowań systemów SI, tym bardziej, że w tych opisach znajdujemy partykułę „może” nadającej im atrybut przypuszczenia czy osłabienia kategoryczności. Bowiem dopiero się przekonamy, które z tych zastosowań systemów SI przyniosły rzeczywisty pożytek i wzrost dochodów. Pośród tych zachwytów nad SI jednak niektóre z nich są nieco na wyrost. Na przykład NASK podaje, że „AI możemy powszechnie spotkać np. w motoryzacji, gdzie dba o proporcje spalanej mieszanki paliwa z powietrzem, czy w bardziej zaawansowanych modelach samochodów, gdzie automatycznie rozpoznaje znaki ograniczenia prędkości lub fakt, że samochód najeżdża na linię rozgraniczającą pasy ruchu bez włączonego kierunkowskazu.” Akurat mam takie „mądre” auto i stwierdzam, że te „bajery” zostały oprogramowane przez inżynierów informatyków i mechaników bez używania metod SI, a wszelkie zmiany są do nich wprowadzane przez uaktualnienie oprogramowania pobranego z serwera fabrycznego. A na przykład rozpoznawanie znaków nie potrafi rozpoznać skrzyżowania, za którym znak ograniczenia prędkości jest z przepisu odwołany. Bądźmy rozsądni i nie przypisujmy wielu programom atrybutów systemów SI – one zostały zaprojektowane klasycznie przez utalentowanych inżynierów oprogramowania.
W uzupełnieniu tego rozdziału, TKP prezentuje problemy prawne związane z systemami SI, stwierdzając, że w chwili obecnej w UE nie ma aktu regulującego sztuczną inteligencję. Ale takie akty są już przygotowywane i niebawem zostaną przyjęte biorąc w karby systemy SI – szczególnie te, wysokiego ryzyka, które mogą zagrozić osobom, społeczeństwom, komukolwiek. W trakcie dyskusji nad tymi aktami pojawiły się obawy, że ograniczą one rozwój systemów SI. W odpowiedzi, Komisarz Jourova stwierdziła, że "Nie powinno być paranoi w ocenie ryzyka związanego ze sztuczną inteligencją. Zawsze musi to być solidna analiza możliwych zagrożeń".
Fundamentem cyfrowej transformacji, według raportu, jest Big Data i analityka danych. W rozwoju tych technik są dla polskiego rynku dobre prognozy wzrostu – ponad 20%. Oczywiście równocześnie musi być rozwój usług chmurowych, systemów SI oraz internetu rzeczy (IoT) dostarczających tych danych w dużych ilościach. Dobrze, że autorzy raportu zwracają uwagę na ochronę gromadzonych danych, gdyż obawy użytkowników o ich bezpieczeństwo mogą hamować prognozowany rozwój. Ta uwaga jest słuszna dla wszystkich działań cyfryzowanej gospodarki i informatyzowanej administracji korzystających z wszystkich najnowszych technik teleinformatycznych.
Pewnie zapytacie jaka jest różnica pomiędzy cyfryzacją a informatyzacją – to wymaga szerszych wyjaśnień. A jaka jest różnica pomiędzy nową technologią – tak obecnie popularną, a techniką informacyjną – to również może w następnym felietonie.
Niestety nasz, środkowo-europejski rynek IoT jest nieco zacofany w porównaniu do zachodniej Europy. Pewnym usprawiedliwieniem jest jeszcze ograniczony dostęp do 5G, mającego być podstawową komunikacji przez internet z sensorami. I jeszcze do tego trzeba dodać Big Data oraz systemy SI. Mają co robić firmy tym się zajmujące, ale w Raporcie tylko Samsung się pochwalił, że pomoże (sprzeda) zbudować inteligentne mieszkanie, dom, ulicę, całe miasto – wszystko będzie mogło być sterowane przez pilota, smartfona lub laptopa. Jakoś się tego nieco obawiam, bo jak ktoś mi to zabierze lub służby zarekwirują to zostanę całkiem odcięty od możliwości przetrwania w takim środowisku. Ale postęp ma swoją cenę.
Zabawne, że „smart city” tłumaczone na „inteligentne miasto”, w którym inteligencja polega na wykorzystywaniu zbieranych przez sensory danych do jego zarządzania, spotkało się ze sztuczną inteligencją. W Raporcie podano, że w rankingu 183 inteligentnych miast, są tylko dwa z Polski: Warszawa (62) oraz Wrocław (100). Jak mawiał Bata (producent butów) - „o jaki mamy wielki potencjalny rynek, gdy tutaj (w Afryce) prawie wszyscy chodzą boso”. A obecnie, lekko licząc, można zebrać koło setki istotnych systemów teleinformatycznych, jakie są potrzebne miastu do jego funkcjonowania. Niestety przeszkodą jest brak wystarczających środków w samorządach bez finansowania z Unii. Niekiedy, ale już rzadziej, też trzeba pokonać zachowawcze poglądy urzędników na relacje z obywatelami, co utrudnia wdrożenie systemu SI korzystającego z inteligentnych IoT. Czy to jest zrozumiałe?
Chmura obliczeniowa to technika zdalnego przetwarzania danych przechowywanych w chmurze – istniejących gdzieś w sieci, w zewnętrznym zasobie pamięci masowej, będącej pod kontrolą innego podmiotu. Obecnie po dekadzie oferowania i korzystania z chmury, rozwiązanie to już stało się klasyczne, chociaż jeszcze jest wobec niego wiele zastrzeżeń. Stąd też podane w raporcie dane o wyłącznym korzystaniu z chmury przez tylko 17% organizacji europejskich nie są zaskoczeniem. Jednak większość woli centra danych w swojej piwnicy. Dlatego też przed firmami oferującymi usługi w chmurach stoją jeszcze poważne wyzwania wyjaśniania potencjalnym klientom ich wątpliwości i zastrzeżeń. A ja jeszcze pamiętam przodka chmury obliczeniowej w postaci out-sourcingu, gdzie nie tylko dane ale również ich przetwarzanie było zlecane zewnętrznej firmie. I wtedy było też trudno przekonać organizacje, banki, firmy, aby ich „informatyka” była gdzieś poza zakładem. Stąd trzymam kciuki za firmy z ofertą w chmurach.
Druga część Raportu dotyczy telekomunikacji, a w zasadzie również teleinformatyki z podkreśleniem tele. Pozostawiam ją do samodzielnego przeczytania – warto.