Quo vadis SI vel AI?
Pierwsza wersja tego artykułu została opublikowana w Biuletynie Informacyjnym (4/2020) PTI
Kilka lat temu po marketingowym sukcesie Cloud Computing, Big Data, Data Science oraz Internet of Things, w firmowych materiałach promocji produktów informatycznych zaczął się pojawiać skrót AI, tłumaczony jako artificial intelligence, czasem przetłumaczony na polski jako sztuczna inteligencja, a jeszcze rzadziej zapisywany jako skrót SI.
Oczekiwania i ograniczenia
Pytani – nie informatycy – o rozumienie tego pojęcia udzielali różnych odpowiedzi – no, komputery mają być tak samo inteligentne (to pesymiści), a nawet bardziej (to optymiści) jak ludzie. Na pytanie, a co tak bardzo usprawni te komputery, odpowiadano - nowe programy (algorytmy) , które będą się uczyć (zdobywać wiedzę, aby system był coraz mądrzejszy. No dobrze, ale kto napisze te programy, które mają być inteligentniejsze od ludzi. No, programiści – aha, to oni mają też być inteligentniejsi od ludzi? - i tu rozmowa się rwała.
Na podobnym poziomie były informacje prezentowane w mediach gospodarczych i społeczno-politycznych. Okraszane optymizmem daleko idących zmian społecznych oraz pożytków gospodarczych po wdrożeniu systemów SI, mniej istotne jest, jakie to przyniesie rzeczywiste korzyści oprócz możliwości powrotu do domu samochodem po wypiciu kilku drinków.
Odmiennym wątkiem są analizy prawne dotyczące odpowiedzialności za szkodliwe efekty działania urządzeń kontrolowanych przez oprogramowanie SI. Od prób dopasowania obecnego prawodawstwa, prawnicy przeszli do formułowania zapisów ograniczających szybkość rozwoju SI poprzez wymóg spełnienia iluś tam specyficznych wymagań. Uzupełnieniem tej twórczości prawnej są dyskusje nad kodeksem etycznym dla twórców SI.
Przykładem takich działań jest Opinia Europejskiego Inspektora Ochrony Danych dotycząca dokumentu Komisji Europejskiej – Biała Księga w sprawie sztucznej inteligencji. Europejskie podejście do doskonałości i zaufania (EDPS Opinion on the European Commission’s White Paper on Artificial Intelligence – A European approach to excellence and trust). Warto się zapoznać z treścią tej białej księgi oraz opinią EDPS. Mój komentarz do tej opinii można przeczytać tutaj: https://iszkowski.eu/ograniczanie-si .
Z powodu minimalizacji Ministerstwa Cyfryzacji do departamentów w KPRM, a także ze względu na rozwój epidemii COVID-19 oraz znaczną dziurę budżetową, dalsze prace rządowe nad rozwojem SI są obecnie mało prawdopodobne. |
Możliwości SI zaczęli również dostrzegać politycy – szczególnie gdy to odczuli podczas wyborów. Ministerstwo Cyfryzacji – w ślad za Komisją Europejską – rozpoczęło w 2018 r. prace nad strategią sztucznej inteligencji. W efekcie powstał dokument „Polityka Rozwoju Sztucznej Inteligencji w Polsce na lata 2019-2027”.
W „Polityce Rozwoju Sztucznej Inteligencji w Polsce na lata 2019-2027” przyjęto szerszą definicję systemu AI, bazującą na definicji OECD, opartej na koncepcji maszyny, która może wpływać na środowisko, formułując zalecenia, przewidywania lub decyzje dotyczące zadanego zestawu celów. Czyni to wykorzystując dane wejściowe, dane maszynowe lub ludzkie do:
W dokumencie przyjęto też posługiwanie się terminem polskim sztuczna inteligencja oraz angielskim skrótem AI – ja uważam, że w Polsce, szczególnie w dokumentach rządowych powinno się posługiwać językiem polskim, czyli skrótem SI. |
W tym miejscu zamierzałem w skrócie przedstawić i skomentować treść tego dokumentu, w szczególności propozycje działań wspomagających rozwój prac nad badaniami i zastosowaniami sztucznej inteligencji. Jednak z powodu minimalizacji Ministerstwa Cyfryzacji do departamentów w KPRM, a także ze względu na rozwój epidemii COVID-19 oraz znaczną dziurę budżetową, dalsze prace rządowe nad rozwojem SI są obecnie mało prawdopodobne. Postanowiłem więc zmienić nieco wątek w drugiej części tego tekstu, ale polecam zapoznanie się z tym dokumentem MC, dopóki jeszcze jest on dostępny na stronie rządowej.
Na froncie walki z epidemią
W dyskusji na LinkedIn stwierdziłem, że przeniesienie części zasobów Ministerstwa Cyfryzacji do KPRM z Premierem, jako ministrem właściwym dla działu informatyzacja, jest w pewnym stopniu samobójstwem (dostałem kilka lajków). Obecnie w obliczu prognozy o znaczącym rozprzestrzenieniu się zarażeń COVID-19, dostarczenie społeczeństwu i gospodarce maksymalnie funkcjonalnej i sprawnej komunikacji elektronicznej z odpowiednimi aplikacjami jest zadaniem natury wręcz wojskowej – musi być wykonane bez względu na koszty i możliwe straty. Jest to bowiem warunkiem przetrwania gospodarki oraz zdrowego społeczeństwa.
Przy pierwszym uderzeniu (pozostając przy języku wojskowym) koronawirusa, systemy teleinformatyczne i sieć internetowa wytrzymały znacznie zwiększone obciążenie pracą i nauką zdalną, obsługę znacząco większej liczby zamówień dostaw oraz komunikację pomiędzy rodzinami i znajomymi. Z czasem okazało się, że wobec tyko 80% nasycenia gospodarstw komputerami i dostępem do internetu, z nauki w szkole zniknęło ponad 20% uczniów i zapewne też wielu pracowników nie mających możliwości pracy zdalnej. Nie wszyscy byli przygotowani na ten nowy rodzaj komunikacji [wg Rocznika Statystycznego okazuje się, że prawie 95% gospodarstw, głównie z dziećmi, dysponuje komputerami w domu]. Nawet u nas w PTI wiele osób z dużymi obawami śledziło przygotowania i przebieg Zjazdu PTI, odbywającego się poprzez internet z głosowaniem elektronicznym.
Teraz jesteśmy na wojnie cyfrowej z ograniczeniami narzucanymi przez rozwój epidemii. Trzeba pilnie usprawnić możliwości obsługi obywateli drogą elektroniczną, gdyż nie wszystkie urzędy są jeszcze do tego przygotowane. Nie należy powracać do konieczności osobistego stawienia się obywatela w urzędzie, co się chce zarządzić przy wymianie dowodów osobistych na te z odciskami palców. Cały czas należy poprawiać obsługę profilu zaufanego oraz komunikację urzędów z obywatelem – poczta nie powinna rezygnować z dostarczania skanów listów poleconych mejlem. Takie przykłady można mnożyć. My informatycy (informatyczki też), mający wyostrzony zmysł myślenia algorytmicznego, powinniśmy wychwytywać takie przypadki cyfryzacji papierowej, wymagające poprawienia, przesyłać do biura PTI, które potem zbiorczo mogłoby to wysyłać do Premiera - ministra właściwego ds. informatyzacji.
Pożyteczne i niebezpieczne
Niezbędne jest zastosowanie metod SI do analizy zbiorów danych dotyczących diagnostyki i metod leczenia pacjentów z COVID-19. Konieczne są bazy danych osób będących na kwarantannach, leczeniu domowym i szpitalnym - dzisiaj wiele z tych przypadków się gubi lub też chorzy nie mogą sprawnie otrzymać pomocy medycznej. Gdy piszę ten tekst (16 listopada 2020 ) odnotowujemy znaczący wzrost liczby osób zarażonych.
W wiosennej walce z pandemią zamierzano zastosować systemy umożliwiające wyodrębnianie ognisk zakażenia ze wskazywaniem osób, które mogły w nich przebywać. Takie systemy wcześniej zastosowały Chiny i Korea Południowa z pozytywnym efektem. W Polsce takim systemem miała być aplikacja ProteGO Safe, lokalizująca wstecznie w czasie przebywanie danych osób obok osoby zarażonej (patrz tekst na str.?). Aplikacja ta nie zyskała społecznego poparcia, nawet po zapewnieniach promującego ją Ministerstwa Cyfryzacji, że dane osobowe tych osób będą w pełni chronione. Społeczeństwo polskie i krajów demokratycznych zaprotestowało przeciwko używaniu tego typu systemów gromadzenia danych osobowych nawet w tak ważnym celu, jak walka z rozszerzającą się pandemią, nie mając gwarancji, że władza przy tej okazji nie wykorzysta tych danych do celów inwigilacji obywateli. Żadna władza nie chce się zgodzić na skuteczną kontrolę swoich działań przez niezależne (czytaj opozycyjne) struktury społeczne. Przy tej okazji mogliśmy sprawdzić, że nie można uzyskać społecznej kontroli nad funkcjonowaniem jakichkolwiek systemów teleinformatycznych, nie tylko tych SI, będących w gestii administracji państwowej.
Za, ale i sprzeciw
Przyspieszający rozwój prac nad systemami SI zaczyna wywoływać również opinie sceptyczne. Profesor Stephen Hawking podczas otwarcia Leverhulme Center for the Future of Intelligence na Uniwersytecie Cambridge stwierdził, że …AI jest albo najlepszą, albo najgorszą rzeczą, jaka kiedykolwiek przydarzy się ludzkości… (Stephen Hawking: AI will be 'either best or worst thing' for humanity, The Guardian, 2016) i pochwalił utworzenie instytutu akademickiego poświęconego badaniu przyszłości inteligencji jako …kluczowej dla przyszłość naszej cywilizacji i naszego gatunku….
Wiele innych autorytetów, mówiąc o AI, oscyluje pomiędzy zachwalaniem wartości przyszłych osiągnięć a obawami ryzyka stworzenia superinteligencji zagrażającej ludzkości. Elon Musk, inwestując w prace nad rozwojem AI, na przykład w laboratorium OpenAI oraz korzystając z rozwiązań AI w pracach nad samochodem Tesla i rakietą SpaceX, stwierdził, że …zaawansowany rozwój AI powinien być regulowany przez rządy oraz międzynarodowe organizacje…, gdyż niezależna i zaawansowana AI może być …fundamentalnym zagrożeniem dla istnienia ludzkiej cywilizacji (Elon Musk says all advanced AI development should be regulated, including at Tesla, Darrell Etherington, TechCrunch.com, February 18, 2020).
Właściwa rzeczy miara
A co ja o tym myślę? Kto ciekaw, niech czyta dalej.
Z zachwytu nad pierwszymi maszynami liczącymi zaczęto je nazywać mózgami elektronowymi. Dość szybko rozumnie zrezygnowano z tego miana i nazwano je programowalnymi cyfrowymi komputerami elektronicznymi (u nas elektronicznymi maszynami cyfrowymi) w zgodzie z tym, czym były w rzeczywistości. Dla skrócenia tej nazwy przyjęto pojęcie komputer i tak już zostało do dzisiaj.
Termin „Artificial Intelligence” został zaproponowany w 1956 roku przez Johna McCarthego, dla odróżnienia tej sfery badań od wpływów cybernetyki i takim pozostał przez ponad 60 lat prac nad rozwojem AI. Początkowy entuzjazm badań był silnie ograniczany małą mocą przetwarzania oraz pojemnością pamięci ówczesnych komputerów. Informatyka zdefiniowała sztuczną inteligencję jako zdolność systemu do poprawnej interpretacji danych zewnętrznych, uczenia się na podstawie takich danych i wykorzystywania tych zdobytych informacji do osiągania określonych celów i zadań poprzez elastyczną adaptację. Dopiero od początku XXI w. AI mogła być coraz efektywniej używana w wielu dziedzinach – analizy danych, diagnostyce medycznej, grach, itp., ale nawet te zastosowania niewiele nas przybliżyły do ludzkiej inteligencji, choć komputer nauczył się wygrywać z człowiekiem w GO.
Dlaczego? Bo już nazwa tego pojęcia jest błędna, obiecując zbyt wiele, gdyż nie da się stworzyć sztucznej inteligencji, gdy ta rzeczywista inteligencja jest zdolnością pojmowania, rozumienia, postrzegania, analizy i adaptacji do otoczenia oraz wykorzystywania posiadanej wiedzy i umiejętności – i jest cechą istot żywych. Co więcej, jesteśmy dopiero na początku procesu poznawczego, jak ta nasza inteligencja jest „wytwarzana” przez organizmy żywe, czyli jak organizm żywy myśli. Nawet obserwując „naszego” kota, który od ponad roku stara się nam „wedrzeć” do domu, nie możemy ustalić, jak on myśli, aby nas do siebie przekonać, a jego starania są zadziwiające (https://iszkowski.eu/o-kocie ). A nie jest to kot Schrödingera, chociaż bywa, że on i jest i go nie ma
Bez wiedzy, jak człowiek myśli, trudno jest wytworzyć sztuczny odpowiednik tego procesu. Po wielu latach prac naukowych i praktycznych algorytmy SI mają coraz lepsze procedury analizy danych, weryfikacji rezultatów, modyfikacji parametrów działania w celu lepszej realizacji celów, co nazywamy uczeniem się algorytmów. Ale to programista musi nauczyć poprzez odpowiedni algorytm działania, jak się ten główny algorytm ma uczyć. To programista jest odpowiedzialny za to, że autonomiczny samochód potrącił osobę, która z obszaru nieoświetlonego weszła pod koła. To programista nie wpisał do tego algorytmu procedury, którą wkłada się każdemu kierowcy do głowy: jak nie widzisz pobocza, to bardzo zwolnij, bo jakiś „idiota”, dziecko lub zwierzak może z ciemności wleźć ci pod koła (w tym przypadku, sąd chce oskarżyć panią kierowcę, która miała testować jazdę tego samochodu, a w tym czasie oglądała film na smartfonie).
Wszystkie algorytmy sztucznej inteligencji wykorzystują obecnie istniejące bardzo wydajne komputery, które jednak dla pojedynczego procesora dochodzą już do granic technologicznych możliwości zwiększania wydajności – można jedynie je zrównoleglić, co ma kolei wpływ ma strukturę i efektywność wykonywanych programów. Kolejne programy SI nie będą mieć możliwości skorzystania z jeszcze większych mocy przetwarzania, a tej dla „pokonania” inteligencji naszego mózgu potrzeba jeszcze bardzo dużo. Zaczynamy więc sobie dużo obiecywać po urządzeniach mechaniki kwantowej.
Komputery kwantowe czy bioniczne nie są komputerami – znowu przyjęte pojęcie nie oddaje rzeczywistości. Bo urządzenie wykorzystujące mechanikę kwantową działa kompletnie inaczej niż każdy z istniejących komputerów i żaden z dotychczas używanych algorytmów nie będzie miał w nim zastosowania. Dla urządzeń kwantowych trzeba opracować nowe algorytmy bazujące na kompletnie innej koncepcji funkcjonowania, być może bardziej zbliżonej do myślenia człowieka. Dlatego też dla jednoznaczności komputery kwantowe powinny być raczej nazywane kwanterami lub kubiterami (lub jakoś podobnie), a dziedzina – kwantyką. Podobnie jest z komputerami bionicznymi |
Suma summarum
Reasumując – rozwój algorytmów SI z pewnością przyniesie wiele pożytków w różnych dziedzinach zastosowań, wspomagając działanie człowieka. Być może nawet w jakichś sytuacjach mniej kontrolowanego rozwoju może zagrozić społeczeństwu, próbując go ograniczyć w jakichś prawach dla szybszego uzyskania zadanego celu – np. zwalczenia epidemii na danym terenie poprzez bezwzględne zamknięcie obywateli w domach na 14 dni. Dlatego też generalnie powinna istnieć zasada, że efekty działania tych algorytmów muszą być kontrolowane przez odpowiedzialne osoby, szczególnie, gdy skutki mogą być nieodwracalne. Dobrze by było, aby w przekazach medialnych starać się nieco rzetelniej przedstawiać zalety i wady sztucznej inteligencji, jeżeli już na zmianę nazwy tego pojęcia jest za późno.
Kto się ze mną zgadza?
Wacław [at] Iszkowski.pl Czarny Las, 16 listopada 2020 r.