Systemy SI: nowa wspaniała era czy koniec znanego świata?
Treści zawarte w liście otwartym „Pause Giant AI Experiments” są naiwne, a jednocześnie świadczą o braku rzetelnej wiedzy, czym tak naprawdę są techniki sztucznej inteligencji.
Opublikowane w CRN 05/2023 (tutaj treść nieco zmieniona)
Gdy 14 marca 2023 roku podano w światowych telewizjach informację o wydaniu nowej wersji Chat GPT-4, to nawet moja 80-letnia kuzynka z Waszyngtonu przedyskutowała tę wiadomość w swoim gronie przyjaciół. I nawet mi podziękowała za wyjaśnienia dotyczące SI oraz „tego czata GPT”, co pozwoliło jej „błysnąć” wiedzą na ten temat.
Nie była wyjątkiem, bo rosnąca popularność testowania GPT-3,5 oraz nowa wersja GPT-4 sprowokowała wyjątkowo wiele osób do podzielenia się publicznie swoimi zachwytami nad generatywną sztuczną inteligencją, nadając jej nawet miano zwiastuna intelektualnej rewolucji w skali niedoświadczonej od początku oświecenia. Jednocześnie pojawiło się wiele publikacji wskazujących na poważne zagrożenia wobec cywilizacji, wynikające z powszechnego, niekontrolowanego (to ważne) zastosowania wyników działania takich generatorów (bo GPT nie jest jedyny).
W zalewie publikacji szczególne miejsce zajmuje list otwarty „Pause Giant AI Experiments”, podpisany między innymi przez Elona Muska, Steve’a Wozniaka, Yuvala Noaha Harariego . Temu wezwaniu, jako kompendium zachwytów i obaw, warto się przyjrzeć z uwagą. Pozwalam go sobie tutaj zacytować w tłumaczeniu [Google’a] z ang. na pol. z drobnym przeformatowaniem.
Systemy sztucznej inteligencji z inteligencją współzawodniczącą z ludźmi mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone badania i potwierdzone przez czołowe laboratoria sztucznej inteligencji. Jak stwierdzono w powszechnie akceptowanych zasadach sztucznej inteligencji Asilomar, zaawansowana sztuczna inteligencja może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z odpowiednią troską i zasobami. Niestety, ten poziom planowania i zarządzania nie ma miejsca, mimo że w ostatnich miesiącach laboratoria sztucznej inteligencji utknęły w wymykającym się spod kontroli wyścigu, aby rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidywać lub niezawodnie kontrolować. Współczesne systemy sztucznej inteligencji stają się obecnie konkurencyjne dla ludzi w zadaniach ogólnych i musimy zadać sobie pytanie:
- Czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą?
- Czy powinniśmy zautomatyzować wszystkie zawody, w tym te nas satysfakcjonujące?
- Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie, przechytrzyć, przestarzałe i zastąpić nas?
- Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? Takie decyzje nie mogą być przekazywane niewybieralnym liderom technologicznym.
Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a związane z nimi ryzyko będzie możliwe do opanowania. Ta pewność musi być dobrze uzasadniona i wzrastać wraz z wielkością potencjalnych skutków systemu. Niedawne oświadczenie OpenAI dotyczące sztucznej inteligencji ogólnej stwierdza, że „w pewnym momencie może być ważne uzyskanie niezależnej oceny przed rozpoczęciem szkolenia przyszłych systemów, a w przypadku najbardziej zaawansowanych wysiłków uzgodnienie ograniczenia tempa wzrostu mocy obliczeniowej wykorzystywanej do tworzenia nowych modele”.
Zgadzamy się. Ten punkt jest teraz. Dlatego wzywamy wszystkie laboratoria SI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów SI potężniejszych niż GPT-4. Ta przerwa powinna być jawna i możliwa do zweryfikowania oraz obejmować wszystkie kluczowe podmioty. Jeśli taka przerwa nie może zostać szybko uchwalona, rządy powinny wkroczyć i wprowadzić moratorium. Laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać tę przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych. Protokoły te powinny gwarantować ponad wszelką wątpliwość, że systemy, które się do nich stosują, są bezpieczne. Nie oznacza to ogólnie przerwy w rozwoju sztucznej inteligencji, a jedynie wycofanie się z niebezpiecznego wyścigu do coraz większych, nieprzewidywalnych modeli czarnej skrzynki z pojawiającymi się możliwościami. Badania i rozwój sztucznej inteligencji powinny zostać ponownie skoncentrowane na uczynieniu dzisiejszych potężnych, najnowocześniejszych systemów dokładniejszymi, bezpieczniejszymi, łatwiejszymi do interpretacji, przejrzystymi, niezawodnymi, spójnymi, godnymi zaufania i lojalnymi. Równolegle programiści SI muszą współpracować z decydentami, aby radykalnie przyspieszyć rozwój solidnych systemów zarządzania SI.
Powinny one obejmować co najmniej:
- nowe i zdolne organy regulacyjne zajmujące się sztuczną inteligencją;
- nadzór i śledzenie wysoce wydajnych systemów sztucznej inteligencji i dużych zasobów mocy obliczeniowej;
- systemy pochodzenia i znaków wodnych pomagające odróżnić prawdziwe od syntetycznych i śledzić wycieki modeli;
- solidny ekosystem audytu i certyfikacji; • odpowiedzialność za szkodę wyrządzoną przez SI;
- solidne finansowanie publiczne badań technicznych nad bezpieczeństwem sztucznej inteligencji;
- oraz dobrze wyposażone instytucje do radzenia sobie z dramatycznymi zakłóceniami gospodarczymi i politycznymi (zwłaszcza w demokracji), które spowoduje sztuczna inteligencja.
Ludzkość może cieszyć się kwitnącą przyszłością dzięki sztucznej inteligencji. Po pomyślnym stworzeniu potężnych systemów sztucznej inteligencji możemy teraz cieszyć się „latem sztucznej inteligencji”, w którym czerpiemy korzyści, konstruując te systemy z wyraźną korzyścią dla wszystkich i dając społeczeństwu szansę na przystosowanie się. Społeczeństwo wstrzymało się od innych technologii o potencjalnie katastrofalnych skutkach dla społeczeństwa. Możemy to zrobić tutaj. Cieszmy się długim sztucznym latem, a nie pędźmy nieprzygotowani do jesieni.
Abstrahując od faktycznych intencji autorów listu, stwierdzam, że zawarte w nim treści są naiwne, a jednocześnie świadczą o braku rzetelnej wiedzy, czym tak naprawdę są techniki sztucznej inteligencji oraz czym są generatory tekstów, które to mają tak bardzo zagrażać ludzkości, że trzeba aż wstrzymać prace nad ich rozwojem. Te generatory tekstów (oraz innych typów utworów: obrazów, fraz dźwiękowych, wideo-klipów) są rzeczywiście znaczące w rozwoju informatyki, ale podobnie jak poprzednie znaczące osiągnięcia (komputery, internet, przetwarzanie danych, tekstów, grafiki, itp.) są tylko kolejnym osiągnięciem techniki teleinformatycznej. I oczywiście, jak każda nowość mogą być początkowo mało zrozumiałe dla większości potencjalnych użytkowników i mogą być (jeszcze) niedoskonałe, a ich zakres zastosowania niejasny. Co może zatem wzbudzać obawy i tym samym czynić te twory nieakceptowanymi z wielu powodów – ekonomicznych, socjalnych, prawnych, itp.
Po pierwsze, obecne możliwe efekty działania tych systemów GPT w żaden sposób nie zagrażają społeczeństwom, bo oprócz „zalewania” ekranów swoją twórczością, nie mają bezpośredniego wpływu na jakiekolwiek decyzje czy działania, które mogą dotyczyć pojedynczych osób lub większych grup społecznych. Takie stwierdzenie ma sens tak długo, póki jacyś mniej rozumni użytkownicy tych systemów, mający zdolności decyzyjne w jakimś zakresie, nie zaczną bezkrytycznie korzystać z uzyskiwanych wyników tych generatorów do podejmowania i wdrażania w życie podpowiedzianych, ale swoich – podkreślam swoich – decyzji.
Logicznie rzecz biorąc, to korzystanie z tych systemów nie różni się zbytnio od typowego tworzenia listów, pism, raportów, podejmowania decyzji, itp. Praktycznie każdy z menedżerów czy decydentów z reguły co jakiś czas prosi sekretarkę (asystenta, podległego urzędnika, eksperta) o przygotowanie określonego tematycznie pisma, raportu, rozporządzenia lub opracowania. Następnie po jego otrzymaniu dokonuje jego weryfikacji, nanosi poprawki, uzupełnienia, po czym podejmuje decyzję o jego akceptacji podpisując go swoim nazwiskiem lub nazwiskami zespołu decyzyjnego (ewentualnie odrzuca go w całości). Podpisując go, tym samym bierze odpowiedzialność za treść oraz ewentualne różnego typu skutki oddziaływania tych treści na inne osoby, podmioty czy społeczności.
Podobnie dzieje się z materiałami przygotowywanymi do publikacji w mediach. Każdy felieton, informacja, artykuł, wywiad dostarczony przez autora jest weryfikowany merytorycznie oraz co do zgodności ze źródłami, czy jest oryginalny oraz jest redagowany językowo przez odpowiedzialnego redaktora. Niekiedy jest poddawany analizie i dyskusji w szerszym gronie redakcyjnym, a nawet konsultowany z prawnikami czy nie narusza prawa. Dopiero po takim procesie akceptacji jest publikowany, a redakcja razem z autorem bierze za niego odpowiedzialność. I również podobnie są recenzowane i redagowane treści artykułów naukowych oraz treści książek przed opublikowaniem.
Do tekstów wytwarzanych przez generatory wystarczy zastosować dotychczasowe procedury przygotowania ich do publikacji. Warto przy tym stwierdzić, że różnego rodzaju teksty pełne fantazji, zmyśleń pozornie prawdziwych lub oparte na błędnych informacjach, szkalujące, propagandowe czy podobne pojawiają się od lat, gdyż wyobraźnia ich autorów jest nieograniczona. I jakoś dajemy sobie z tym radę, nawet jak czasami damy się zmanipulować jakimś „oryginalnym” wystąpieniem.
Wracając do listu otwartego, to jego pierwszy akapit jest bardzo ogólny, wskazując na poważne niebezpieczeństwo związane z najnowszymi osiągnięciami korzystającymi z techniki sztucznej inteligencji. Przytaczany ASILOMAR jest zbiorem bardzo podstawowych zasad rozwoju SI. Z tymi zasadami należy się zgodzić, jak też nie ma problemu z ich przestrzeganiem. Trudno się natomiast zgodzić ze stwierdzeniem, że nawet twórcy systemów SI nie są „w stanie ich zrozumieć, przewidywać lub niezawodnie kontrolować”. Bo akurat twórcy systemów korzystających z techniki SI dobrze wiedzą i rozumieją jakie mechanizmy i w jaki sposób dokonują gromadzenia i porządkowania wiedzy mającej generować algorytmy tworzące oczekiwane przetwarzanie tej wiedzy. Oczywiście, ze względu na ilość przetwarzanych informacji, nie są w stanie podać pojedynczej reguły wnioskowania. Ale to już tak jest w informatyce w przypadku wielu obliczeń, tych numerycznych również.
Podobnie niezrozumiały jest apel o 6-miesięczne moratorium na szkolenia systemów SI podobnych do GPT, skierowany w przestrzeń bez konkretnego adresata. To kto ma przerwać te badania, skoro rządy potrzebowałyby kilka miesięcy na podjęcie odpowiednich uchwał. A drugie pytanie, to kto i jak miałby to sprawdzać, wchodząc do firmowych laboratoriów. Obecnie największe korporacje starają się przyśpieszać wprowadzenie systemów SI z generatywnym wstępnie przeszkolonym transformatorem na rynek, gdyż zdobędzie go ta, która zbierze jako pierwsza najwięcej użytkowników.
Narazie rząd włoski zabronił użytkowania GPT do czasu wyjaśnienia przez OpenAI zasad gromadzenia i przetwarzania danych osobowych w zgodzie z regułami GDPR. Również inne rządy oczekują podobnych wyjaśnień. Rzeczywiście jest to istotne, gdyż w utworzonej bazie wiedzy są miliardy informacji osobowych, a w trakcie korzystania z GPT system zbiera dodatkowe, choćby kogo co interesuje. Wydaje się, że trzeba będzie w tym przypadku zastosować odpowiednie filtry, dostępne tylko dla pewnych służb (pytanie jakich?).
Jednocześnie jakże „słuszne”, ale według mnie również naiwne, są postulaty dla programistów SI, którzy mają współpracować z decydentami. Autorzy listu apelują o powołanie nowych organów regulacyjnych zajmujących się SI, czyli wychodziłoby na to, że biurokracja ma zarządzać SI zza biurka (ciekawe skąd wezmą personel rozumiejący choćby podstawy SI). Proponują ponadto stworzenie solidnego ekosystemu audytu i certyfikacji, co oznaczałoby już IV stopień kontroli systemów SI, przy czym taki audyt może być procedurą wyjątkowo trudną, gdyż system SI uczy się w trakcie działania, zmieniając/doskonaląc się, musiałby więc podlegać stałemu audytowi! Kolejny apel dotyczy dobrze wyposażonych instytucji do walki z negatywnymi efektami działania systemów SI. Z tym akurat można się zgodzić, jeśli już istniejące agencje, dbające o porządek publiczny nie będę potrafiły dać sobie z tym rady.
Ostatni akapit listu to pean na cześć możliwości działania systemów SI dla dobra ludzkości z równoczesnym zdecydowanym ostrzeżeniem przed możliwą poważną nieokreśloną katastrofą przez nie spowodowaną. To jak to w końcu jest? Jesteśmy za czy przeciw? W sumie treść tego listu jest bardzo naiwna, ale znając jego autorów pojawia się pytanie po co został w takiej postaci napisany? Próbując na to odpowiedzieć nasuwa się stwierdzenie, że rzeczywisty cel był chyba inny niż powiadomienie cywilizacji o potencjalnym zagrożeniu ze strony systemów typu GPT. Być może jest to komunikat lub ostrzeżenie skierowane do pewnego adresata. Pytanie, kto nim jest? Aby podjąć się odpowiedzi musiałbym zostać „autorem widmo” w zespole Roberta Ludluma w ramach pracy nad thrillerem o spisku teleinformatyczno-politycznym. I chyba to właśnie wyjaśnia fakt, dlaczego po tylu dniach od publikacji listu jest tylko oraz przez tylko 27565 zweryfikowanych osób (na dzien 14.05.2023), które go popierają!
A na przykład Bill Gates i wielu innych jest mu przeciwnych. Oczywiście proliferacja AI niesie za sobą mnóstwo zagrożeń, szczególnie że dostęp do jej działań ma miliony osób nie rozumiejących jak to działa i jak należy traktować te wyniki. I oczywiście taki list otwarty, wskazujący na te zagrożenia, powinien się pojawić. Jednak nie powinien być tak naiwny, ale poważny i zrozumiale wyjaśniający tę nowość wraz z instrukcją jej poprawnej obsługi. Nie wystarczy napisać „may be hot”.
P.S. Na wszelki wypadek informuję, że powyższy tekst został napisany samodzielnie bez udziału jakiegokolwiek GPT. Przy pisaniu korzystałem z zasobów informacyjnych internetu, wyszukanych i pobranych według mojej osobistej decyzji.