Komentarz katalog wpisów zbitki WBI

Marketing Sztucznej Inteligencji

data wpisu: 2021.01.15 | data publikacji: 2020.07.17

Pierwsza wersja tego artykułu została opublikowana w CRN 2021/01

W myślach przygotowałem sobie pierwsze zdanie tego felietonu – W listopadowym numerze CRN naliczyłem… - policzyłem, wyszło zero odniesień do sztucznej inteligencji, ani słowa o AI! A to niespodzianka w czasach gdy praktycznie na każdej witrynie czy w prezentacji firm informatycznych, w mediach, nie tylko informatycznych, roi się od AI. A firmy konsultingowe w swoich opracowaniach przewidują silne wzrosty rynku sprzedaży systemów AI i wieszczą, że bez [AI inside] żaden produkt nie ma szansy na jutrzejszym rynku.

Równocześnie Rząd USA, na ostatnich oddechach kadencji tego POTUSa, w MEMORANDUM Guidance for Regulation of Artificial Intelligence Applications (Nov.17,2020, M-21-06) nakazuje , agencjom rządowym promowanie postępu w technice i innowacjach AI, chroniąc jednocześnie amerykańską technologię w gospodarce i w narodowym bezpieczeństwie, prywatność i inne wartości amerykańskie, w tym podstawy wolności, prawa człowieka, praworządność i poszanowanie własności intelektualnej.

Z kolei Komisja Europejska prezentuje BIAŁĄ KSIĘGĘ w sprawie sztucznej inteligencji - europejskie podejście do doskonałości i zaufania (19.2.2020 r. COM(2020) 65), w której przedstawia do konsultacji społecznych założenia strategiczne rozwoju AI dla utrzymania wiodącej pozycji UE w zakresie korzystania z technik AI służących wszystkim Europejczykom, przyczyniających się do poprawy ich życia przy jednoczesnym poszanowaniu ich praw. Zwraca się też, wobec braku korporacji, w kierunku MŚP oferując im wsparcie finansowe na rozwój systemów AI.

Również poszczególne kraje, w tym Polska zabrały się za podobne opracowania rozwoju badań i wdrożeń sztucznej inteligencji (SI) w oprogramowaniu. Podobne działania pewnie też podjęły Chiny, Izrael i Rosja, ale z powodów językowych, a może też zgodnie z чем меньше говоришь, тем дальше будешь – mniej o tym wiemy.

W USA, Europie, w Polsce też, już w okresie wiosennej walki z pandemią zamierzano zastosować systemy AI, umożliwiające wyodrębnianie ognisk zakażenia ze wskazywaniem osób, które mogły w nich przebywać. Takie systemy wcześniej zastosowały Chiny i Korea Południowa z pozytywnym efektem. Niestety u nas te aplikacje nie zyskały społecznego poparcia. Społeczeństwa krajów demokratycznych zaprotestowały przeciwko używaniu tego typu systemów gromadzenia danych osobowych nawet w tak ważnym celu, jak walka z rozszerzającą się pandemią, nie mając gwarancji, że władza przy tej okazji nie wykorzysta tych danych do celów inwigilacji obywateli. Nie odnotowaliśmy też spektakularnego zaistnienia systemu AI dla analizy wszystkich danych medycznych dotyczących tego wirusa – cały czas dostajemy bowiem, często sprzeczne, cząstkowe informacje o tym czym jest ten wirus i jak go należy zwalczać.

Do pracy wzięli się też prawnicy analizując możliwość dopasowania obecnego prawodawstwa do oceny prawnej skutków decyzji wynikających z działania systemów SI oraz odpowiedzialności prawnej za szkodliwe efekty urządzeń przez nich kontrolowanych. Szybko przeszli do formułowania zapisów ograniczających ryzyko negatywnych skutków przez spowolnienie rozwoju SI poprzez wymóg spełnienia iluś tam dodatkowych wymagań, albo wręcz zakazu prowadzenia niektórych z badań nad AI.

Uzupełnieniem tej twórczości prawnej są dyskusje nad kodeksem etycznym dla twórców SI, gdyż to programiści mają być odpowiedzialni za skutki działania programów z funkcjonalnością SI, nawet gdy zaprogramowane przez nich procedury uczenia się w kolejnych iteracjach staną się im trudnymi do obserwacji działania. Z tego też pewnie względu rozpatruje się możliwość ograniczenia niektórych kierunków badań nad rozwojem AI, które mogą być wykorzystane wbrew interesom społeczeństwa.

W zapisach prawnych istotna będzie definicja systemu lub programu z funkcjonalnością AI/SI, gdyż bez niej takie zapisy będą bezadresowe. I powinna to być definicja prosta i jednoznaczna. Co więcej powinna istnieć miara jak bardzo lub w jakim stopniu dany system/program jest sztucznie inteligentny. Być może warto przyjąć miarę ilorazu sztucznej inteligencji AIQ, na wzór ilorazu inteligencji IQ, przyjmując podobne wartościowanie. Bo przecież czego innego możemy oczekiwać od programu z AIQ<70, a czego innego wymagać gdy AIQ>130 (wyjaśnienie: IQ130 ozn. inteligencję geniusza). Tylko jak mierzyć ten iloraz – czy będziemy robić testy programowi na sztuczną inteligencję?

Obecnie jesteśmy w pierwszej fazie marketingu sztucznej inteligencji w rozwoju informatyki, czyli próby tworzenia i sprzedaży wszystkich nowych produktów ze znaczkiem [AI inside], bez względu na to ile w danym produkcie jest rzeczywiście tego AIQ. Nie wiem ile takich systemów czy programów jest potrzebnych i ile może powstać niebawem. Wiadomym jest, że obecnie sprawność i moc obliczeniowa sprzętu cyfrowego jest już tak znacząca, że znajduje się blisko granicy technologicznych możliwości tworzenia nowych układów elektronicznych. Pozostaje już tylko zrównoleglanie procesorów co komplikuje oprogramowanie i obniża efektywną sprawność systemu. Jednocześnie techniki programowania oraz techniki AI/SI pozwalają na sprostanie tworzenia wysoce złożonych algorytmów dla wielu zagadnień, dotychczas trudno rozwiązywalnych. Będziemy czekać na rezultaty.

Ale też, bez względu na zaistnienie rozwiązań o wartościach AIQ dużo większych od najlepszych IQ (według mnie jest to mało prawdopodobne), mogę się pokusić o wyliczenie cech obowiązkowej funkcjonalności nowych programów i systemów:

  1. Obsługa programu jest prosta i zrozumiała, nawet dla osób z niskim IQ, gdyż zgodnie z przyjętymi zasadami, technika SI nie może dominować nad ludzką inteligencją, pozostawiając jej podejmowanie ostatecznej decyzji.
  2. Program korzystając z technik AI weryfikuje poprawność wszystkich danych wejściowych, szczególnie czy nie są to dane błędne mogące być dezinformacją w procesie przetwarzania informacji, zakłócając możliwość uzyskania poprawnego wyniku.
  3. Program weryfikuje prawo każdego jego użytkownika do korzystania z programu jako całości oraz każdego z jego istotnych modułów, co ma spełniać wymagania zapewnienia bezpieczeństwa ochrony systemu przed nieuprawnionymi ingerencjami. Poziom tego bezpieczeństwa ma wzrastać po każdym kolejnym przebiegu programu zgodnie z technikami uczenia się weryfikacji stanu środowiska programu.
  4. Program kontroluje ochronę wskazanych zbiorów danych osobowych przed nieuprawnionym ich kopiowaniem, czy też udostępnianiem nieuprawnionym użytkownikom czy innym programom, co może być jedyną skuteczną metodą ich ochrony zgodnie z privacy by design oraz wymaganiami GDPR/RODO.
  5. Program korzystając z technik AI/SI na podstawie reakcji na wyniki dokonuje zmian w parametrach przetwarzania danych – ucząc się działać skuteczniej, efektywniej, optymalniej przy realizacji zadań przetwarzania informacji zgodnie z ustalonymi oczekiwaniami.
  6. Program gromadzi informacje o wszelkich swoich ułomnościach oraz brakach w efektywności działania przekazując je zespołowi programistycznemu w celu ich poprawienia w kolejnej wersji programu.

Obecny okres marketingu sztucznej inteligencji będzie trwać około 5 lat, po czym pojawi się nowy trend w rozwiązaniach teleinformatycznych, wart kolejnej akcji marketingowej. I chociaż obecny sprzęt cyfrowy jest już technicznie wysoko zaawansowany i silnie inteligentny, to jednak również w CRN należy niebawem oczekiwać artykułów z [AI inside].