Komentarz katalog wpisów zbitki WBI

SI: Kilka pytań do Microsoftu
- i nie tylko

data wpisu: 2020.11.16 | data publikacji: 2020.09.01

Poniższy felieton został opublikowany w CRN nr 9/2020. Tutaj pojawia się po dwóch miesiącach dla przypomnienia oraz archiwizacji.


Czy i co zrobić, gdy AI wymknie się spod kontroli?


Niedawno Microsoft, w odpowiedzi na opublikowaną przez unijne władze „Białą Księgę AI”, opublikował obszerny dokument pod dość ogólnym hasłem „Trust and excellence made in Europe”. Widać w nim ogromną determinację producenta w upowszechnianiu rozwiązań sztucznej inteligencji w instalacjach przetwarzania w chmurze na obszarze UE. Jest to zrozumiałe, ale jednocześnie warte przeanalizowania, co wymaga nieco czasu i zaangażowania.

Z pewnością na wyjaśnienie czekają kwestie i pytania, na które nawet szefostwo Microsoftu nie może jednoznacznie odpowiedzieć, poza stwierdzeniem, że będą się starali zachować odpowiednią staranność w realizacji tych nowych rozwiązań. Z miejsca można wymienić cztery takie problematyczne tematy.

Po pierwsze, jak można zagwarantować, że do algorytmów SI nie zostaną „wstrzyknięte” czynności zmieniające efekty ich działań na rzecz, dajmy na to, rządu USA. W tym przypadku Microsoft może ulec przed stwierdzeniem, że jest to interes narodowy. Równie dobrze odpowiednio „zainfekowana” sztuczna inteligencja zacznie działać na rzecz organizacji przestępczych, czego koncern Satyi Nadelli może nie zauważyć, lub też nie mieć dobrych form obrony. A że jest to możliwe, tego jasno dowodzi historia rozwoju oprogramowania tej marki. Ponieważ nie było ono odporne na wirusy, w związku z czym konieczna była instalacja – o zgrozo – Kaspersky’ego lub rumuńskiego Bitfendera.

Poza tym, jak można zagwarantować, że te nowe algorytmy SI nie zostaną wykorzystane przeciwko obywatelom krajów UE? Zastanawiająca jest bowiem informacja, że IBM zdecydował się zaprzestać prac nad rozpoznawaniem osób. Tutaj również, wbrew intencjom Microsoftu, może zadziałać przykaz z kół rządowych lub z innych wpływowych źródeł.

Załóżmy ponadto, że z jakiegoś powodu któryś z algorytmów SI będzie źle działać (źle się uczyć) i spowoduje poważne szkody. Czy będzie szansa na przeprowadzenie śledztwa, przesłuchanie autorów tegoż algorytmu - obywateli stanu Washington – czy też ich osądzenia na terenie Unii Europejskiej? Patrząc na przypadek 737 MAX, będzie to raczej niemożliwe.

I wreszcie, w jaki sposób Microsoft zagwarantuje, także w Polsce, ciągłość usług przetwarzania w chmurze w sytuacji, gdy się u nas pojawią „zielone ludziki”, wyganiając załogę fortu Trumpa? Tracąc suwerenność, tracimy też dostęp do całej bazy danych administracji państwowej (fakt, że może ona przetrwać ten zły czas na „wygnaniu”).

Oczywiście to wszystko mieści się w ramach ryzyka biznesowego i trudno zaniechać działalności z obawy, że mogą wystąpić jakieś problemy. Jednakże przy tak znaczących inwestycjach oraz przejęciach dokonywanych przez Microsoft (ale także Google’a) praktycznie całych polskich zasobów informacyjnych i chyba większości unijnych, kontrolowanych przez sztuczną inteligencję, zasadnym jest postulat bardzo dogłębnej analizy każdego możliwego ryzyka wraz z przygotowaniem odpowiednich procedur ratunkowych. A tego, niestety, w odpowiedzi Microsoftu na unijną „Białą Księgę AI”, ani w niej samej, nie znalazłem. Stąd mój niepokój.