Siła modeli maszynowego uczenia się wynika z możliwości wykrywania relacji statystycznych, które często są niedostrzegalne dla człowieka. One same — a nie tworzący je ludzie — określają swoje metody postępowania i sposoby podejmowania decyzji. Dlatego modele te często nazywa się czarnymi skrzynkami. Ta cecha sprawia, że są rzekomo bardziej obiektywne niż ludzie, ale ich rozumowanie jest często nieprzejrzyste i sprzeczne z ludzką intuicją, nawet w ocenie ich twórców.
Na przykład autorzy algorytmów do diagnozowania zakażeń covidem użyli jako grupy kontrolnej obszernej bazy zdjęć rentgenowskich przedstawiających zwykłe zapalenie płuc — jak się okazało, pochodzących od dzieci w wieku od jednego do pięciu lat. W rezultacie stworzone modele nauczyły się odróżniać płuca dzieci od płuc dorosłych, a nie płuca dotknięte covidem od płuc zajętych zwykłym zapaleniem.
Systemy tego typu są tajemniczymi bytami o nieznanych ścieżkach rozumowania. Nie dość, że automatyczne systemy są nieprzeniknione od strony technicznej, to jeszcze ludzie, na których życie mają one największy wpływ, rzadko zdają sobie sprawę z tej tajemniczości.
Sposób, w jaki wprowadzono algorytmy do naszego społeczeństwa, spowodował erozję indywidualnej autonomii człowieka, ale także zmniejszył siłę i decyzyjność instytucji reprezentujących nasze interesy, a zatem doprowadził do transfiguracji całego społeczeństwa.
Osobom świadomym tego, że jakieś algorytmy podejmują decyzje wpływające na ich życie, zwykle odmawia się wiedzy o wewnętrznym działaniu systemów (z punktu widzenia prywatnych firm — stanowiącym ich własność intelektualną), a ślepa wiara instytucji publicznych w skuteczność oprogramowania lub zwykła niewiedza urzędników utrudniają tym ludziom dochodzenie sprawiedliwości. Gdy komputer czegoś nam odmawia, wpadamy w błędne koło. Utrata poczucia autonomii i kontroli sprawia, że trudniej wziąć odpowiedzialność za własne postępowanie. Trudno też przypisać winę i wymierzyć karę osobom lub korporacjom, które przerzucają odpowiedzialność na oprogramowanie korzystające ze sztucznej inteligencji. W końcu maszyny nie da się postawić przed sądem.
W latach 80. XX wieku stanfordzki psycholog Albert Bandura uznał poczucie własnej skuteczności — przekonanie o tym, że mamy kontrolę nad własnymi działaniami i ich konsekwencjami – za wrodzoną cechę ludzkiej natury i nieodłączny czynnik ewolucji naszego gatunku. Jak mówił, człowiek kształtuje swoje okoliczności życiowe i otoczenie społeczne, a nie jest wyłącznie ich wytworem.
Bandura dowodził, że ludzie wywierają wpływ na otoczenie na trzy sposoby: osobiście, przez przedstawicieli oraz jako kolektyw. W ogólnym sensie przedstawicielami są osoby posiadające specjalistyczną wiedzę lub zasoby — jak lekarze, funkcjonariusze aparatu przymusu lub członkowie wybieralnych władz — wskazane przez nas, by wypowiadać się w naszym imieniu, natomiast kolektyw dysponuje wspólną pulą wiedzy i środków nacisku, by kształtować lepszą przyszłość dla wszystkich swoich członków.
Filozofowie uważają, że w ostatecznym rozrachunku wolność człowieka zależy od siły poczucia własnej skuteczności — od zdolności postrzegania podejmowanych działań i odczuwanych pragnień jako własnych, a także przekonania o posiadanej swobodzie kreowania zmian. Systemy sztucznej inteligencji w mniejszym lub większym stopniu na wiele różnych sposobów naruszają to poczucie, wywołując w nas wrażenie osłabienia własnej sprawczości, a w skrajnych przypadkach — nawet utraty wolnej woli.
Jako społeczeństwo znaleźliśmy się więc w kłopotliwym położeniu. Sposób zarządzania sztuczną inteligencją i innymi algorytmami statystycznymi w nadchodzących latach będzie miał ogromny wpływ na nas wszystkich. Brakuje nam jednak narzędzi do kontrolowania nadchodzących zmian. Nie do końca nawet rozumiemy, na czym ten wpływ będzie polegał. Nie potrafimy zdecydować, jakie wartości moralne chcemy zakodować w tych systemach. Nie możemy dojść do porozumienia w kwestii tego, jakie mechanizmy kontrolne chcemy narzucić systemom AI. Kolektywnie zrzekamy się własnego autorytetu moralnego na rzecz maszyn.
Paradoksalnie systemy sztucznej inteligencji doprowadziły jednak nieoczekiwanie do wzmocnienia kolektywnego poczucia sprawstwa. Kiedy bowiem ludzie poczuli się ograbieni z indywidualnej zdolności do kierowania własnym postępowaniem i własną uwagą, zdali sobie sprawę z nieodłącznych cech zautomatyzowanych systemów (takich jak nieprzejrzystość, brak elastyczności, nieustanna zmienność i brak uregulowania) i zaczęli łączyć się w grupy, by walczyć z maszynami o odzyskanie poczucia człowieczeństwa.
Refleksja nad triumfalnym pochodem sztucznej inteligencji umożliwia dostrzeżenie dysproporcji sił i ruch w stronę przywrócenia równowagi. W końcu czy bez tego wciąż jeszcze będziemy ludźmi?
Madhumita Murgia
Jest to fragment książki W cieniu AI Madhumity Murgii wydanej przez Wydawnictwo Port. Jej recenzję zamieszczamy w tym numerze SN.