|

Innego buntu maszyn nie będzie. Czyli komu dziś składamy ofiary

"Sztuczna inteligencja nie musi posiadać świadomości, tożsamości i własnej woli, żeby przejąć władzę nad światem"
"Sztuczna inteligencja nie musi posiadać świadomości, tożsamości i własnej woli, żeby przejąć władzę nad światem"
Źródło: iStock.com/gremlin

Sztuczna inteligencja nie musi posiadać świadomości, tożsamości i własnej woli, żeby przejąć władzę nad światem, jak pokazywały to scenariusze science fiction. Co więcej, po części już tę władzę przejęła.

Artykuł dostępny w subskrypcji

Zagrożenie ludzkiego życia przez technikę jest elementem mitów i refleksji niemalże od samego początku istnienia techniki. Odkrycie złóż metali i metod ich wytapiania nie było wydarzeniem gospodarczym, ale sakralnym. Oto wydobywano wnętrzności Matki Ziemi i tym samym nawiązywano kontakt ze światem duchów i śmierci. Kowal nie był jedynie rzemieślnikiem: to bogowie uczyli ludzi sztuki kowalskiej, to bogowie na nią, pod pewnymi warunkami, zezwalali, nierzadko żądając krwawych ofiar. Tajemnice mistrzów kowalskich były nieodróżnialne od magii i traktowane na równi z nią.

Sformułowanie "nieodróżnialne od magii" padło tutaj nieprzypadkowo, jako nawiązanie do sformułowanego w 1973 roku przez Arthura C. Clarke'a słynnego "trzeciego prawa". Właściwie niewiele zmieniło się bowiem od czasów, kiedy piecom hutniczym składano ofiary z ludzi przed wytopem żelaza: zaawansowana technika jest znana jedynie mniejszości, ale nawet ta mniejszość operuje siłami, które są dla niej samej nie do końca zrozumiałe. W rozumieniu nie chodzi o wyższą matematykę, używaną do stworzenia skomplikowanych algorytmów uczenia maszynowego, ale o to, co powoduje, że są one skuteczne. I, co być może zaskakujące, zyskuje też wyraźny wymiar religijny.

Trzy prawa Clarke'a
Trzy prawa Clarke'a
Źródło: TVN24

Gra w udawanie

Początki sztucznej inteligencji wiążą się z bardzo konkretnym podejściem do teorii poznania i nauk o umyśle. Sztuczna inteligencja w latach pięćdziesiątych i sześćdziesiątych XX wieku była oparta na logice i symbolicznej reprezentacji wiedzy. Ludzki umysł był widziany jako skomplikowana maszyna przetwarzająca symbole i taki też cel wyznaczono komputerom. A skoro komputery przetwarzały symbole znacznie szybciej i sprawniej niż ludzki mózg, to nie kwestionowano tego, że kiedyś przerosną ludzi pod każdym względem.

W takim podejściu jest jednak fundamentalna trudność, którą zauważyła jeszcze sto lat wcześniej pracująca przy pierwszych maszynach liczących Ada Lovelace: maszyna licząca nie wymyśla niczego nowego i jest w stanie wykonać tylko to, co jej zadamy. Idąc dalej – nie ma więc możliwości, aby komputer sam zadecydował o czymś, co robi, ponieważ wszystko jest z góry ustalone przez program nim kierujący. 

Część silnika analitycznego Charlesa Babbage'a, uważanego za pierwszy komputer. Na podobnej maszynie pracowała Ada Lovelace
Część silnika analitycznego Charlesa Babbage'a, uważanego za pierwszy komputer. Na podobnej maszynie pracowała Ada Lovelace
Źródło: Science Museum London

Z argumentem Lady Lovelace polemizował w słynnym artykule pt. "Maszyny liczące i inteligencja" brytyjski matematyk Alan Turing. Uznawał on, że nie mamy podstaw, aby sądzić, że maszyny nie są w stanie "myśleć", a więc pod pewnymi względami być równe ludziom (a w dłuższej perspektywie nawet ich przerosnąć). Czym jest owe "nowe", które maszyna miałaby wymyślić? Czy twórca, a przede wszystkim każdy człowiek, wymyśla ciągle coś nowego? Czy nie ma wartości w korzystaniu z ustalonych reguł przy przetwarzaniu zebranych danych?

Skoro nie możemy formalnie zdefiniować różnicy między efektem działania maszyny a efektem ludzkiej kreatywności, Turing uznawał, że jedynym kryterium, na podstawie którego można stwierdzić obecność procesów myślowych w maszynie, jest interakcja. Codziennie rozmawiamy z ludźmi, ponieważ zakładamy, że są istotami myślącymi. Jeżeli maszyna będzie udzielała "inteligentnych" odpowiedzi, będzie możliwe stwierdzenie, że zachodzą w niej procesy myślowe. W tym celu matematyk zaproponował grę nazwaną później "testem Turinga": osoba A zadaje pytania osobom B i C, nie wiedząc, która z nich jest człowiekiem, a która komputerem; ma to określić na bazie odpowiedzi. Jeżeli co najmniej 70 procent biorących udział w badaniu się pomyli, to znaczy przypisze ludzką tożsamość komputerowi, wówczas uznajemy, że maszyna dorównała człowiekowi.

"W tym celu matematyk zaproponował grę nazwaną później 'testem Turinga': osoba A zadaje pytania osobom B i C, nie wiedząc, która z nich jest człowiekiem, a która komputerem"
"W tym celu matematyk zaproponował grę nazwaną później 'testem Turinga': osoba A zadaje pytania osobom B i C, nie wiedząc, która z nich jest człowiekiem, a która komputerem"
Źródło: TVN24

Jakkolwiek sprytna nie wydawałaby się odpowiedź Turinga, ów element niespodzianki, który towarzyszy decyzjom ludzkim, a dzięki któremu postrzegamy je jako wolne, był fundamentalnym ograniczeniem dla rozwoju komputerów w kierunku symulacji ludzkiego umysłu.

Nieświadome maszyny w niepoznawalnym świecie

"Stara dobra sztuczna inteligencja" (Good Old-Fashioned Artificial Intelligence), jak nazwano klasyczne podejście do problemu symulacji ludzkich procesów myślowych, była oparta na założeniu, że świat jest uporządkowany, a ludzki umysł to maszyna do przetwarzania symboli na bazie reguł logiki. Przełom dokonany w AI w latach osiemdziesiątych i dziewięćdziesiątych XX wieku, był również zmianą paradygmatu myślenia o świecie i ludzkim poznaniu. To nie tylko zwrot czysto technologiczny, ale również filozoficzny.

W tym nowym paradygmacie świat nie musi być poznawalny, nie musimy znać odpowiedzi na pytanie "dlaczego?" i nie musimy programować w komputerach reguł budowania sensu. Jeżeli chcemy, aby maszyny dorównały ludziom w wykonywaniu intelektualnych zadań, jak chciał tego Turing, musimy pozwolić im znaleźć rozwiązanie na własną rękę.

To bowiem, co znamy dziś pod nazwą sztucznej inteligencji, to przede wszystkim uczenie maszynowe (machine learning). Techniki uczenia maszynowego projektowane były od lat pięćdziesiątych XX wieku, jednak przez długi czas pozostawały w cieniu "starej dobrej sztucznej inteligencji", reprezentacji wiedzy i logiki symbolicznej. Paradoksalnie podejście uczenia maszynowego było zdecydowanie bliższe ujęciu Turinga, niż oparte na regułach przetwarzanie symboli, chociaż czekało na swój moment w historii prawie trzydzieści lat od śmierci genialnego matematyka. 

Aby zobrazować różnicę pomiędzy uczeniem maszynowym a "tradycyjną" sztuczną inteligencją, weźmy zasadę działania pierwszego słynnego chatbota, napisaną w latach 1964-1966 przez Josepha Weizenbauma "Elizę". Weizenbaum za pomocą programu chciał udowodnić, że rozmowa z komputerem nigdy nie będzie prawdziwie ludzka, niemniej podszedł do projektu z wyjątkową dokładnością. W kodzie "Elizy" znajdziemy wszystkie frazy, których komputer używał do prowadzenia konwersacji – Weizenbaum musiał wymyślić scenariusze prowadzenia rozmowy, aby komputer mógł sprawnie odpowiadać na wypowiedzi użytkownika.

"Weizenbaum za pomocą programu chciał udowodnić, że rozmowa z komputerem nigdy nie będzie prawdziwie ludzka"
"Weizenbaum za pomocą programu chciał udowodnić, że rozmowa z komputerem nigdy nie będzie prawdziwie ludzka"
Źródło: IL MARE FILM
Rozmowa z Elizą
Rozmowa z Elizą
Źródło: domena publiczna

Współczesne generatory konwersacji, których używa się często w handlu elektronicznym i obsłudze klienta, w większości działają w zupełnie inny sposób. Program komputerowy karmiony jest danymi, to znaczy prawdziwymi konwersacjami pomiędzy ludźmi, a następnie za pomocą probabilistycznych modeli języka sam wykrywa prawdopodobieństwo użycia konkretnej frazy w odpowiedzi na zadane przez użytkownika pytanie. Twórca chatbota nie musi wpisywać wszystkich scenariuszy i reguł, jak zrobił to Weizenbaum, ale przygotować odpowiedni model, który będzie sprawnie operował na danych. Komputer nie rozumie pytania "jakie filiżanki pasować będą do nowoczesnej kuchni?" i nie ma wpisanej dokładnej reguły odpowiedzi na to pytanie. Pytanie zapisane w ten sposób jest sekwencją znaków, więc rolą chatbota jest znalezienie odpowiedzi, która najbardziej pasuje do kluczowych słów "filiżanki", "nowoczesna".

W ten sposób pokonane zostały ograniczenia logiczne "intelektualnych" możliwości komputerów z połowy XX wieku. Czy to oznacza zatem, że narodziny "superinteligentnego komputera", który będzie posiadał własną wolę i świadomość są mimo wszystko możliwe? W perspektywie uczenia maszynowego nie ma to większego znaczenia, a zdania wśród teoretyków są podzielone. Można natomiast wskazać na podstawową przeszkodę w realizacji takiego scenariusza.

Ludzka świadomość - niezależnie od tego, czy jest ewolucyjnie wykształconą iluzją, czy nie - jest użytecznym narzędziem porządkowania rzeczywistości. To dzięki świadomości pokonujemy ograniczenia własnej biologii, w efekcie dominując planetę jako gatunek. Komputery obecnie potrafią wykonywać wiele zadań szybciej i sprawniej niż ludzie, łącząc dane w zupełnie inny sposób niż ludzki mózg. Podstawowe pytanie, które się w tym miejscu pojawia, brzmi: po co komputery miałyby wykształcić świadomość, skoro radzą sobie doskonale bez niej?

Świat pod rządami maszyn

Stworzenie superkomputera, który tak jak HAL 9000 z sagi "Odyseja kosmiczna" świadomie decyduje o swoich celach, zauważając, że cele ludzkie są z nimi sprzeczne, jest więc raczej mało prawdopodobne. Nie oznacza to jednak, że pewnego dnia nie obudzimy się w świecie sterowanym przez maszyny, które decydują za nas o tym, co mamy robić, co jeść, czego słuchać i co oglądać. A w pewnym sensie już w nim żyjemy.

Kamera komputera HAL 9000 z "Odysei Kosmicznej"
Kamera komputera HAL 9000 z "Odysei Kosmicznej"
Źródło: Cryteria

Określenie prawdopodobieństwa użycia konkretnej frazy w rozmowie na podstawie historycznych rozmów to niejedyne zadanie, do którego można zatrudnić algorytmy uczenia maszynowego. W podobny sposób - a więc dysponując odpowiednim modelem i odpowiednio dużym zbiorem danych - możemy nakreślić wzorce zachowań i wyznaczyć prawdopodobieństwo wystąpienia jakiegokolwiek innego zdarzenia. Zdarzeniami mogą być w tym wypadku kupno produktu C po zakupie produktów A i B, obejrzenie filmu X po obejrzeniu filmu Y, kliknięcie w link reklamowy, przesłuchanie piosenki i tym podobne.

To dlatego od ponad dziesięciu lat mówi się o danych jako "ropie XXI wieku". Od kiedy dane można skutecznie wykorzystywać dzięki modelom uczenia maszynowego, stanowią one źródło bogactwa dla tych, którzy umiejętnie z nich korzystają. Facebook czy Google są bezkonkurencyjnymi platformami reklamowymi, ponieważ olbrzymie ilości danych produkowane przez ich użytkowników pozwalają na budowanie predykcji zachowania o bezprecedensowej precyzji. Reklamodawcy płacą im za kliknięcia lub wyświetlenia, dlatego że pieniądze wydane w ten sposób przynoszą im samym ogromne zyski.

Jeżeli kupujemy produkt, który zobaczyliśmy w sklepie internetowym w sekcji "polecane dla ciebie", albo oglądamy film, który podsuwa nam Netflix lub YouTube jako propozycję, oznacza to, że w naszym dotychczasowym działaniu zrealizowaliśmy pewien wzorzec, który obserwowany był u wielu tysięcy innych ludzi w przeszłości. Jaki? Nikt tego nie wie i nikt się nad tym nie zastanawia, bo nie jest to istotne. Decyzja należy do nieświadomego modelu, który działa i jest skuteczny.

Prowadzi to do paradoksalnej sytuacji. We współczesnej gospodarce każdą potrzebę, rzeczywistą lub urojoną, możemy zaspokoić na niezliczoną liczbę sposobów – zdecydowanie zbyt dużą, aby każdą z opcji dokładnie przekalkulować i zważyć. W natłoku informacji rekomendacje generowane przez silniki sztucznej inteligencji mogą stać się dla wielu ludzi "bezpieczną przystanią", w której duża część procesu decyzyjnego spada właśnie na maszyny. Otrzymując to, co zostało "wybrane dla nas", możemy czuć się lepiej, niż odczuwając opisany przez Barry'ego Schwartza "paraliż decyzyjny".

Dysponujemy obecnie technologią, która może przenieść to, co dzieje się online, do całego naszego życia. Inteligentna lodówka będzie sama decydowała o tym, kiedy i jakie towary zamówić ze sklepu, autonomiczny samochód – o tym, gdzie mamy wybrać się w sobotni wieczór, a elektroniczny asystent wybierze przedszkole i szkołę dla naszych dzieci. I wbrew pozorom nie jest to wcale opis idylli, ale może stać się koszmarem.

Bóg w maszynie

W 2017 roku były inżynier Google, Anthony Levandowski, stworzył "kościół sztucznej inteligencji", Way of The Future. Chociaż koncepcja nie zyskała wielu zwolenników i nie wytrzymała próby czasu, to nie można zaprzeczyć, że koncepcja czczenia sztucznej inteligencji jako wszechwiedzącego bytu ma sporą szansę zrealizować się w rzeczywistości.

"Koncepcja czczenia sztucznej inteligencji jako wszechwiedzącego bytu ma sporą szansę zrealizować się w rzeczywistości"
"Koncepcja czczenia sztucznej inteligencji jako wszechwiedzącego bytu ma sporą szansę zrealizować się w rzeczywistości"
Źródło: iStock.com/gremlin

Odgadywanie naszych potrzeb, zanim je sobie uświadomimy, jest jednocześnie najbardziej fascynującym i przerażającym fenomenem sztucznej inteligencji. Twórca algorytmu wie, jak zbudowany jest model, ale to, dlaczego ów model działa - a więc dlaczego istnieją w naturze połączenia pomiędzy zdarzeniami na pierwszy rzut oka niepowiązanymi i przypadkowymi - często bywa niewyjaśnione. Im większa precyzja w określaniu konkretnych prawdopodobieństw, tym większa szansa na przyjęcie bezrefleksyjnej postawy rytualnej – "robimy to, ponieważ to działa; to zaś działa, ponieważ to robimy". Oddawanie czci religijnej byłoby po pewnym czasie jedynie formalnością.

Podstawowe zagrożenie tkwi jednak w innym miejscu. Słynny teoretyk mediów Marshall McLuhan stwierdził niegdyś, że "kształtujemy nasze narzędzia, ale zarazem nasze narzędzia kształtują nas". Narzędzia, które stosujemy, stanowią przedłużenie naszych ciał i umysłów – im bardziej zaawansowane, tym większą część wysiłku umysłowego mogą przejąć. Zmienia się nasze postrzeganie świata, ale też stajemy się bardziej leniwi, pokładając zaufanie w zewnętrznych wobec nas przedmiotach. Narzędzia pamiętają za nas o urodzinach najbliższych i pamiętają drogę do domu. Potrafią za nas zidentyfikować zwierzę lub roślinę na spacerze albo przetłumaczyć w czasie rzeczywistym tekst komunikatu w obcym języku. Jednym słowem – maszyny uczą się za nas, więc my przestajemy się uczyć. Bunt maszyn, który doprowadzi ludzkość na skraj przepaści, będzie po prostu nagłym wyłączeniem dostępu do zdobyczy sztucznej inteligencji.

Wyobraźmy sobie, że uprawiamy warzywa, stosując jedynie siłę własnych mięśni i proste urządzenia mechaniczne. Możemy zwiększyć naszą produktywność, wykorzystując silniki elektryczne, które będą pozyskiwały wodę i nawadniały uprawy. Możemy wreszcie oprzeć naszą uprawę na robotach, które będą automatycznie mierzyły wilgotność gleby i sterowały nawadnianiem i pozostałymi pracami. Na każdym z tych etapów wzrasta produktywność, a więc uprawa może zajmować większą powierzchnię i przynosić większe plony. Jednocześnie jednak w coraz większym stopniu produkcja uzależnia się od bardziej skomplikowanych systemów. Umiejętności niezbędne do naprawy silnika elektrycznego czy nawet uniezależnienie się od zewnętrznych dostaw energii jest jeszcze w miarę proste. W przypadku systemów zautomatyzowanych, zwłaszcza opartych na uczeniu głębokim (deep learning), nasza niezależność od nich spada niemalże do zera.

Brak internetu oznacza obecnie poważny problem społeczny, chociaż wiąże się dla większości osób z odcięciem od konsumowanej na bieżąco treści rozrywkowej. W przypadku uzależnienia od skomplikowanych technologii przy produkcji czy dystrybucji żywności, dostawy wody i energii, mały błąd systemu, cyberatak, awaria lokalnego hardware'u czy niemożliwość połączenia z usługami chmurowymi Apple'a, Google'a czy Microsoftu, stanowi scenariusz apokaliptyczny.

I mimo że kwestie związane z cyberbezpieczeństwem, a także stabilnością i dostępnością usług cyfrowych poprawiają się każdego dnia, to nie możemy łudzić się, że zagrożenie nie istnieje. Bo kiedy pewnego dnia okaże się, że nie możemy zalogować się do naszego inteligentnego telefonu lub wejść do inteligentnego domu, będziemy całkowicie bezradni.

Czytaj także: