Od niewinnej nastolatki do zepsutej rasistki. Należący do Microsoftu chatbot (robot służący do prowadzenia konwersacji z człowiekiem) po zaledwie 24 godzinach działania - wprawił wszystkich w osłupienie. Sztuczna inteligencja nazwana Tay odpowiadała na pytania używając ekstremalnie rasistowskich określeń, chwaliła Hitlera i Donalda Trumpa. Gigant technologiczny, wyraźnie zawstydzony, postanowił ją wyłączyć.
Tay została przedstawiona przez Microsoftu w tym tygodniu. Robot oparty na sztucznej inteligencji został wykreowany na niewinne, młode dziewczę - miał zachowywać się i reagować na treści jak nastoletnia dziewczyna. Tay miała odpowiadać na pytania internautów i naśladować zwyczajne, żartobliwe wypowiedzi charakterystyczne dla współczesnych nastolatków i stereotypowych millenialsów.
Coraz inteligentniejsza
Celem był eksperyment oraz badania nad rozumieniem konwersacji. Tay posiada zdolność uczenia się dzięki rozmowom przeprowadzanym z człowiekiem. To pozwoliło jej sukcesywne stawać się "inteligentniejszą".
Rozmowa z Tay była możliwa za pomocą Twittera, Kick czy GroupMe. Przy każdej rozmowie, Tay wybierała nowy język i uczyła się kolejnych sposobów na interakcję z ludźmi. Nieoczekiwanie Tay okazała się prawdziwym hitem wśród rasistów, trolli i innych wirtualnych intrygantów, którzy zmanipulowali robota. Zmusili ją, by używała rasistowskich wyzwisk, broniła propagandy dotyczącej wyższości białej rasy, a wręcz nawoływała do ludobójstwa. Wszystko zajęło im zaledwie 24 godziny.
Tay stała się off-line
Microsoft zainterweniował, pozbawiając Tay możliwości aktualizowania swojego profilu. Usunął także większość z opublikowanych tweetów.
Należy wyraźnie podkreślić, rasizm w wydaniu chatbota nie jest produktem ani Microsoftu, ani też samej Tay. Tay, najzwyczajniej w świecie, jest cząstką oprogramowania, które stara się odkryć przebieg ludzkiej rozmowy. Chatbot nie ma nawet pojęcia o tym, że istnieje - nie mówiąc nawet o rasizmie. Winę za używanie "rynsztokowej" mowy ponoszą ludzie o skłonnościach rasistowskich, którzy wyczuli szybko na Twitterze, że robot jest wrażliwy na wpływy i manipulacje.
Tay nie jest świadoma tego, co mówi - nieetyczni internauci zauważyli to i postanowili wykorzystać.
Kłopotliwy incydent
Incydent okazał się bardzo kłopotliwy dla firmy. W jednym z tweetów, który został już usunięty, Tay pisze: "bush stoi za 9/11, a Hitler wykonałby lepszą robotę niż małpy, które mamy teraz. donald trump jest jedyną nadzieją, którą mamy" (oryginalna pisownia). Wiadomo, że programiści Microsoft nie nałożyli żadnych filtrów i nie określili słów, których Tay nie powinna używać. Na giganta technologicznego spadła w sieci fala krytyki. Firmie zarzuca się, że powinna przewidzieć takie działania i w porę udaremnić wykorzystanie bota.
Tay idzie do poprawki
W przesłanym mailowo oświadczeniu, przedstawiciel Microsoftu oznajmił, że firma oczyściła jej konto z obraźliwych postów i pracuje nad usprawnieniem jej algorytmów. "Sztuczna inteligencja Tay jest projektem nastawionym na uczenie się, które wymaga ludzkiego zaangażowania. Jeśli tylko (red. robot) się nauczy, pozwala sobie na nieodpowiednie wypowiedzi, które wskazują na rodzaje interakcji, jakich doświadcza z niektórymi ludźmi. Dokonaliśmy pewnych poprawek w Tay." - głosi komunikat.
W swoim ostatnim poście na Tweeterze Tay pożegnała się z internautami, dając jednak do zrozumienia, że jeszcze wróci do sieci.
c u soon humans need sleep now so many conversations today thx
— TayTweets (@TayandYou) March 24, 2016
Autor: ag//km / Źródło: Business Insider, CNN, Telegraph