Pierwszy międzynarodowy konkurs piękności oceniany przez sztuczną inteligencję wywołał nie lada kontrowersje - donosi "The Guardian". Okazało się, że na wynik miał wpływ jeden zaskakujący czynnik, a zwycięzcami okazali się reprezentanci gównie jednej tylko rasy.
Wydawało się, że sztuczna inteligencja (ang. AI - artificial intelligence) będzie najsprawiedliwszym możliwym jurorem, który przy wyborze najatrakcyjniejszej kandydatki będzie brał pod uwagę jedynie obiektywne czynniki, takie jak symetria twarzy czy choćby zmarszczki.
"Ludzkie piękno"
Portal Beauty.AI ruszył w tym roku. Blisko 6 tys. ludzi z ponad 100 krajów udostępniło swoje zdjęcia w nadziei, że sztuczna inteligencja wspierana przez kompleksowy algorytm, uczciwie stwierdzi, czy ich wizerunki najbardziej pasują do wzorca "ludzkiego piękna" - pisze "The Guardian".
Wyniki zatrwożyły twórców, który zorientowali się, że... robotom nie podobają się ludzie o ciemnej karnacji. Spośród wszystkich 44 wyłonionych piękności, niemal wszystkie były białe. AI wybrała garstkę Azjatów oraz tylko jedną czarnoskórą osobę. Mimo że rzeczywiście większość uczestników miała jasną karnację, swoje zdjęcia udostępniło także wiele ludzi różnych ras - w tym także duża grupa ludzi z Indii i Afryki.
Nah, a truly robot-gjudged beauty contest would crown as the winner an Nvidia Titan X GPU https://t.co/gPCMozscik
— \\\\\\\\\\\\\\\\\\\\\\\\\\\'((Adam (Elkus))) (@Aelkus) September 9, 2016
Rasistowskie roboty
Związane z tym kontrowersje wywołały na nowo debatę dotyczącą sposobów, w jakie algorytmy utrwalają uprzedzenia, które skutkują pojawieniem się niezamierzonych i obraźliwych wyników. Kiedy Microsoft wypuścił w marcu swojego "millenialsowego" chatbota o imieniu Tay, okazał się, że ten szybko zaczął używać rasistowskiego języka i promować neonazistowskie poglądy na Twitterze.
Z kolei po tym, jak Facebook w minionym miesiącu zwolnił ludzkich edytorów, którzy sprawowali pieczę nad tzw. trendingiem w sieci społecznościowej, algorytm niemal natychmiastowo zaczął promować wymyślone i wulgarne historie pojawiające się na listach (w tzw. news feedzie). Chociaż konkurs piękności wywołały żarty i kpiny, to informatycy i zwolennicy sprawiedliwości społecznej twierdzą, że rosnące uprzedzenia dotyczące AI nie są już tematem do żartów. W niektórych przypadkach niesie to katastrofalne skutki dla kolorowych ludzi.
"Głębokie uczenie"
Beauty.AI została stworzona przez Youth Laboratories wykorzystującą metodę zwaną "głębokim uczeniem" (pozwala komputerowi uczyć się i myśleć samodzielnie bez potrzeby bezpośredniego udziału człowieka). Do zbudowania algorytmu oceniającego piękno, wykorzystuje ogromny zbiór danych składający się ze zdjęć. Przyczyn, dla których algorytm faworyzuje białych ludzi jest wiele.
Główny problem polega na tym, że dane wykorzystane w projekcie do ustalenia standardów atrakcyjności nie uwzględniają wystarczająco mniejszości - powiedział Alex Zhavoronkov, dyrektor naukowy Beauty.AI. Choć grupa nie budowała algorytmu w ten sposób, by jasną karnację przyjmować jako wyznacznik piękna, to dane zaczerpnięte do budowy algorytmu doprowadziły właśnie do takich wniosków. - Jeśli w bazie danych nie znajdziemy zbyt wielu osób o różnym kolorze skóry, wtedy faktycznie otrzymamy tendencyjne wyniki - wyjaśniał Zhavoronkov, który przyznał, że wybór zwycięzców go zdziwił. - Kiedy ćwiczysz algorytm, by rozpoznawał określone wzorce, może nie dysponować wystarczającą ilością danych, bądź dane te mogą być wypaczone.
Ilustracja problemu
Najprostszym wyjaśnieniem stronniczych algorytmów jest to, że tworzący je ludzie, także mają swoje, głęboko zakorzenione uprzedzenia. Oznacza to, że pomimo wrażenia, że algorytmy są wyjątkowo neutralne czy obiektywne, one często mogą się powielać i wzmacniać już istniejące uprzedzenia. Wyniki Beauty.AI są "perfekcyjną ilustracją problemu - stwierdził Bernard Harcourt, profesor prawa i nauk politycznych na Columbia University oraz badacz polityki prewencji, która coraz częściej opiera się na maszynach. - Pomysł, że moglibyśmy stworzyć kulturowo niezależną, rasowo neutralną koncepcję piękna jest po prostu niepojęty - dodał.
Zobacz: Sztuczna inteligencja rasistką? "To wypadek przy pracy"
Autor: ag//km / Źródło: The Guardian
Źródło zdjęcia głównego: beauty.ai