Media społecznościowe pozbywają się moderatorów, a prezydent USA wydaje zarządzenie dotyczące "powrotu wolności słowa". Czy to znaczy, że czeka nas zalew treści kłamliwych, mylących, obraźliwych? - Właścicielom platform społecznościowych dezinformacja się opłaca - mówi dr Katarzyna Bąkowicz. - Z badań wynika, że lepiej zarabia się na szerzeniu fałszywych treści, budzących duże emocje.
Jak jesteśmy chronieni przed dezinformacją czy oszustwami w mediach społecznościowych? Niezbyt dobrze.
Firma Meta (Facebook, Instagram, Threads) zatrudnia 103 moderatorów władających językiem polskim. Na samym tylko Facebooku jest ponad 23 mln Polaków, co oznacza, że w jeden moderator "obsługuje" 233 tys. użytkowników.
Na YouTube polskojęzycznych moderatorów jest 230 (na 29 mln użytkowników), a na TikToku - 146 (na 11,8 mln użytkowników). Najgorzej w tym zestawieniu wypada portal X (niegdyś Twitter), który zatrudnia 1 - to nie literówka - moderatora władającego językiem polskim (na 8,8 mln użytkowników).
Ale to nie tylko polski problem - choć oczywiście "większe" języki mają też więcej moderatorów - a przejaw globalnego, niepokojącego trendu.
Zyski ponad bezpieczeństwem
Zmiany widać co najmniej od kilkunastu miesięcy.
Portal X, znany wcześniej jako Twitter, po zmianie właściciela (od października 2022 r. jest nim Elon Musk) niemal zupełnie zrezygnował z moderacji treści. Każdy użytkownik może też opłacić "niebieski znaczek" przy nazwie swojego profilu, wcześniej nadawany przez administrację w celu weryfikacji tożsamości. "Podczas gdy Twitter był niegdyś jedną z lepiej moderowanych platform, X jest przede wszystkim godnym zaufania źródłem informacji o rzeczach, które właściciel [platformy] chciałby, żebyście zobaczyli" - napisał "The New Yorker".
Facebook pokazuje swoim użytkownikom mniej treści pochodzących od mediów: gazet, telewizji, stacji radiowych, czyli takich, które przynajmniej w teorii są zweryfikowane i sprawdzone. W styczniu Mark Zuckerberg, właściciel i CEO platformy, ogłosił, że zewnętrzni moderatorzy są "zbyt stronniczy politycznie" i "nadszedł czas, by powrócić do korzeni". Zapowiedział też odchodzenie od fact-checkingu na rzecz “Community Notes” (“notatek społeczności”), na wzór tych, które od 2021 r. funkcjonują na X i dzięki którym sami użytkownicy mogą dopisywać dodatkowy kontekst do publikowanych postów.
W ubiegły czwartek Zuckeberg potwierdził, że przy tworzeniu tego narzędzia Meta będzie korzystać z tego samego algorytmu, którego używa platforma X.
Frances Haugen, była pracownica Facebooka, sygnalistka, w swojej książce pisała tak: "Platforma stała się źródłem dezinformacji i zarzewiem politycznej przemocy. Korporacja była tego świadoma, ale przedkładała zyski nad bezpieczeństwo publiczne".
Droga i nieefektywna
A jak wyglądało to w innych serwisach, które można uznać za protoplastów dzisiejszych "społecznościówek"? Pytamy o to Annę-Marię Siwińską, moderatorkę, która pracowała przy forach, blogach, była też odpowiedzialna za systemy komentarzy do tekstów w dużych firmach medialnych.
- Dzisiaj odchodzi się od moderacji, bo jest droga i nieefektywna. Do tego ta praca jest bardzo obciążająca. Czytanie treści pełnych agresji, wulgaryzmów, zawierających nawoływanie do przemocy jest wyniszczające. Rotacja w zawodzie musi być duża - tłumaczy.
Zaczynała, gdy internet w Polsce dopiero raczkował. Na początku po prostu dyskutowała. O potrzebie moderacji przekonała się na własnej skórze. - Zorientowałam się, że grupę dyskusyjną niszczy się bardzo szybko. Wystarczy, że dołączą dwa, trzy trolle, czyli osoby, które nie chcą rozmawiać, a przyjemność czerpią z rozwalania dyskusji.
Na poważnie moderacją zajęła się na początku lat dwutysięcznych. Duże portale informacyjne rozwijały swoje platformy blogowe, fora i systemy komentarzy. Siwińska mówi, że "ruch był nieziemski". Sytuacja portali była jednak inna, niż pierwszych, rozproszonych grup dyskusyjnych.
- Można było napisać skargę do naczelnego albo nawet założyć sprawę w sądzie za komentarze. Takie sytuacje się zdarzały - opowiada.
W 2010 r. Radosław Sikorski, ówczesny minister spraw zagranicznych, pozwał wydawcę portalu Fakt.pl za antysemickie komentarze internautów pod jednym z tekstów. Sprawa toczyła się przez 7 lat i zakończyła zwycięstwem Sikorskiego. Sąd orzekł, że komentarze naruszały dobra osobiste ministra i - co ważne - że za ich obecność pod tekstem odpowiadał wydawca portalu.
Jak mówi Siwińska, to był przełomowy moment. Praca moderatorów okazała się kluczowa, żeby takich sytuacji uniknąć. Ale jak to zrobić, gdy wpisów codziennie było tak dużo, że nie było możliwości przeczytać każdego?
Co jest "szkodliwe społecznie"?
Moderacja reagowała na zgłoszenia użytkowników. System działał tak, że do komentarza pracownik portalu zaglądał wtedy, gdy wpis zebrał dużo negatywnych reakcji. I wtedy oceniał, czy trzeba go usunąć.
- Tu wchodził czynnik wrażliwości: to, co dla jednej osoby było obraźliwe, druga uważała za akceptowalne. To dlatego moderatorów musi być dużo, ponieważ każdy ma inną wrażliwość - relacjonuje Anna-Maria Siwińska.
Podobnie działały późniejsze platformy społecznościowe. Do sprawy podchodziły jednak bardziej systemowo. Tak tłumaczy to Sylwia Czubkowska, autorka książki "Bóg techy. Jak wielkie firmy technologiczne przejmują władzę nad Polską i światem": - Platformy pilnowały, żeby moderatorzy byli zróżnicowani pod względem płci, wieku, rasy, wyznania. W ten sposób starano się uwzględnić rożne wrażliwości.
Siwińska mówi, że w swoim zespole przyjęła pewną zasadę: - Użytkownik ma prawo kłamać i być głupi, natomiast nie ma prawa nikogo obrażać - stwierdza. - Usuwałam też treści szkodliwe społecznie. Oczywiście powstaje pytanie, jakie to są treści i kto o tym decyduje. Czy można usunąć komentarz kogoś, kto uważa, że jego dziecko ma autyzm po szczepieniu? Ja uważałam, że tak.
Ale reakcje na usuwanie treści były skrajne. I tu wracamy do tego, że praca w moderacji bywa obciążająca. - Zdarzały się trudne momenty. W którymś momencie użytkownicy wyśledzili jak się nazywam. Wyszukali na mój temat wszystko. Znajdowałam fotomontaże z twarzą mojego dziecka na różnych dziwnych stronach - opowiada.
Z pracą moderatorki pożegnała się kilka lat temu. Ale z ciekawością obserwuje to, co dzieje się na portalach społecznościowych. - Na Facebooku czy Twitterze nigdy nie było dobrej moderacji - twierdzi. - Szczerze mówiąc nie wierzę w istnienie polskojęzycznych moderatorów. Widać było, że nie reagują na treści, których nie da się łatwo przetłumaczyć translatorem. Za to na jednej z grup rowerowych użytkownicy rozmawiali na temat "platform, na których stawia się stopy", bo ktoś został zablokowany za użycie słowa "pedał".
Nieco inaczej widzi to Sylwia Czubkowska, która przyznaje jednak, że z moderacją od zawsze był problem. - Platformy zatrudniały moderatorów przez zewnętrzne agencje, więc nie byli oni chronieni jak pracownicy. Było kilka kryzysów wizerunkowych związanych z warunkami ich pracy. Do tego zarabiali niewielkie pieniądze. Trudno było więc oczekiwać od nich świetnych efektów - stwierdza.
Zdaniem Siwińskiej komentarze przestały być wiarygodne już jakiś czas temu. - Dyskusje w internecie zaczęły podupadać po narodzinach marketingu szeptanego. Od tamtej pory trudno jest ufać jakiejkolwiek opinii. Przegraliśmy wojnę o komentarze, bardzo trudno znaleźć miejsca, w których są prawdziwe dyskusje. Jakąś nadzieją są dla mnie platformy bez reklam, takie jak Mastodon. Teraz stoimy u progu kolejnego kryzysu, związanego z AI. Zaufanie do treści w internecie jeszcze bardziej spadnie.
Dezinformacja się opłaca
Amerykańskie media alarmuja, że platformy społecznościowe "abdykowały" z funkcji, którą przez pewien czas sprawowały: informowania, pokazywania świata z wielu perspektyw, odkrywania rzeczy, które dotąd pozostawały ukryte. Entuzjastycznie opisywano wpływ mediów społecznościowych na rozwój protestów w trakcie Arabskiej Wiosny (2010-12). Nieco dekadę później, podczas nasilenia się konfliktu izraelsko-palestyńskiego, o platformach coraz częściej mówi się jako o źródle dezinformacji i manipulowania rzeczywistością.
Ale zdaniem dr Katarzyny Bąkowicz z Central European Digital Media Observatory (CEDMO) było to nieuchronne. - Platformy społecznościowe nie są mediami w tradycyjnym tego słowa znaczeniu - zauważa. - Media takie jak prasa, radio, telewizja czy portal internetowy mają prawa i obowiązki, których nigdy nie miały media społecznościowe: chodzi nie tylko o generowanie i dystrybucję treści, ale też odpowiedzialność za nie. Platformy umywają od tego ręce, co przekłada się na to, jak wyglądają, ile znajduje się w nich dezinformacji czy mowy nienawiści.
Naukowczyni zwraca uwagę, że choć platformy zapowiedziały rozluźnienie filtrowania treści, to już wcześniej sytuacja nie była idealna. - Standardy społeczności to jedyne i to dość ogólnie rozumiane reguły - podkreśla.
Jak argumentuje naukowczyni, mylą się ci, którzy myślą, że platformom zależy na "posprzątaniu" takich treści. Choć oczywiście w oficjalnych przekazach deklarują coś innego.
- Właścicielom platform społecznościowym dezinformacja się opłaca. Z badań wynika, że lepiej zarabia się na szerzeniu fałszywych treści, budzących duże emocje - dodaje dr Bąkowicz. - Nie wierzę więc w to, że właściciel platformy będzie chciał z nich z własnej woli zrezygnować. Użytkownicy, często nieświadomi poddawania manipulacji przez algorytmy też karmią się tymi emocjami, fałszywie odczytując to jako emanację wolności słowa. Zatem, żeby coś się w tej materii zmieniło, musi wejść trzecia siła, czyli regulator - stwierdza.
Próby regulacji są. Na przykład w sierpniu 2023 r. w UE w życie weszła ustawa o usługach cyfrowych (Digital Services Act), według której media społecznościowe podlegają grzywnom w wysokości do 6 procent globalnych przychodów za brak moderacji treści. To także dzięki DSA znamy liczby moderatorów posługujących się poszczególnymi językami narodowymi.
- I tak na przykład widzimy, że w Rumunii 9 mln użytkowników TikToka obsługuje 66 osób - mówi Sylwia Czubkowska. Przypomnijmy, że właśnie z postami na tej platformie związane były kontrowersje dotyczące prób wpływania na wybory prezydenckie w Rumunii. - Możemy też niemalże "na żywo" obserwować, jak te działy moderacji są rozmontowywane.
- Niestety Europa przespała moment, kiedy trzeba było odpowiednie regulacje wprowadzić, dlatego teraz Big Techy dyktują warunki istnienia na naszym kontynencie, ponieważ jesteśmy od nich zbytnio uzależnieni. Potrzebujemy politycznej odwagi, żeby się temu przeciwstawić. Nie widzę powodu, dla którego Europa miałaby padać przed tymi firmami na kolana - komentuje dr Bąkowicz.
- W internecie należy przede wszystkim skończyć z anonimowością i zacząć egzekwować prawo, które przecież już mamy. Za publikowanie mowy nienawiści, dezinformacji, kłamstw powinno się ponosić odpowiedzialność, tak jak ponosi się ją w świecie poza internetem. I mamy na to przepisy, tylko one z jakiegoś powodu nie są egzekwowane.
Informację sprawdzaj kilka razy
W styczniu na inauguracji Donalda Trumpa pojawili się właściciele największych technologicznych spółek - Mark Zuckeberg (Meta), Sundar Pichai (Google), Jeff Bezos (Amazon), Tim Cook (Apple), Shou Zi Chew (TikTok) i, oczywiście, współpracujący z prezydentem Elon Musk (X).
Trump wielokrotnie krytykował platformy społecznościowe za "cenzurowanie treści". W 2021, po szturmie na Kapitol, jego konto na Twitterze zostało zablokowane za "nawoływanie do przemocy" (Elon Musk przywrócił je rok później). Tuż po inauguracji Biały Dom wydał zarządzenie, "przywracające wolność słowa".
"W ciągu ostatnich 4 lat poprzednia administracja podeptała prawo do wolności słowa, cenzurując wypowiedzi Amerykanów na platformach internetowych, często wywierając znaczną presję na strony trzecie, takie jak platformy społecznościowych, w celu moderowania, pozbawiania przestrzeni do wyrażania opinii lub w inny sposób tłumienia wypowiedzi, których rząd federalny nie zatwierdził" - pisał Trump. Chodzi m.in. o moderowanie treści szerzących nieprawdziwe informacje w trakcie pandemii. Zdaniem nowej administracji rząd federalny pod pozorem walki z dezinformacją naruszył "konstytucyjnie chronione prawo obywateli amerykańskich do wypowiedzi".
- Należałoby raczej zintensyfikować wysiłki nad regulowaniem treści niż rozluźniać zasady - uważa dr Katarzyna Bąkowicz. - Tak się nie stanie z racji tego, jak bardzo właściciele mediów społecznościowych chcą się przypodobać obecnemu prezydentowi Stanów Zjednoczonych,, a także dlatego, że z polaryzacji i emocji czerpią znaczne zyski. Takie zachowanie niestety w dłuższej perspektywie prowadzi do destrukcji świata informacji.
- Nie mogę powiedzieć, że jest mi ich żal, ale trzeba przyznać, że jakkolwiek platformy działały, zbierały bęcki od wszystkich. Albo nie udawało im się odsiać wszystkiego, więc były krytykowane za dezinformację, albo cięli za mocno i krzyczano o cenzurze. To nierozwiązywalny problem - komentuje Sylwia Czubkowska. - W związku ze zmianą atmosfery w USA szefowie tych platform zdjęli maski, przestali udawać, że to ich obchodzi. Pytanie, jak długo ten klimat polityczny się utrzyma i jakie będą jego konsekwencje.
Co nas czeka w mediach społecznościowych? - Zalew treści wątpliwej jakości, także tych tworzonych przy pomocy AI - uważa Czubkowska. I radzi: - Zawsze należało zachowywać ostrożność w sprawie tego, co widzimy w mediach społecznościowych. Teraz warto te informacje sprawdzać kilka razy.
Źródło: tvn24.pl
Źródło zdjęcia głównego: PAP/EPA/JULIA DEMAREE NIKHINSON