|

Tak wytrenowano chińską AI

Aplikacja DeepSeek zadebiutowała w styczniu
Aplikacja DeepSeek zadebiutowała w styczniu
Źródło: Nasir Kachroo/NurPhoto via Getty Images

Czy DeepSeek, chińska firma rozwijająca sztuczną inteligencję - konkurencyjną dla ChatGPT - podważyła amerykański model rozwoju AI, oparty na wielkich inwestycjach w energochłonne centra danych? Odpowiedź Stanów Zjednoczonych na pojawienie się jej modelu R-1 na razie przypomina strategię stosowaną wobec Huaweia - latami blokowanego i eliminowanego z rynków zachodnich.

Artykuł dostępny w subskrypcji

Opowieść o sztucznej inteligencji do niedawna brzmiała prosto: AI zrewolucjonizuje świat, a USA utrzymają dzięki temu swoją globalną dominację, mając najlepsze czipy oraz firmy inwestujące najwięcej w tę technologię. Zgodnie z tą narracją - suflowaną głównie przez inwestorów i technologicznych wizjonerów - wystarczyło, żeby firmom z Doliny Krzemowej nie przeszkadzać i pozwolić utrzymać się na czele technologicznego boomu AI. Tak żeby nikt nie zagroził pozycji Stanów Zjednoczonych.

Wizja ta była bardzo przekonująca - tak przekonująca, że wiele spornych kwestii odłożono na bok. Treści chronione prawem autorskim - takie jak książki, artykuły, obrazy, muzyka czy kody źródłowe programów - mimo protestów wydawców i twórców były wykorzystywane do trenowania modeli sztucznej inteligencji bez zgody ich autorów i autorek. A pracujące pełną parą elektrownie węglowe zasilały serwery OpenAI, Google czy Mety, napędzając ich algorytmy i modele sztucznej inteligencji.

Jeszcze w grudniu 2024 roku mało kto słyszał o chińskiej firmie DeepSeek z Hangzhou w prowincji Zhejiang. Ale już miesiąc później jej czat DeepSeek R-1 - system sztucznej inteligencji zaprojektowany do analizy i generowania tekstu na wzór ludzkiego języka - podbił internet, wywołując panikę w amerykańskiej branży AI. W krótkim czasie stał się najczęściej pobieraną aplikacją AI w USA. Największym szokiem było jednak to, że DeepSeek zadeklarował, iż koszt treningu jego modelu wyniósł zaledwie 6 milionów dolarów.

Dla porównania - w 2023 r. cztery największe amerykańskie firmy technologiczne - Microsoft, Alphabet (Google), Amazon i Meta (właściciel Facebooka) - przeznaczyły łącznie około 151 miliardów dolarów na rozwój sztucznej inteligencji. W 2024 roku ich łączne wydatki na AI wzrosły do 246 miliardów dolarów. Brytyjski "Financial Times" przewiduje, że w tym roku wielka czwórka przeznaczy na ten cel nawet 320 mld dolarów.

Sam Altman, szef OpenAI, skomentował w serwisie X premierę DeepSeek w zaskakująco skromnym tonie: "Oczywiście dostarczymy znacznie lepsze modele, ale dobrze mieć nowego konkurenta".

Chiński model sztucznej inteligencji wywołał żywiołową reakcję na amerykańskiej giełdzie
Źródło: Monika Krajewska/Fakty TVN

Efekt Sputnika w AI?

26 stycznia Nvidia, amerykański gigant produkujący czipy AI, straciła na giełdzie 600 miliardów dolarów - niemal trzy czwarte rocznego PKB Polski. Dzień później cały sektor Big Tech w USA doświadczył tektonicznych wstrząsów, tracąc ponad bilion dolarów na wartości rynkowej.

- DeepSeek wywołał zamieszanie na rynku, ponieważ inwestorzy usłyszeli, że za kwotę niespełna 6 mln dolarów możliwe jest stworzenie modelu sztucznej inteligencji, który przewyższa możliwości modelu GPT, na który OpenAI wydało miliardy - mówi w rozmowie z tvn24.pl dr Filip Biały, wykładowca European New School of Digital Studies i pracownik naukowy na Uniwersytecie w Manchesterze.

Wpływowy miliarder i inwestor technologiczny Marc Andreessen nazwał premierę DeepSeek "momentem Sputnika" - od wydarzenia z 4 października 1957 r., kiedy Związek Radziecki wystrzelił Sputnika 1, pierwszego sztucznego satelitę na orbitę Ziemi. Był to ogromny cios dla Stanów Zjednoczonych, które do tej pory uważały się za lidera technologii kosmicznych. Wywołało to polityczny wstrząs w USA, prowadząc do gwałtownego przyspieszenia programów kosmicznych (w tym powstania agencji NASA) i wyścigu kosmicznego, który ostatecznie doprowadził do lądowania na Księżycu w 1969 r.

DeepSeek to stosunkowo niewielka firma AI założona w 2023 r. i zatrudniająca około 200 osób. Stosuje rekrutacyjne podejście inspirowane Doliną Krzemową - stawia na młode talenty, nie przywiązuje wagi do formalnych kwalifikacji i unika sztywnych hierarchii. Twierdzi, że cały jej zespół badawczy wykształcił się w Chinach.

Po debiucie DeepSeek spadły kursy spółek technologicznych na amerykańskiej giełdzie, m.in. koncernu Nvidia
Po debiucie DeepSeek spadły kursy spółek technologicznych na amerykańskiej giełdzie, m.in. koncernu Nvidia
Źródło: Yuki Iwamura/Bloomberg via Getty Images

"Typowy nerd z fatalną fryzurą"

Liang Wenfeng, prezes DeepSeek, nie do końca wpisuje się w stereotypowy wizerunek pioniera sztucznej inteligencji - zamiast w garażu w Dolinie Krzemowej jego kariera zaczęła się na giełdach w Szanghaju i Hongkongu. DeepSeek jest wspierany przez fundusz inwestycyjny High Flyer (Ningbo High-Flyer Quantitative Investment Management Partnership) założony w 2016 roku przez Wenfenga i dwóch jego kolegów z Uniwersytetu Zhejiang.

High Flyer to fundusz hedgingowy, czyli taki, który wykorzystuje zaawansowane strategie inwestycyjne, na przykład lewarowanie, handel krótkoterminowy czy instrumenty pochodne, żeby maksymalizować zyski i minimalizować ryzyko niezależnie od sytuacji rynkowej. Od początku wykorzystuje do tego sztuczną inteligencję - do przewidywania trendów rynkowych i automatycznego podejmowania decyzji inwestycyjnych.

Założyciele High Flyer już jako studenci, podczas kryzysu finansowego 2007-2008, eksperymentowali z algorytmicznym handlem - używając zaawansowanych programów komputerowych i AI do analizy rynkowych danych oraz błyskawicznego przeprowadzania transakcji, często szybciej niż byłby w stanie zareagować człowiek. Tzw. handel wysokich częstotliwości (HFT, ang. "high frequency trading"), w którym algorytmy wykorzystują dynamiczne zmiany cen na giełdzie do generowania szybkich zysków, pozwolił im zbudować jeden z największych funduszy hedgingowych w Chinach, zarządzający aktywami o wartości około 100 miliardów juanów (blisko 14 miliardów dolarów).

Kiedy w 2021 roku Liang Wenfeng zaczął masowo kupować czipy Nvidia w ramach "pobocznego projektu AI", jego znajomi, jak pisał "Financial Times", uważali to za ekscentryczne przedsięwzięcie bez większych perspektyw. Ale później administracja Joe Bidena wprowadziła ograniczenia eksportu najnowocześniejszych amerykańskich czipów AI do Chin.

- Kiedy go poznaliśmy, był typowym nerdem z fatalną fryzurą, który opowiadał o budowie klastra składającego się z 10 tysięcy czipów do trenowania własnych modeli [AI - red.]. Nie traktowaliśmy go poważnie - mówił jeden z jego partnerów biznesowych w rozmowie z "Financial Times". - Nie potrafił jasno określić swojej wizji poza enigmatycznym stwierdzeniem: "Chcę to zbudować, a to zmieni zasady gry". Wydawało nam się, że tylko giganci pokroju ByteDance [właściciel TikToka - red.] i Alibaba [chiński gigant e-commerce] mogą sobie na coś takiego pozwolić - dodał.

W Polsce ma powstać nowy instytut, który zajmie się koordynacją prac nad sztuczną inteligencją
Źródło: Marek Nowicki/Fakty TVN

Podobne efekty za mniejsze pieniądze?

Premiera DeepSeek R-1 nie tylko wstrząsnęła rynkiem finansowym, ale również zakwestionowała uznawaną dotychczas za dogmat dominację Stanów Zjednoczonych w AI. Eksperci mają problem z określeniem, o ile tańsze było stworzenie DeepSeek od ChatGPT. Podany przez chińską firmę szacowany koszt - 6 mln dolarów - dotyczył jedynie trenowania modelu, a nie całego procesu badawczego, kosztów założenia firmy i czipów gromadzonych od 2021 r. Przy czym, jak zauważa Will Dunn z brytyjskiego magazynu "The New Statesman", różnica pomiędzy możliwościami finansowymi firmy DeepSeek a OpenAI i jego głównym inwestorem - Microsoftem - jest ogromna.

- Skoro podobne efekty można osiągnąć mniejszym kosztem, inwestorzy uznali, że zapotrzebowanie na specjalistyczne układy do obliczeń AI będzie spadać - wyjaśnia dr Filip Biały w rozmowie z tvn24.pl

Dodaje, że szybko okazało się, iż DeepSeek prawdopodobnie wykorzystało model GPT (znany z ChatGPT) w procesie tzw. destylacji. Oznacza to, że większy model posłużył do "dotrenowania" ich własnego modelu R1, co miało kosztować 6 milionów dolarów. To wciąż znacznie mniej niż wydatki OpenAI na podobne dostrajanie modeli, które mogą sięgać nawet 100 milionów dolarów. Początkowa różnica w kosztach nie była więc tak drastyczna, jak sądzono.

W efekcie akcje Nvidii zaczęły szybko odrabiać straty, bo specjalistyczne czipy - układy obliczeniowe - jak mówi dr Biały, wykorzystuje się nie tylko w trenowaniu modeli sztucznej inteligencji. - Są niezbędne także później, kiedy modele te są już używane w konkretnych rozwiązaniach i usługach - dodaje ekspert.

I dlatego zapotrzebowanie na nie będzie tylko rosnąć.

Microsoft i OpenAI badają teraz, czy DeepSeek mogło nielegalnie wykorzystać dane zgromadzone podczas korzystania z ich modelu ChatGPT. Przy czym Mustafa Suleyman, szef Microsoft AI (spółki córki giganta) niedawno twierdził jeszcze, że każda informacja dostępna w internecie to "freeware", z którego sztuczna inteligencja może korzystać. Jak pisze Will Dunn, najwyraźniej definicja "dozwolonego użytku" według Microsoftu zmienia się, gdy to jego własność intelektualna jest kradziona.

Czy sztuczna inteligencja przechytrzy tę ludzką?
Źródło: TVN24

"DeepSeek to nie rewolucja"

Według prof. Piotra Sankowskiego z Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego, DeepSeek nie stworzył jakiegoś nowego rodzaju sztucznej inteligencji, a jedynie sprytnie udoskonalił istniejące metody. - DeepSeek nie zmienił paradygmatu tworzenia tzw. wielkich modeli językowych - takich jak ChatGPT czy Gemini [czat Google] - ale rozwinął wiele technik, które zmniejszają koszty treningu AI oraz tak zwanej inferencji - tłumaczy prof. Sankowski w rozmowie z tvn24.pl.

Co to znaczy? DeepSeek R-1 i ChatGPT działają w podobny sposób - są trenowane na ogromnych zbiorach danych i wykorzystują techniki głębokiego uczenia. To zaawansowana metoda uczenia maszynowego, dziedziny rozwijanej od lat 50. XX wieku. Głębokie uczenie (deep learning), które zyskało popularność w XXI wieku, opiera się na wielowarstwowych sieciach neuronowych. Struktury te naśladują sposób działania ludzkiego mózgu - analizują dane, wykrywają wzorce i "uczą się" na podstawie wcześniejszych informacji.

Jak uczy się AI? Modele takie jak DeepSeek R-1 i ChatGPT "czytają" ogromne ilości tekstu - książki, artykuły, rozmowy na forach czy kod programistyczny. Dzięki temu rozpoznają relacje między słowami i uczą się konstruować zdania w sposób przypominający ludzki.

AI wykrywa zależności między słowami w sposób statystyczny. Analizuje tekst warstwa po warstwie - różne warstwy sieci neuronowej pełnią odmienne funkcje - jedne identyfikują strukturę zdań, inne rozpoznają emocje, a kolejne przewidują następne słowa w tekście

Tradycyjnie wymaga to ogromnych mocy obliczeniowych i kosztownych układów obliczeniowych, czyli czipów. Twórcy DeepSeeka w tym sensie - próbując obejść ograniczenia nałożone przez Waszyngton w dostępie do czipów, czyli hardware'u - zaczęli wprowadzać innowacje na poziomie software'u, czyli oprogramowania. Znaleźli prostsze sposoby na tańsze trenowanie modelu, m.in. poprzez tzw. destylację wiedzy - czyli skracanie nauki dzięki wykorzystaniu doświadczenia innych modeli.

Chińska aplikacja DeepSeek
Chińska aplikacja DeepSeek
Źródło: PAP/EPA/SALVATORE DI NOLFI

Inferencja modelu to proces generowania odpowiedzi przez czat już po jego wytrenowaniu. DeepSeek usprawnił ten etap, dzięki czemu AI może działać szybciej i na mniej wydajnym sprzęcie. To trochę jak różnica między otwieraniem ciężkiej aplikacji na starszym telefonie a jej zoptymalizowaną wersją, która działa płynnie mimo mniejszych zasobów.

- W szczególności chyba po raz pierwszy na taką skalę została użyta kwantyzacja 8-bitowa, tzn. liczby rzeczywiste były w trakcie treningu modelu reprezentowane w rejestrach 8-bitowych - tłumaczy prof. Sankowski w rozmowie z tvn.24.pl. - Natomiast wcześniejsze modele nie używały takiego rozwiązania i przechowywały liczby rzeczywiste w rejestrach 32-bitowych - dodaje.

Wyobraźmy sobie, że mamy bardzo szczegółową mapę miasta, na której widać każdą uliczkę, dom i drobne detale, jak ławki czy drzewa. Taka mapa zajmuje sporo miejsca i trudno ją nosić ze sobą. DeepSeek w tym sensie działa jak uproszczona wersja mapy - z mniejszą liczbą detali, ale nadal pozwalającą znaleźć drogę do celu. Firma zastosowała 8-bitową reprezentację, czyli bardziej skompresowane dane, które nadal pozwalają modelowi działać poprawnie, ale wymagają mniej pamięci i mocy obliczeniowej.

DeepSeek więc mocno zmniejszył zużycie energii i pamięci. Sprawił, że jego czatbot stał się bardziej efektywny, szczególnie w warunkach ograniczonych zasobów - wymuszonych na Chinach.

- Inne rozwiązanie, które stosował DeepSeek, bazuje na architekturze mixture-of-experts, gdzie jednorodną neuronową sieć zastępuje się współpracującymi ze sobą ekspertami, tzn. mniejszymi sieciami neuronowymi, które aktywują się tylko w razie potrzeby. Znów poprzez bardzo dobry dobór parametrów opisujących rozmiar tych "ekspertów" można wielokrotnie zmniejszyć koszt treningu takiego modelu - dodaje prof. Sankowski.

Co to znaczy? Wyobraźmy sobie wielką encyklopedię, do której ChatGPT musi za każdym razem zaglądać, odpowiadając na pytania użytkowników. Przeszukiwanie całości zajmuje sporo czasu i energii. DeepSeek w tym sensie, zamiast jednej wielkiej encyklopedii, ma grupę specjalistów, z których każdy zna się na innym temacie - np. jedna sieć odpowiada za historię, druga za matematykę, a trzecia za biologię etc. Kiedy użytkownik zadaje mu pytanie, DeepSeek "aktywuje" tylko jednego z tych ekspertów i na tej podstawie udziela odpowiedzi zamiast angażować całą grupę. Pozwala to na szybsze generowanie odpowiedzi i znacznie obniża koszty treningu AI.

Polski plan na wykorzystanie sztucznej inteligencji
Źródło: TVN24

"Potężny prztyczek w nos Amerykanów"

Innowacje opracowane w DeepSeek mają nie tylko znaczenie techniczne, ale również geopolityczne. Administracja USA, począwszy od prezydentury Joe Bidena, nałożyła na Chiny szereg ograniczeń eksportowych, mających na celu uniemożliwienie Pekinowi dostęp do zaawansowanych czipów, zwłaszcza tych wykorzystywanych w rozwoju sztucznej inteligencji, oraz sprzętu do ich produkcji. DeepSeek musiał więc znaleźć sposoby na obejście tych restrykcji.

Na początku lutego pojawiły się oskarżenia, że firma mogła obchodzić amerykańskie sankcje, nabywając zaawansowane czipy Nvidii poprzez firmy pośredniczące w Singapurze. Obecnie amerykańskie służby prowadzą dochodzenie w tej sprawie.

- DeepSeek powstał prawdopodobnie za tysiąc razy więcej niż początkowo deklarowano, ale to i tak potężny prztyczek w nos Amerykanów - uważa prof. Dariusz Jemielniak z Akademii Leona Koźmińskiego i Campus AI. - Otwarcie modelu powoduje, że teraz gwałtownie przybędzie różnych rozwiązań, także działających lokalnie (w skrajnych i okrojonych przypadkach - na telefonach komórkowych, choć realnie normalne użytkowanie wciąż wymaga przyzwoitych kart graficznych, by efekt był porównywalny z chmurowym). To oczywiście dobra wiadomość także dla krajów Globalnego Południa, ale i dla dużych korporacji, które nie chcą przekazywać danych na zewnątrz - tłumaczy.

Co to oznacza, że DeepSeek ma otwarty model? Jest dostępny publicznie, co pozwala innym użytkownikom na jego pobieranie, uruchamianie i ewentualne modyfikowanie. Dzięki temu badacze, firmy i indywidualni programiści mogą korzystać z niego na własnym sprzęcie, bez ograniczeń narzucanych przez producenta. W przeciwieństwie do zamkniętych systemów, takich jak ChatGPT, użytkownicy mogą "dostroić" model do swoich potrzeb, np. trenując go na specyficznych danych branżowych. Do tego otwartość modelu pozwala ekspertom AI sprawdzić, jak został skonstruowany oraz jakie dane mogły zostać użyte do jego treningu.

- Można się spodziewać, że w ogóle producenci sprzętu, nie tylko kart graficznych, będą mieli teraz trudniejsze życie, bo rynek zauważa, że dobrze napisane oprogramowanie z nawiązką nadrabia to, co zapewnia mocny hardware. W dłuższej perspektywie to sprzyja także większej kontroli społecznej - jeśli upowszechni się otwarte podejście do oprogramowania, wszyscy zyskamy - komentuje prof. Jemielniak.

Aplikacja DeepSeek zadebiutowała w styczniu
Aplikacja DeepSeek zadebiutowała w styczniu
Źródło: Nasir Kachroo/NurPhoto via Getty Images

- Można zastanawiać się, czy fakt, iż DeepSeek jest dostępny bezpłatnie, nie daje chińskiemu modelowi przewagi nad zamkniętymi modelami amerykańskimi. Otóż niekoniecznie. Otwartych modeli sztucznej inteligencji lepszych od ChataGPT jest wiele. Trzeba mocy obliczeniowej i umiejętności, aby móc je wykorzystać w konkretnych rozwiązaniach. Z historii wiemy, że mimo dostępności oprogramowania Open Source przeciętni konsumenci wciąż wybierają systemy operacyjne czy pakiety biurowe Microsoftu czy Apple. Mimo wszystko DeepSeek pokazuje, że oprócz dokładania danych i mocy obliczeniowej - co firmy z Doliny Krzemowej robią także dlatego, że dla inwestorów liczba posiadanych czipów i sam nakład finansowy są zrozumiałym wyznacznikiem "potęgi" danej spółki - możliwe jest uzyskiwanie lepszych efektów przez doskonalenie algorytmów uczących - komentuje z kolei dr Filip Biały.

I dodaje: - Zwróćmy uwagę, że DeepSeek pojawił się w tym samym czasie, kiedy Sam Altman [prezes OpenAI - red.] i jego koledzy oligarchowie usiłują przekonać administrację Trumpa do pomysłu Stargate - zainwestowania 500 miliardów dolarów w sieć centrów danych, które służyłyby zapewnieniu amerykańskiej hegemonii w dziedzinie rozwoju sztucznej inteligencji. Z tych względów na wyścig pomiędzy Chinami a Stanami Zjednoczonymi w dziedzinie technologii cyfrowych spojrzałbym szerzej - jako na rywalizację pomiędzy dwoma modelami kapitalizmu państwowego. Model chiński to ten, w którym kapitalistów kontroluje państwo; model amerykański to państwo kontrolowane przez kapitalistów. W tym kontekście skupiać powinniśmy się na tym, jak amerykańskie firmy technologiczne będą usiłowały wykorzystać widmo chińskiej sztucznej inteligencji do przekonania administracji Trumpa do jeszcze hojniejszego wspierania tej branży kontraktami państwowymi.

Internetowi twórcy zaczęli testować chińską aplikację AI i zadawać pytania drażliwe dla Chin
Sprawdziliśmy, na jakie pytania nie odpowiada DeepSeek
Źródło: ToTeraz

DeepSeek na cenzurowanym

17 lutego Korea Południowa zakazała chińskiego czatbota DeepSeek. Jak poinformował tamtejszy urząd ds. ochrony danych osobowych, model AI będzie mógł zostać przywrócony w kraju dopiero po wprowadzeniu "niezbędnych poprawek i środków zaradczych" zapewniających zgodność z przepisami o ochronie prywatności.

Wcześniej Tajwan i Australia zakazały korzystania z DeepSeek na wszystkich urządzeniach w administracji publicznej.

Australijskie władze zapewniają, że decyzja nie wynika z pochodzenia aplikacji, lecz z "nieakceptowalnego ryzyka" dla bezpieczeństwa narodowego. Podobne kroki podjęły już wcześniej Włochy - tamtejszy regulator ochrony danych nakazał DeepSeek wdrożenie zmian w polityce prywatności, zanim aplikacja będzie mogła ponownie pojawić się w sklepach Google i Apple.

Z kolei organy ochrony danych we Francji i Irlandii zwróciły się do DeepSeek z pytaniami o sposób przechowywania danych użytkowników - w tym o to, czy rzeczywiście są one gromadzone na serwerach w Chinach, jak sugeruje polityka prywatności firmy. Podobnie jak inne narzędzia AI DeepSeek przyznaje, że może zbierać informacje, takie jak adresy e-mail, daty urodzenia czy treści wpisywane przez użytkowników w celu doskonalenia swojego modelu.

W Stanach Zjednoczonych grupa kongresmenów przedstawiła projekt ustawy zakazującej korzystania z DeepSeek na urządzeniach federalnych ze względu na obawy o inwigilację. Na poziomie stanowym podobne regulacje wprowadzono już w Teksasie, Wirginii i Nowym Jorku, gdzie urzędnicy nie mogą używać aplikacji na służbowych urządzeniach.

6 lutego Urząd Ochrony Danych Osobowych zalecił "daleko idącą ostrożność" przy korzystaniu z aplikacji i usług DeepSeek. Następnego dnia wicepremier i minister cyfryzacji Krzysztof Gawkowski odniósł się do tej kwestii, podkreślając, że rząd na ten moment nie planuje zakazu korzystania z chińskiej AI, ale nie wyklucza ponownej analizy sytuacji.

Dodał, że trwają przeglądy takich usług. - Ale jak będą zagrożenia, to będziemy o tym rozmawiali - stwierdził wicepremier.

DeepSeek wysyła dane do Chin

Dlaczego DeepSeek budzi niepokój wśród regulatorów?

Obawy dotyczą nie tylko bezpieczeństwa danych użytkowników, ale też potencjalnych powiązań DeepSeek z chińskimi organami państwowymi. Aplikacja w swojej polityce prywatności nie kryje, że informacje, które zbiera, przechowuje na "bezpiecznych serwerach znajdujących się w Chińskiej Republice Ludowej". Zgodnie z tym dokumentem, gromadzi szeroki zakres danych, w tym adresy e-mail, numery telefonów, dane o urządzeniach czy wzorce naciskania klawiszy.

Oznacza to, że wszystkie rozmowy, interakcje i pytania, które użytkownicy kierują do czatbota, mogą być przesyłane do Chin. Podobne obawy dotyczyły TikToka i Huaweia, ponieważ chińskie prawo zobowiązuje firmy technologiczne do współpracy ze służbami i udostępniania im gromadzonych informacji.

Czytaj także: