"Staliśmy się ostatnio naprawdę bliscy". Zaskakujące wyznanie generała

Army Maj. Gen. William D. “Hank” Taylor
USA i Korea Południowa ćwiczą w odpowiedzi na wystrzelenie rakiet przez Koreę Północną (wideo archiwalne)
Źródło: Reuters
Generał dywizji armii USA William "Hank" Taylor, dowodzący 8. Armią w Korei Południowej, ujawnił, że korzysta z ChatGPT przy podejmowaniu decyzji wojskowych i personalnych.

W kontekście napięć na Półwyspie Koreańskim takie wyznanie budzi pytania o bezpieczeństwo i odpowiedzialność za użycie sztucznej inteligencji w wojsku.

"ChatGPT i ja staliśmy się ostatnio naprawdę bliscy"

Generał dywizji William "Hank" Taylor, pełniący funkcję dowódcy 8. Armii w Korei Południowej oraz szefa sztabu Połączonego Dowództwa Narodów Zjednoczonych, przyznał podczas rozmowy z dziennikarzami, że coraz częściej korzysta z pomocy ChatGPT.

- ChatGPT i ja staliśmy się ostatnio naprawdę bliscy - powiedział generał Taylor. - Proszę [sztuczną inteligencję] o budowanie, próbuję budować modele, które pomogą nam wszystkim - dodał.

Taylor podkreślił, że jego celem jest poprawa jakości i trafności decyzji.

- Jako dowódca chcę podejmować lepsze decyzje - zaznaczył. - Chcę mieć pewność, że podejmuję decyzje we właściwym momencie, aby dały mi przewagę - dodał.

Ograniczone zaufanie do AI

Deklaracja Taylora może budzić niepokój, zwłaszcza że dotyczy Korei Południowej - kraju, w którym armia amerykańska obecna jest nieprzerwanie od 1945 roku. ChatGPT, mimo swojej popularności, znany jest z udzielania zbyt uległych, a często nieprecyzyjnych odpowiedzi.

W przeszłości zdarzało się, że chatbot zachęcał użytkowników w kryzysie psychicznym do niebezpiecznych zachowań, co kończyło się hospitalizacją lub nawet samobójstwem.

Obawy o wiarygodność technologii

Firma OpenAI, twórca ChatGPT, podjęła działania mające na celu ograniczenie potencjalnych zagrożeń, wprowadzając bardziej realistyczną i "przyziemną" wersję modelu GPT-5. Po fali krytyki ze strony użytkowników zdecydowano się jednak na przywrócenie wcześniejszej wersji systemu, charakteryzującej się bardziej "ugodowym" podejściem. Według informacji podanych przez Business Insider, mimo wprowadzonych zmian GPT-5 nadal generuje nieprawdziwe dane w ponad połowie przypadków. Budzi to poważne obawy o wiarygodność technologii, zwłaszcza w kontekście jej potencjalnego wpływu na decyzje podejmowane przez amerykańskich dowódców wojskowych w jednym z najbardziej niestabilnych regionów świata.

Informację jako pierwszy podał Business Insider.

OGLĄDAJ: TVN24 HD
pc

TVN24 HD
NA ŻYWO

pc
Ten i inne materiały obejrzysz w subskrypcji
Zobacz także: