Microsoft wyznacza nowy kierunek w rozwoju AI. "Istotna zmiana" 

shutterstock_2637727779
Siedziba główna Microsoft
Źródło: Reuters
Microsoft zapowiada, że jego chatbot Copilot nie będzie uczestniczyć w rozmowach o charakterze romantycznym ani erotycznym – nawet w kontaktach z dorosłymi. Ma to zapewnić wyższy poziom bezpieczeństwa, w szczególności dla najmłodszych użytkowników.

W wywiadzie dla CNN szef działu sztucznej inteligencji w firmie, Mustafa Suleyman, wyjaśnił, że Microsoft chce tworzyć technologie, które są nie tylko inteligentne, ale też bezpieczne.

"Chcę stworzyć AI, której możesz zaufać"

- Tworzymy sztuczną inteligencję, która jest emocjonalnie inteligentna, życzliwa i wspierająca, ale przede wszystkim godna zaufania — powiedział Suleyman. – Chcę stworzyć AI, której możesz zaufać, że będzie bezpieczna dla twoich dzieci, a to oznacza, że musi mieć jasno wytyczone granice - zaznaczył.

Jak podkreśla CNN, Microsoft przyjmuje zupełnie inne podejście niż część konkurencji, która dopuszcza interakcje o charakterze emocjonalnym lub erotycznym między użytkownikami a chatbotami. Firma z Redmond chce natomiast, by jej sztuczna inteligencja była narzędziem wspierającym, a nie substytutem relacji międzyludzkich.

Suleyman zaznaczył, że Microsoft nie zamierza rozwijać funkcji umożliwiających flirt czy rozmowy o treściach seksualnych. – To po prostu nie jest coś, co będziemy rozwijać – stwierdził.

Dodał, że w przeciwieństwie do niektórych firm, które wprowadzają specjalne tryby dla młodszych użytkowników, Copilot nie będzie ich potrzebować. Jak wyjaśnił, Microsoft jest "mało skłonny do wprowadzenia trybu 'młody użytkownik', jak niektórzy konkurenci — ponieważ użytkownicy nie powinni go potrzebować, jeśli system od początku jest zaprojektowany jako bezpieczny".

Nowa strategia Microsoftu pojawia się w momencie, gdy branża AI zmaga się z rosnącą presją społeczną i prawną dotyczącą ochrony nieletnich. Rodziny w USA pozwały OpenAI i Character.AI, twierdząc, że ich chatboty przyczyniły się do problemów psychicznych dzieci, a w niektórych przypadkach nawet do prób samobójczych. Dodatkowo pojawiły się raporty, że chatbot Meta AI dopuszczał rozmowy o charakterze seksualnym nawet z kontami identyfikującymi się jako nieletnie.

Podczas gdy OpenAI zapowiada możliwość rozmów o "erotyce" dla dorosłych użytkowników, Microsoft wyraźnie dystansuje się od takiego podejścia.

"Musimy budować sztuczną inteligencję dla ludzi"

W tym duchu Microsoft rozwija nowe funkcje Copilota, takie jak możliwość powrotu do wcześniejszych rozmów, grupowe czaty dla maksymalnie 32 osób czy udoskonalone odpowiedzi w kwestiach zdrowotnych. Chatbot ma także rekomendować zaufane źródła medyczne, w tym Harvard Health, oraz sugerować kontakt z lekarzem, gdy użytkownik zadaje pytania dotyczące zdrowia.

– Musimy budować sztuczną inteligencję dla ludzi, a nie po to, by stała się cyfrową osobą – napisał Suleyman we wcześniejszym wpisie na blogu Microsoftu.

Suleyman dodał, że jego zdaniem kierunek, w jakim podąża Microsoft, stanowi wyraźną zmianę wobec tego, co obecnie dzieje się w branży.

– Uważam, że to dążenie, by skłonić naszego chatbota AI do wzmacniania relacji międzyludzkich, jest bardzo istotną zmianą tonu w stosunku do innych działań w branży. Widzimy bowiem coraz częściej, że sztuczna inteligencja zaczyna być traktowana jako głęboka symulacja, w której można odciąć się od świata i stworzyć sobie równoległą rzeczywistość – włącznie, w niektórych przypadkach, z treściami dla dorosłych – podkreślił.

OGLĄDAJ: TVN24 HD
pc

TVN24 HD
NA ŻYWO

pc
Ten i inne materiały obejrzysz w subskrypcji
Zobacz także: