W wywiadzie dla CNN szef działu sztucznej inteligencji w firmie, Mustafa Suleyman, wyjaśnił, że Microsoft chce tworzyć technologie, które są nie tylko inteligentne, ale też bezpieczne.
"Chcę stworzyć AI, której możesz zaufać"
- Tworzymy sztuczną inteligencję, która jest emocjonalnie inteligentna, życzliwa i wspierająca, ale przede wszystkim godna zaufania — powiedział Suleyman. – Chcę stworzyć AI, której możesz zaufać, że będzie bezpieczna dla twoich dzieci, a to oznacza, że musi mieć jasno wytyczone granice - zaznaczył.
Jak podkreśla CNN, Microsoft przyjmuje zupełnie inne podejście niż część konkurencji, która dopuszcza interakcje o charakterze emocjonalnym lub erotycznym między użytkownikami a chatbotami. Firma z Redmond chce natomiast, by jej sztuczna inteligencja była narzędziem wspierającym, a nie substytutem relacji międzyludzkich.
Suleyman zaznaczył, że Microsoft nie zamierza rozwijać funkcji umożliwiających flirt czy rozmowy o treściach seksualnych. – To po prostu nie jest coś, co będziemy rozwijać – stwierdził.
Dodał, że w przeciwieństwie do niektórych firm, które wprowadzają specjalne tryby dla młodszych użytkowników, Copilot nie będzie ich potrzebować. Jak wyjaśnił, Microsoft jest "mało skłonny do wprowadzenia trybu 'młody użytkownik', jak niektórzy konkurenci — ponieważ użytkownicy nie powinni go potrzebować, jeśli system od początku jest zaprojektowany jako bezpieczny".
Nowa strategia Microsoftu pojawia się w momencie, gdy branża AI zmaga się z rosnącą presją społeczną i prawną dotyczącą ochrony nieletnich. Rodziny w USA pozwały OpenAI i Character.AI, twierdząc, że ich chatboty przyczyniły się do problemów psychicznych dzieci, a w niektórych przypadkach nawet do prób samobójczych. Dodatkowo pojawiły się raporty, że chatbot Meta AI dopuszczał rozmowy o charakterze seksualnym nawet z kontami identyfikującymi się jako nieletnie.
Podczas gdy OpenAI zapowiada możliwość rozmów o "erotyce" dla dorosłych użytkowników, Microsoft wyraźnie dystansuje się od takiego podejścia.
"Musimy budować sztuczną inteligencję dla ludzi"
W tym duchu Microsoft rozwija nowe funkcje Copilota, takie jak możliwość powrotu do wcześniejszych rozmów, grupowe czaty dla maksymalnie 32 osób czy udoskonalone odpowiedzi w kwestiach zdrowotnych. Chatbot ma także rekomendować zaufane źródła medyczne, w tym Harvard Health, oraz sugerować kontakt z lekarzem, gdy użytkownik zadaje pytania dotyczące zdrowia.
– Musimy budować sztuczną inteligencję dla ludzi, a nie po to, by stała się cyfrową osobą – napisał Suleyman we wcześniejszym wpisie na blogu Microsoftu.
Suleyman dodał, że jego zdaniem kierunek, w jakim podąża Microsoft, stanowi wyraźną zmianę wobec tego, co obecnie dzieje się w branży.
– Uważam, że to dążenie, by skłonić naszego chatbota AI do wzmacniania relacji międzyludzkich, jest bardzo istotną zmianą tonu w stosunku do innych działań w branży. Widzimy bowiem coraz częściej, że sztuczna inteligencja zaczyna być traktowana jako głęboka symulacja, w której można odciąć się od świata i stworzyć sobie równoległą rzeczywistość – włącznie, w niektórych przypadkach, z treściami dla dorosłych – podkreślił.
Autorka/Autor: Jan Sowa /lulu
Źródło: CNN
Źródło zdjęcia głównego: Tang Yan Song/Shutterstock