Microsoft zdecydował, że nie będzie już pozwalać firmom na korzystanie z narzędzia do oceniania emocji, płci lub wieku przy użyciu technologii rozpoznawania twarzy. Korporacja ogranicza również dostęp do innych technologii wykorzystujących sztuczną inteligencję, między innymi syntezatora pozwalającego na tworzenie nagrań przypominających głos prawdziwej osoby.
Decyzje Microsoftu wynikać mają z dokonanego przeglądu etyki wykorzystywania sztucznej inteligencji (SI), nazwanej "odpowiedzialnym standardem SI". Jak poinformowano, podjęte działania sprawią, że niektóre dostępne dotychczas funkcje zostaną zmodyfikowane, zaś inne całkiem wycofane ze sprzedaży.
Azure Face ograniczone
Ograniczony zostanie m.in. dostęp do narzędzia do rozpoznawania twarzy Azure Face. Dotychczas wiele firm, np. Uber, wykorzystywało ją w ramach procesów weryfikacji tożsamości użytkowników. Według nowych zasad każda firma chcąca korzystać z funkcji rozpoznawania twarzy będzie jednak musiała złożyć wniosek o jej użycie. We wniosku będzie trzeba udowodnić, że firma spełnia standardy etyczne Microsoftu w zakresie korzystania z SI oraz, że usługa ta zostanie wykorzystana z korzyścią dla użytkownika końcowego i społeczeństwa.
Jednocześnie całkiem skasowana będzie możliwość korzystania z niektórych bardziej kontrowersyjnych funkcji Azure Face. Microsoft wycofa m.in. technologię umożliwiającą ocenianie stanów emocjonalnych i określanie cech takich jak płeć czy wiek.
- Współpracowaliśmy z wewnętrznymi i zewnętrznymi badaczami aby zrozumieć ograniczenia i potencjalne korzyści tej technologii, oraz aby osiągnąć kompromisy. W szczególności w przypadku rozpoznawania emocji wysiłki te doprowadziły nas do ważnych pytań dotyczących prywatności, braku zgody co do definicji "emocji" i braku możliwości uogólnienia powiązań między wyrazem twarzy a stanem emocjonalnym - powiedziała Sarah Bird, menedżerka ds. produktów w firmie Microsoft cytowana przez brytyjskiego "Guardiana".
CZYTAJ WIĘCEJ: Rozpoznawanie zasłoniętych twarzy? Doniesienia o nowej technologii tworzonej w Izraelu
Deepfake
Microsoft ograniczy również dostęp do technologii Custom Neural Voice, czyli funkcji zamiany tekstu na mowę. Syntezator ten umożliwia tworzenie sztucznego głosu brzmiącego niemal identycznie jak głos wybranej, prawdziwej osoby. Powodem są obawy o wykorzystywanie tej technologii do podszywania się pod innych i wprowadzania w błąd odbiorców. "Wraz z postępem technologii która sprawia, że syntetyczna mowa jest nie do odróżnienia od ludzkich głosów, pojawia się ryzyko szkodliwych deepfake'ów" - wyjaśnia Qinying Liao z Microsoftu cytowana przez "Guardiana".
CZYTAJ WIĘCEJ: Technologia, która "ożywia" zmarłych, ale też posągi. Oto deep fake w nostalgicznej wersji
Firma nie rezygnuje jednak całkowicie z funkcji rozpoznawania emocji. Będzie ona wykorzystywana wewnętrznie w narzędziach ułatwiających dostęp, takich jak Seeing AI. Narzędzie to próbuje słowami opisywać świat na potrzeby użytkowników z problemami ze wzrokiem.
Źródło: The Guardian
Źródło zdjęcia głównego: VDB Photos / Shutterstock