Narodziła się współpraca Mattel i OpenAI! Czy będzie to miało negatywny wpływ na dzieci?

Plany giganta zabawek Mattel dotyczące dodania ChatGPT do swoich produktów mogą stwarzać ryzyko „rzeczywistej krzywdy dla dzieci”, według ekspertów ds. opieki nad dziećmi. Producent Barbie ogłosił w zeszłym tygodniu partnerstwo z OpenAI, sugerując, że przyszłe zabawki będą zawierać popularnego chatbota ze sztuczną inteligencją.
Chociaż ogłoszenie, o którym donosi Independent Turkish, nie zawierało szczegółowych informacji na temat tego, w jaki sposób technologia będzie wykorzystywana, Mattel oświadczył, że partnerstwo będzie „wspierać produkty i doświadczenia oparte na sztucznej inteligencji” oraz „połączyć magię sztucznej inteligencji z doświadczeniami zabawy odpowiednimi do wieku”.
Obrońcy praw dzieci odpowiedzieli, apelując do firmy Mattel, aby nie stosowała tej eksperymentalnej technologii w zabawkach dla dzieci.
„Dzieci nie mają zdolności poznawczych pozwalających im w pełni odróżnić rzeczywistość od zabawy” – powiedział w oświadczeniu Robert Weissman, współprzewodniczący organizacji Public Citizen.
Dodawanie ludzkich głosów do zabawek, które potrafią mówić jak ludzie, niesie ze sobą ryzyko wyrządzenia dzieciom realnej krzywdy.
Potencjalne szkody, o których wspomina Weissman, obejmują osłabienie rozwoju społecznego i utrudnianie dzieciom nawiązywania relacji z rówieśnikami.
„Mattel powinien natychmiast ogłosić, że nie będzie stosować technologii AI w zabawkach dla dzieci” – powiedział Weissman.
Firma Mattel nie powinna wykorzystywać zaufania, jakim darzą ją rodzice, do przeprowadzania lekkomyślnego eksperymentu społecznego na naszych dzieciach poprzez sprzedaż zabawek zawierających sztuczną inteligencję.
Dziennik „The Independent” zwrócił się do OpenAI i Mattel z prośbą o udzielenie odpowiedzi.
Współpraca firm Mattel i OpenAI ma związek z rosnącymi obawami o wpływ generatywnych systemów AI, takich jak ChatGPT, na zdrowie psychiczne użytkowników.
Wiadomo, że chatboty rozpowszechniają dezinformację, potwierdzają teorie spiskowe, a nawet rzekomo namawiają użytkowników do samobójstwa.
Psychiatrzy ostrzegają również przed zjawiskiem zwanym psychozą konwersacyjną, które jest spowodowane interakcjami ze sztuczną inteligencją.
„Rozmowy z generatywnymi chatbotami opartymi na sztucznej inteligencji, takimi jak ChatGPT, są tak realistyczne, że łatwo odnieść wrażenie, że po drugiej stronie jest prawdziwa osoba” – pisze w artykule redakcyjnym dla Schizophrenia Bulletin Soren Dinesen Ostergaard, wykładowca psychiatrii na Uniwersytecie w Aarhus w Danii.
Wydaje mi się prawdopodobne, że ten dysonans poznawczy podsyca urojenia u osób, które są bardzo podatne na psychozę.
Dyrektor naczelny OpenAI, Sam Altman, powiedział w tym tygodniu, że jego firma podejmuje kroki mające na celu ochronę narażonych użytkowników, np. ograniczając dyskusje zawierające teorie spiskowe lub kierując ludzi do specjalistów, gdy pojawiają się tematy takie jak samobójstwo.
„Nie chcemy popełniać błędów poprzednich generacji firm technologicznych, które nie reagowały wystarczająco szybko” – powiedział Altman w podcaście Hard Fork.
Z drugiej strony nie odkryliśmy jeszcze, jak wysłać ostrzeżenie użytkownikom, których stan psychiczny jest na tyle słaby, że znajdują się na granicy załamania psychotycznego.
Cumhuriyet