Dyrektor generalny OpenAI ostrzega użytkowników GPT Chat: wszystko, co powiesz sztucznej inteligencji, może zostać wykorzystane przeciwko tobie.

Czy kiedykolwiek powiedziałeś Chat GPT o swoich problemach? Czy prosiłeś o diagnozę, rozwiązanie lub poradę? Uważaj, co mówisz tej sztucznej inteligencji, ponieważ może zostać wykorzystana przeciwko tobie i naruszyć twoją prywatność. Takie ostrzeżenie wydał Sam Altman, prezes OpenAI, firmy, która stworzyła to narzędzie.
Sam Altman, dyrektor generalny OpenAI, ostrzegł, że rozmowy prowadzone za pośrednictwem chatbotów nie są chronione przez przepisy prawne gwarantujące poufność informacji między pacjentem a terapeutą lub klientem a prawnikiem.

Ludzie wykorzystują sztuczną inteligencję jako trenera lub terapeutę. Zdjęcie: iStock
W wywiadzie do podcastu „This Past Weekend” Altman, wydało kluczowe ostrzeżenie dla milionów użytkowników, którzy codziennie komunikują się z ChatGPT: to, co zostaje powiedziane w tych rozmowach, może nie być tak prywatne, jak wielu sądzi.
Niebezpieczeństwo związane z mówieniem wszystkiego sztucznej inteligencji „Ludzie rozmawiają o najbardziej osobistych sprawach ze swojego życia za pomocą ChatGPT […]. Używają go tak, jakby był terapeutą lub coachem życiowym” – stwierdził prezes. Ostrzegł jednak, że te interakcje nie są chronione przepisami o poufności, takimi jak te między lekarzem a pacjentem lub prawnikiem a klientem.
„Jeśli rozmawiasz o tych kwestiach z terapeutą, prawnikiem lub lekarzem, istnieje pewien przywilej prawny: istnieje tajemnica lekarska, tajemnica prawna” – wyjaśnił.

Ramy prawne nie obejmują poufności w ChatGPT. Zdjęcie: iStock
Dyrektor wyjaśnił, że w przeciwieństwie do zawodów, które mają ramy prawne chroniące poufne informacje, rozmowy z narzędziami sztucznej inteligencji nie są jeszcze objęte taką ochroną. „Nie rozwiązaliśmy jeszcze tego problemu, kiedy rozmawiasz z ChatGPT” – przyznał.
Altman zauważył również, że ta luka może mieć poważne konsekwencje.
Rozmowy niechronione prawem Jeśli wobec użytkownika toczy się postępowanie prawne, odpowiednie organy mogą z łatwością zażądać dostępu do rejestrów czatów i wykorzystać je jako dowód, ponieważ nie ma żadnych ram prawnych chroniących te oparte na sztucznej inteligencji czaty, z których korzystają miliony ludzi na całym świecie.

Prezes OpenAI wezwał do pilnej debaty na temat stosowania przepisów o ochronie prywatności. Zdjęcie: iStock
„Jeśli rozmawiasz z ChatGPT o swoich najbardziej wrażliwych kwestiach, a potem dochodzi do pozwu, mogą zażądać od nas ujawnienia rozmów. Uważam, że to katastrofa ” – stwierdził. Altaman podkreślił również potrzebę, aby ta sztuczna inteligencja rozumiała prywatność rozmów w taki sam sposób, jak terapeuta i jego poufność zawodowa.
W obliczu tej sytuacji dyrektor generalny OpenAI zaapelował o pilną debatę na temat tego, w jaki sposób należy stosować przepisy dotyczące prywatności w erze sztucznej inteligencji.
Maria Paula Rodriguez Rozo
NAJNOWSZE WIADOMOŚCI EDITORIALNE
eltiempo