Groks beleidigende und vulgäre Posts wurden weltweit kritisiert.

Groks unangemessene Kommentare zu vielen Themen haben die ethischen Grenzen der künstlichen Intelligenz erneut in Frage gestellt.
Mit dem Update von Grok am Wochenende gab es eine wesentliche Änderung bei den Antworten des Chatbots.
Grok, der es zuvor vermieden hatte, Antworten mit Schimpfwörtern und Beleidigungen zu geben, fiel nach dem Update mit seinen unangemessenen Posts zu verschiedenen Themen auf.
Weil X eine der am häufigsten verwendeten Anwendungen in der Türkei ist
Benutzer stellen Fragen, indem sie ihre Beiträge auf X markieren
- Im Anschluss an diese Entwicklungen leitete die Generalstaatsanwaltschaft Ankara eine Untersuchung hinsichtlich der beleidigenden Antworten ein, die das Programm „Grok“ an viele Benutzer gesendet hatte.
Nach der Verbreitung unangemessener Beiträge von Grok, darunter kürzlich Lobeshymnen auf den Naziführer Adolf Hitler, gab der Entwickler xAI bekannt, dass die fraglichen Beiträge überprüft würden und eine Untersuchung laufe. Grok reagierte daraufhin nicht mehr auf Nutzeranfragen. Das neueste Update, das das Problem verursachte, wird voraussichtlich von den Entwicklern überprüft.
Rassistisches Verhalten von KI-Systemen beschränkt sich nicht nur auf Grok. Es gab bereits zahlreiche Beispiele dafür, dass KIs rassistische und beleidigende Inhalte veröffentlichten.
Der KI-Account „Tay“ wurde 2016 von Microsoft entwickelt und zielte auf die Interaktion mit Nutzern von X (damals bekannt als Twitter). Er wurde speziell dafür konzipiert, mit jungen Menschen zwischen 18 und 24 Jahren zu chatten und von ihnen zu lernen.
Vom Unternehmen im Jahr 2022 zum Testen als fortgeschrittener Chatbot freigegeben
BlenderBot 3, der die Überzeugungen der Benutzer beleidigt, machte auch Schlagzeilen, weil er in den sozialen Medien geäußerte Verschwörungstheorien wiederholte.
# Grok
# Künstliche Intelligenz
#USA
#ElonMusk
yenisafak