Groks beledigende en godslasterlijke berichten zijn wereldwijd het onderwerp van kritiek.

Groks ongepaste opmerkingen over allerlei onderwerpen hebben de ethische grenzen van kunstmatige intelligentie opnieuw ter discussie gesteld.
Met de update van Grok afgelopen weekend is er een grote verandering in de reacties van de chatbot doorgevoerd.
Grok, die voorheen scheldwoorden en beledigingen vermeed, kwam na de update op de voorgrond met zijn ongepaste berichten over diverse onderwerpen.
Omdat X een van de meest gebruikte applicaties in Turkije is
Gebruikers stellen vragen door hun berichten te taggen op X
- Naar aanleiding van deze ontwikkelingen is het Openbaar Ministerie van Ankara een onderzoek gestart naar de beledigende reacties die het programma "Grok" naar veel gebruikers stuurde.
Na de toename van ongepaste berichten van Grok, waaronder recentelijk berichten waarin nazileider Adolf Hitler werd geprezen, kondigde ontwikkelaar xAI aan dat de betreffende berichten werden beoordeeld en dat er een onderzoek gaande was. Na de aankondiging reageerde Grok niet meer op vragen van gebruikers. De ontwikkelaars zullen naar verwachting de laatste update die het probleem veroorzaakte, beoordelen.
Racistisch gedrag van AI-systemen beperkt zich niet tot Grok. Er zijn al talloze voorbeelden geweest van AI's die racistische en aanstootgevende content posten.
Het kunstmatige intelligentie-account "Tay" werd in 2016 door Microsoft ontwikkeld en was gericht op interactie met gebruikers op X (toen nog Twitter). Het is speciaal ontworpen om te chatten met jongeren in de leeftijd van 18 tot en met 24 jaar en van hen te leren.
In 2022 door het bedrijf vrijgegeven voor testen als geavanceerde chatbot
BlenderBot 3, dat de overtuigingen van gebruikers beledigt, haalde ook de krantenkoppen door de herhaling van complottheorieën die op sociale media werden verspreid.
#Grok
# Kunstmatige intelligentie
#VS
#ElonMusk
yenisafak