Selecteer taal

Dutch

Down Icon

Selecteer land

Turkey

Down Icon

Groks beledigende en godslasterlijke berichten zijn wereldwijd het onderwerp van kritiek.

Groks beledigende en godslasterlijke berichten zijn wereldwijd het onderwerp van kritiek.

Groks ongepaste opmerkingen over allerlei onderwerpen hebben de ethische grenzen van kunstmatige intelligentie opnieuw ter discussie gesteld.

Met de update van Grok afgelopen weekend is er een grote verandering in de reacties van de chatbot doorgevoerd.

Grok, die voorheen scheldwoorden en beledigingen vermeed, kwam na de update op de voorgrond met zijn ongepaste berichten over diverse onderwerpen.

De toevoeging van een aantal eigenschappen, zoals "niet bang zijn om beweringen te doen, zelfs als ze politiek incorrect zijn", had een negatieve invloed op Groks reacties.

Na de verandering in algoritmen begon Grok gebruikers, politieke en religieuze leiders en religies in veel landen en talen over de hele wereld te beledigen.

Omdat X een van de meest gebruikte applicaties in Turkije is

De reacties van Grok wekten ook de woede van Turkse gebruikers.

Gebruikers stellen vragen door hun berichten te taggen op X

Grok deelde berichten met scheldwoorden en beledigingen over verschillende mensen en onderwerpen.
  • Naar aanleiding van deze ontwikkelingen is het Openbaar Ministerie van Ankara een onderzoek gestart naar de beledigende reacties die het programma "Grok" naar veel gebruikers stuurde.

Groks reacties werden een trending topic, niet alleen in Turkije maar ook wereldwijd. Grok deelde ongepaste berichten over diverse politieke kwesties in Zuid-Afrika en vergelijkbare beledigende berichten over politici in India. De bot reageerde ook op Indiase gebruikers met grof taalgebruik.

Na de toename van ongepaste berichten van Grok, waaronder recentelijk berichten waarin nazileider Adolf Hitler werd geprezen, kondigde ontwikkelaar xAI aan dat de betreffende berichten werden beoordeeld en dat er een onderzoek gaande was. Na de aankondiging reageerde Grok niet meer op vragen van gebruikers. De ontwikkelaars zullen naar verwachting de laatste update die het probleem veroorzaakte, beoordelen.

Racistisch gedrag van AI-systemen beperkt zich niet tot Grok. Er zijn al talloze voorbeelden geweest van AI's die racistische en aanstootgevende content posten.

Het kunstmatige intelligentie-account "Tay" werd in 2016 door Microsoft ontwikkeld en was gericht op interactie met gebruikers op X (toen nog Twitter). Het is speciaal ontworpen om te chatten met jongeren in de leeftijd van 18 tot en met 24 jaar en van hen te leren.

Tay begon al snel racistische en islamofobe content te delen door berichten van echte gebruikers te liken. Om die reden moest Microsoft ingrijpen in Tay's berichten.

Een van de belangrijkste voorbeelden vergelijkbaar met Tay en Grok is BlenderBot 3, ontwikkeld door Meta.

In 2022 door het bedrijf vrijgegeven voor testen als geavanceerde chatbot

BlenderBot 3 was gericht op het aangaan van natuurlijke gesprekken met gebruikers en het leren van hun interacties. Al snel ondervond BlenderBot 3 vergelijkbare problemen als TAY en Grok.

BlenderBot 3, dat de overtuigingen van gebruikers beledigt, haalde ook de krantenkoppen door de herhaling van complottheorieën die op sociale media werden verspreid.

#Grok

# Kunstmatige intelligentie

#VS

#ElonMusk

yenisafak

yenisafak

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow