Selecteer taal

Dutch

Down Icon

Selecteer land

Portugal

Down Icon

ChatGPT. Waarschuwing voor verkeerde diagnose

ChatGPT. Waarschuwing voor verkeerde diagnose

Het Spaanse platform Maldita waarschuwt dat tools als ChatGPT onjuiste diagnoses kunnen stellen en geen vervanging zijn voor artsen. Dat blijkt uit getuigenissen van mensen die deze kunstmatige-intelligentiemodellen om diagnoses hebben gevraagd, die circuleren op websites en sociale netwerken.

Op sociale media circuleren beweringen als "Ik heb ChatGPT gevraagd mijn hand te lezen en het ontdekte huidkanker" of "ChatGPT diagnosticeert een vrouw met kanker een jaar eerder dan artsen" waarin wordt beweerd dat de tool met kunstmatige intelligentie (AI) in staat is om medische diagnoses te stellen.

Tegelijkertijd verzekerde Elon Musk dat zijn chatbot (een virtuele assistent die kunstmatige intelligentie en programmering gebruikt om via tekst met gebruikers te communiceren) diagnoses kan stellen die "beter zijn dan wat artsen zeggen", en op sociale media zijn er verschillende getuigenissen van mensen die de tools voor dit doel gebruiken.

Volgens het platform zijn de resultaten van AI-chatbots echter gebaseerd op waarschijnlijkheden, zijn de trainingsgegevens mogelijk niet betrouwbaar en kunnen ze niet dezelfde uitgebreide analyses uitvoeren als een arts.

"Een chatbot kan geen noodzakelijke medische analyse uitvoeren en kan ook niet voldoende informatie verwerken om een ​​diagnose te kunnen stellen. Daarom houdt de chatbot geen rekening met andere factoren, zoals pathologieën of context", waarschuwt een arts die door het platform is geïnterviewd.

In die zin zijn AI-tools geen betrouwbare informatiebronnen en kunnen ze fouten maken "die kunnen leiden tot onjuiste diagnoses, ontoereikende behandelingen en gezondheidsrisico's". Het is daarom cruciaal om altijd een zorgverlener te raadplegen, voegt hij eraan toe.

Het platform waarschuwt er ook voor dat dit soort tools last kunnen hebben van hallucinaties die onnauwkeurige, onjuiste of bevooroordeelde resultaten opleveren. Dat kan leiden tot aanbevelingen voor dingen die schadelijk zijn voor de gezondheid van mensen.

"Je kunt je gezondheid niet op het spel zetten door te vragen om een ​​diagnose van een systeem dat nog niet robuust of betrouwbaar is", zegt een universitair docent die door Maldita is gecontacteerd.

Bovendien kan het delen van gezondheidsgegevens, zoals afbeeldingen en medische documenten, met AI-chatbots ook risico's opleveren voor de privacy van individuele personen. Het is mogelijk dat bedrijven deze informatie gebruiken om hun AI-modellen te trainen.

observador

observador

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow