AI-taalmodellen hebben het potentieel om tekenen van depressie te detecteren

© Lusa

Uit onderzoek van een Koreaans team blijkt dat deze grote taalmodellen (LLM) weliswaar "potentieel" hebben om deze risico's te detecteren, maar dat "het essentieel is om de prestaties en veiligheid te verbeteren vóór klinische toepassing".
Het team onderzocht het potentieel van LLM's. Dit zijn systemen met kunstmatige intelligentie (AI) die zijn getraind met grote hoeveelheden data, zodat ze natuurlijke taal kunnen begrijpen en genereren.
Hetzelfde potentieel wordt aangetoond door ‘embeddings’, een natuurlijke taalverwerkingstechniek die menselijke taal omzet in wiskundige vectoren. Deze werden ook door het team geanalyseerd.
Het onderzoek was gebaseerd op gegevens van 1064 psychiatrische patiënten in de leeftijd van 18 tot en met 39 jaar, die een reeks zelfevaluatie- en onvolledige straftoetsen invulden.
Bij tests met onvolledige zinnen krijgt de patiënt een reeks onvolledige zinnen. Deze moet hij/zij aanvullen met het eerste wat in hem/haar opkomt. Hierbij krijgt de patiënt subjectieve informatie over bijvoorbeeld zijn/haar zelfbeeld of interpersoonlijke relaties.
De gegevens werden verwerkt door LLM-modellen zoals GPT-4, Gemini 1.0 Pro of Google Deepmind en door tekst-embedding-modellen zoals OpenAI text-embedding-3-large.
Het onderzoek stelt dat deze modellen "hun potentieel hebben aangetoond bij het beoordelen van risico's voor de geestelijke gezondheid", waaronder stress en zelfmoord, "op basis van verhalende gegevens van psychiatrische patiënten".
Alberto Ortiz van het Universitair Ziekenhuis La Paz (Madrid) gaf commentaar op het onderzoek, waaraan hij niet deelnam. Hij benadrukte dat het onderzoek werd uitgevoerd op patiënten die al een psychiatrische behandeling ondergaan. Het is daarom "op dit moment niet mogelijk" om de resultaten te generaliseren en deze methodologie toe te passen op het vaststellen van risico's bij de algemene bevolking.
Ortiz vertelde het Science Media Centre, een wetenschappelijk informatieplatform, dat de toepassing van AI op het gebied van geestelijke gezondheid zich in ieder geval zal moeten richten op de subjectieve verhalen van mensen, zoals in dit onderzoek ook gebeurt.
Hij vond echter dat "het detecteren van risico's en het uitvoeren van screenings één ding is, maar het behandelen van mensen met psychisch lijden een ander. Het is een taak die verder gaat dan het toepassen van een technologische oplossing en waarbij de subjectiviteit van de professional essentieel is om de therapeutische band te ontwikkelen".
Lees ook: Apple's eerste slimme bril verschijnt in 2026, aldus Bloomberg
noticias ao minuto