ChatGPT и другие языковые модели могут обнаруживать признаки депрессии

Исследование, проведенное Jama Open Network, показывает, что крупные языковые модели, такие как ChatGPT, обладают потенциалом для выявления рисков для психического здоровья у пациентов, проходящих психиатрическое лечение.
Исследования, проведенные корейской группой, показывают, что, хотя эти модели «демонстрируют потенциал» для обнаружения подобных рисков, « необходимо дополнительно улучшить их производительность и безопасность перед клиническим применением».
Группа изучила потенциал больших языковых моделей, представляющих собой системы искусственного интеллекта, обученные на больших объемах данных, чтобы они могли понимать и генерировать естественный язык.
Тот же потенциал демонстрируется внедрением — методом обработки естественного языка, который преобразует человеческий язык в математические векторы, которые также были проанализированы группой.
Исследование было основано на данных 1064 пациентов психиатрических клиник в возрасте от 18 до 39 лет, которые прошли различные тесты на самооценку и завершение предложений .
Читайте: Получите второй продукт по половинной цене для Soriana's Julio RegaladoПоследние заключаются в предложении пациенту ряда незаконченных предложений, которые он должен закончить первым приходящим в голову словом, и предоставить субъективную информацию , например, о его представлении о себе или о межличностных отношениях.
Данные обрабатывались с помощью больших языковых моделей, таких как GPT-4, Gemini 1.0 Pro или Google Deepmind, а также с помощью моделей встраивания текста, таких как text-embedding-3-large OpenAI .
В исследовании отмечается, что эти модели «продемонстрировали свой потенциал в оценке рисков для психического здоровья », включая депрессию и самоубийство, «используя повествовательные данные от пациентов психиатрических клиник».
В комментарии к исследованию, в котором он не принимал участия, Альберто Ортис из университетской больницы Ла-Пас (Мадрид) отметил, что исследование проводилось на пациентах, уже проходящих психиатрическое лечение, поэтому обобщение его результатов для применения этой методологии к выявлению рисков среди населения в целом «на данный момент невозможно».
Ортис заявил в Научном медиацентре, платформе научных ресурсов, что применение ИИ в области психического здоровья в любом случае должно будет сосредоточиться на субъективных рассказах людей, как это сделано в этом исследовании.
Однако он считал, что «одно дело — выявлять риски и проводить скрининг, и совсем другое — лечить людей с психологическим стрессом, задача, которая выходит за рамки применения технологического решения и в которой субъективность профессионала имеет решающее значение для развития терапевтической связи».
Вам может быть интересно: Хулио Регаладо из Soriana: ЭТО ВСЕ продукты, которые продаются по цене 3 за 2* * * Будьте в курсе новостей, присоединяйтесь к нашему каналу WhatsApp * * *
ОБ
informador