Lekarze z Ontario apelują, aby rozmawiać nie tylko z pracownikami służby zdrowia, ale także z ChatGPT

ChatGPT i podobne narzędzia wykorzystujące sztuczną inteligencję potrafią czasem udzielić pacjentom trafnych odpowiedzi na ich pytania, jednak kanadyjscy badacze medyczni przestrzegają, że przed podjęciem działań na podstawie otrzymanych informacji należy je dokładnie sprawdzić.
Porada badaczy pojawiła się na konferencji prasowej zorganizowanej w tym tygodniu przez Ontario Medical Association (OMA), podczas której omówiono źródła informacji typu „zrób to sam” — od wyszukiwarek , przez media społecznościowe, po chatboty — oraz ich wpływ, a także to, co pacjenci mogą zamiast tego zrobić.
Jak powiedziała dr Valerie Primeau, psychiatra z North Bay, która kieruje programami leczenia stacjonarnego i społecznego w zakresie zdrowia psychicznego i uzależnień, ważne jest, aby ostrzegać ludzi już teraz, ponieważ pacjenci coraz częściej korzystają z narzędzi opartych na sztucznej inteligencji.
Chatboty dają przekonujące i empatyczne wyniki — ale informacje mogą być fałszywe .
„Mam teraz pacjentów, którzy kontaktują się z ChatGPT, aby uzyskać porady i porozmawiać” – powiedział Primeau. „Przewiduję więc, że ten problem będzie się utrzymywał i jeśli nie zajmiemy się nim teraz i nie pomożemy ludziom w jego rozwiązaniu , będą mieli trudności”.
Dr David D'Souza, radioonkolog z London w Ontario, który prowadzi badania kliniczne nad metodami obrazowania w leczeniu raka, powiedział, że w zależności od tego, w jaki sposób pacjenci przerywają przekazy sztucznej inteligencji, mogą oni opóźniać podjęcie konwencjonalnych metod leczenia.
„Pacjent przyszedł do mnie z pytaniem, czy powinien poczekać z leczeniem zdiagnozowanego nowotworu za kilka lat, ponieważ wierzy, że sztuczna inteligencja dostosuje leczenie raka do potrzeb pacjentów” – powiedział D’Souza reporterom. „Musiałem go przekonać, dlaczego powinien poddać się leczeniu już teraz”.
Biorąc pod uwagę, że konsumenci będą korzystać z tych narzędzi, prezes OMA, dr Zainab Abdurrahman, radzi, aby w przypadku wpisu o treści „lekarze ukrywali to przed tobą” sprawdzić strony internetowe odpowiednich organizacji specjalistycznych, takich jak prowincjonalne stowarzyszenia zajmujące się opieką onkologiczną, aby upewnić się, czy potwierdzają one tę informację.
Abdurrahman, który jest także immunologiem klinicznym i alergologiem, ostrzega, że fałszywe reklamy , w tym obrazy generowane przez sztuczną inteligencję, mogą również wprowadzać pacjentów w błąd.
Utrata niuansów sprawia, że trudniej polegać na wynikach sztucznej inteligencjiChociaż technologia ciągle się rozwija, dzisiejsze chatboty rutynowo odpowiadają na pytania dotyczące zdrowia, podając fałszywe informacje, którewydają się wiarygodne .
Wjednym z badań dr Benjamin Chin-Yee, adiunkt w katedrze patologii i medycyny laboratoryjnej na Western University, wraz ze współautorami wprowadził do dużych modeli językowych AI, w tym ChatGPT, niemal 5000 streszczeń literatury medycznej i naukowej, a następnie poprosił o streszczenia.
Odkryli, że trzy czwarte wersji sztucznej inteligencji pomijało kluczowe fragmenty starannie chronionych stwierdzeń.
Na przykład artykuł w czasopiśmie naukowym może stwierdzać, że lek okazał się skuteczny tylko u określonej grupy pacjentów, podczas gdy streszczenie pomija ten kluczowy szczegół, powiedziała Chin-Yee, która jest również hematologiem.

„Istnieje obawa, że zagubienie tych szczegółowych niuansów może wprowadzić w błąd lekarzy, którzy chcą wykorzystać tę wiedzę, aby wpłynąć na swoją praktykę kliniczną”.
Chin-Yee stwierdził, że sztuczna inteligencja to dynamicznie rozwijająca się dziedzina badań naukowych, w której powstają nowe modele, bardziej zbliżone do ludzkich i przyjazne użytkownikom, ale poleganie wyłącznie na tych narzędziach może wiązać się z pewnymi niedogodnościami.
Podobnie David Chen, student medycyny z Uniwersytetu w Toronto, porównał wyniki uzyskane przez chatboty w odpowiedzi na 200 pytań o raka z forum Reddit z odpowiedziami udzielonymi przez onkologów.
„Byliśmy zaskoczeni, gdy odkryliśmy, że te chatboty były w stanie działać na poziomie kompetencji zbliżonym do kompetencji człowieka, co potwierdził nasz zespół lekarzy w zakresie jakości, empatii i czytelności” – powiedział Chen.
Jednak wyniki eksperymentów mogą nie odzwierciedlać tego, co dzieje się w realnym świecie.
„Bez nadzoru medycznego trudno w stu procentach ufać niektórym wynikom tych generatywnych technologii” – powiedział Chen, dodając, że obawy dotyczące prywatności, bezpieczeństwa i zaufania pacjentów wciąż nie zostały w pełni zbadane.

Generatywne technologie sztucznej inteligencji, takie jak chatboty, opierają się na technologiach dopasowywania wzorców, które dają najbardziej prawdopodobny wynik na dane pytanie, w oparciu o informacje, na których zostały wytrenowane. Jednak w medycynie mało prawdopodobne, możliwe diagnozy również mogą mieć znaczenie i nie należy ich wykluczać.
Ponadto chatboty mogą mieć halucynacje — podawać informacje, które brzmią przekonująco, ale są nieprawdziwe, zmyślone, bezsensowne lub nieistotne.
„Opublikowano również badania sugerujące, że odsetek halucynacji u tych chatbotów może sięgać nawet 20 procent” – powiedział Chen, co może sprawiać, że wyniki są „klinicznie błędne”.

Wiosną kardiolog Eric Topol, profesor i wiceprezes wykonawczy Scripps Research w San Diego w Kalifornii, opublikował książkę Superagers: An Evidence-Based Approach to Longevity , w której przyjrzał się wpływowi sztucznej inteligencji na długowieczność i jakość życia.
„Jest wiele dobrych i złych anegdot” – powiedział Topol o pacjentach korzystających z chatbotów. „Nie zostało to systematycznie ocenione w sposób merytoryczny i użyteczny dla ogółu społeczeństwa”.
Topol powiedział, że radzi ludziom, aby konsultowali się z wieloma chatbotami i upewniali się, że otrzymują wiarygodne informacje. Zasugerował również, aby prosić o cytaty z literatury medycznej, zaznaczając, że czasami nie są one prawdziwe i wymagają weryfikacji.
Topol powiedział, że w idealnym świecie przeprowadzono by test odpowiedzi chatbotów od dziesiątek tysięcy osób, śledząc, jakie testy zostały przeprowadzone, jakie postawiono diagnozy i jakie były wyniki u tych, którzy korzystali ze źródeł sztucznej inteligencji, i u tych, którzy tego nie robili. Firmy technologiczne raczej nie wezmą w nim udziału, ponieważ nie każda z nich by na tym zyskała, dodał.
„To już inny świat i nie da się cofnąć czasu” – powiedział Topol o mądrym korzystaniu z narzędzi.
cbc.ca