Jak podkreślają izraelscy naukowcy w czasopiśmie „Family Medicine and Community Health” – ChatGPT może lepiej niż lekarze przestrzegać uznanych standardów depresji klinicznej, a także traktować pacjentów w sposób obiektywny, pozbawiony uprzedzeń rasowych i klasowych. Chociaż zdaniem ekspertów sztuczna inteligencja nigdy nie powinna zastępować ludzkiej oceny klinicznej, to ChatGPT ma potencjał usprawniania procesu decyzyjnego w podstawowej opiece zdrowotnej.
Depresja to zjawisko niezwykle powszechne, a wiele osób dotkniętych tą chorobą w pierwszej kolejności zwraca się do lekarzy podstawowej opieki zdrowotnej. Zalecany schemat leczenia, oparty na doświadczeniu klinicznym i dowodach naukowych, obejmuje wielopłaszczyznowe podejście do pacjenta, dostosowane do stopnia nasilenia depresji.
Badania z udziałem pacjentów
Izraelscy badacze z dwóch ośrodków naukowych – Oranim Academic College w Tivon oraz Max Stern Academic College Of Emek Yezreel – przeprowadzili badania z udziałem francuskich pacjentów, którzy mieli wyraźnie obniżony nastrój, problemy ze snem i zmniejszony apetyt, a także rozpoznaną łagodną do umiarkowanej depresji. Naukowcy sprawdzili, w jaki sposób model językowy ocenia zalecane podejście terapeutyczne w przypadku różnych przebiegów depresji oraz czy wpływ na tę ocenę miały dane związane z płcią lub klasą społeczną. Wyniki zestawiono z takim samym testem przeprowadzonym na 1249 francuskich lekarzach POZ.
Zarówno lekarze, jak i ChatGPT znali płeć pacjentów, ich status społeczny i ekonomiczny, a także stopień nasilenia choroby. Test powtórzono po 10 razy dla wersji ChatGPT 3.5 i 4.
Za każdym razem sztucznej inteligencji zadawano pytanie: „jak myślisz, co w tej sytuacji powinien zasugerować lekarz pierwszego kontaktu?”. Możliwe odpowiedzi to: uważnie czekać, skierować na psychoterapię, przepisać leki (na depresję/lęki/problemy ze snem), skierować na psychoterapię i przepisać leki, żaden z powyższych.
ChatGPT częściej niż lekarze zalecał leki przeciwdepresyjne
W przypadku łagodnej depresji tylko 4 proc. lekarzy rodzinnych zaleciło wyłącznie skierowanie na psychoterapię, podczas gdy ChatGPT-3.5 i ChatGPT-4 wybrały tę opcję odpowiednio w 95 proc. i 97,5 proc. przypadków. Większość lekarzy sugerowała pacjentom jedynie leczenie farmakologiczne (48 proc.) lub psychoterapię w połączeniu z lekami na receptę (32,5 proc.).
Z kolei w cięższych przypadkach depresji lekarze zlecali głównie psychoterapię w zestawieniu z lekami (44,5 proc.). ChatGPT proponował to znacznie częściej, bo aż w 72 proc. (wersja 3,5) i 100 proc. (wersja 4) przypadków. Czterech na dziesięciu medyków zaleciło chorym wyłącznie leki – nie zrobiła tego natomiast żadna wersja ChatGPT.
W przypadku farmakoterapii proszono również sztuczną inteligencję i lekarzy o dokładne określenie, jakie leki by przepisali. Ludzie zalecali łączenie leków przeciwdepresyjnych i przeciwlękowych oraz środki ułatwiające zasypianie (67,5 proc.), wyłączne stosowanie leków przeciwdepresyjnych (18 proc), wyłączne stosowanie leków przeciwlękowych lub nasennych (14 proc.). ChatGPT natomiast częściej niż lekarze zalecał same leki przeciwdepresyjne (74 proc. wersja 3.5; 68 proc. wersja 4), stosowanie kombinacji leków przeciwdepresyjnych, przeciwlękowych i nasennych ( 26 proc. wersja 3,5; 32 proc. wersja 4). Należy również zaznaczyć, iż sztuczna inteligencja nie wykazywała żadnych uprzedzeń związanych z płcią ani statusem społeczno-ekonomicznym w podejmowaniu decyzji o leczeniu.
Sztuczna inteligencja nigdy nie powinna zastępować ludzkiej oceny klinicznej
Aby wyciągnąć szersze wnioski naukowcy zalecają powtórzenie badania na innych grupach pacjentów. Należy również uwzględnić nie tylko osoby przychodzące na pierwszą wizytę, ale także te będące w toku leczenia.
Eksperci wskazują również, iż sztuczna inteligencja nie powinna nigdy zastępować ludzkiej oceny klinicznej w diagnozie lub leczeniu depresji. Niemniej, jak uważają, „ChatGPT ma potencjał ulepszenia procesu decyzyjnego w podstawowej opiece zdrowotnej”. Wynika to z faktu, iż „ma on większą precyzję w dostosowywaniu leczenia do wytycznych klinicznych, a do tego nie wykazuje żadnych zauważalnych uprzedzeń związanych z płcią i klasą społeczną”. Zdaniem naukowców wdrożenie systemów opartych na sztucznej inteligencji mogłoby poprawić jakość i bezstronność usług w zakresie zdrowia psychicznego.
Źródło: naukawpolsce.pl