ШІ не здатен до клінічного мислення: первинна діагностика на 80% помилкова
Попри стрімкий розвиток технологій, генеративний штучний інтелект досі не може безпечно виконувати функції лікаря. Нове дослідження американських науковців показало, що мовні моделі більш ніж у 80% випадків не здатні правильно сформувати первинний або диференційний діагноз — тобто визначити, які саме захворювання можуть стояти за симптомами пацієнта.
Роботу провели дослідники великої медичної мережі Mass General Brigham. Вони проаналізували 21 мовну модель, серед яких — найновіші версії популярних чат-ботів, і протестували їх на стандартизованих клінічних випадках. Результати опубліковано у журналі JAMA Network Open.
Моделювання відбувалося максимально наближено до реальної практики: спочатку системам надавали базову інформацію про пацієнта — вік, стать і симптоми, а згодом додавали результати обстежень і лабораторних аналізів. Саме на початковому етапі, коли лікар має справу з невизначеністю та обмеженими даними, ШІ показав найгірші результати.
Дослідники звертають увагу, що мовні моделі доволі впевнено справляються із постановкою остаточного діагнозу, коли отримують повний обсяг інформації. У деяких випадках точність перевищувала 90%. Водночас ключова проблема полягає не у фінальному висновку, а в самому процесі клінічного мислення. ШІ не демонструє здатності до диференційної діагностики — тобто не може коректно відрізнити одне захворювання від іншого на основі первинних симптомів. Саме цей етап є фундаментом медичної практики і визначає подальшу тактику обстеження та лікування.
Автори дослідження наголошують: навіть попри помітний прогрес і покращення від версії до версії, великі мовні моделі ще не досягли рівня, який дозволив би використовувати їх автономно у клінічній практиці. Вони можуть бути корисними як допоміжний інструмент, але потребують постійного контролю з боку фахівця
Ці висновки мають особливе значення для України, де культура самолікування залишається поширеною. У повсякденній практиці пацієнти дедалі частіше звертаються не лише до інтернет-пошуку, а й до чат-ботів зі штучним інтелектом, намагаючись самостійно визначити причину симптомів. У багатьох випадках така «консультація» сприймається як перший і достатній крок.
Однак саме на цьому етапі ризики є найвищими. Якщо система помиляється у більшості випадків на старті діагностики, це означає, що пацієнт може отримати хибний орієнтир, неправильно обрати препарат або взагалі втратити час, необхідний для своєчасного звернення до лікаря. Особливо небезпечним це є при станах, які маскуються під незначні симптоми.
У такій ситуації роль фармацевта лише посилюється. Саме він часто стає першим фахівцем, до якого звертається пацієнт, і може або підтримати раціональне самолікування, або вчасно зупинити його та рекомендувати звернутися по медичну допомогу. На відміну від алгоритму, фармацевт працює з уточненнями, контекстом і клінічною логікою, що дозволяє уникати критичних помилок.
Дослідники підсумовують: штучний інтелект у медицині має потенціал, але наразі його використання можливе лише за умови обов’язкової участі людини. Для практики це означає просте правило — жоден чат-бот не може замінити клінічне мислення лікаря або професійну консультацію фармацевта, особливо на початку захворювання.
Читайте також ШІ і фармацевт: конкуренти чи колеги?