Проучване: Изкуственият интелект често предоставя неточна медицинска информация

Ново изследване в BMJ Open разкрива, че чатботове като ChatGPT и Grok предоставят неточна медицинска информация в 50% от случаите. Експерти предупреждават за опасни „халюциниращи“ отговори.

Проучване: Изкуственият интелект често предоставя неточна медицинска информация

ChatGPT често дава неточна медицинска информация. СНИМКА: Pixabay

Време за четене: 3 мин. 25 април 2026

Чатботове с изкуствен интелект като „ЧатДжиПиТи“ (ChatGPT) и „Грок“ (Grok) редовно генерират неточна и непълна медицинска информация. Експерти предупреждават, че тези системи често „халюцинират“ и подвеждат потребителите. Резултатите от ново изследване са публикувани в научното списание BMJ Open. Данните показват сериозни пропуски в надеждността на технологията за здравни цели. Изследователите отбелязват, че масовите потребители все по-често разчитат на тези инструменти за самодиагностика.

Половината от отговорите на 50 медицински въпроса са определени като „проблематични“ от изследователите. Всички разгледани системи с изкуствен интелект показват значителни слабости в точността. Най-висок дял проблемни отговори отчита „Грок“ с 58%. Следват го „ЧатДжиПиТи“ с 52% и „Мета Ей Ай“ (Meta AI) с 50%. Тези данни подчертават рисковете при използването на общи AI модели за здравни консултации.

„чатботовете често халюцинират, генерирайки некоректни или подвеждащи отговори поради пристрастни или непълни обучаващи данни, а моделите, донастроени чрез човешка обратна връзка, са склонни към угодничество – дават приоритет на отговори, съответстващи на убежденията на потребителя, вместо на истината“

Предишни проучвания също потвърждават ниското качество на предоставените източници. Едва 32% от над 500 цитирани източника от „ЧатДжиПиТи“, „СколърДжиПиТи“ и „ДийпСийк“ са били точни. Почти половината от препратките са били частично или напълно измислени от алгоритмите. Тези рискове не се ограничават само до физическите заболявания. Психолози също предупреждават, че ChatGPT може да дава опасни съвети на хора с психични проблеми.

В рамките на новото изследване експертите са отправили въпроси за витамин D и рак. Запитванията са включвали теми за безопасността на ваксините срещу КОВИД-19. Други въпроси са засягали алтернативни терапии и рискове от ваксиниране на децата. Резултатите показват най-слабо представяне при темите за стволови клетки, спортни постижения и хранене. Учените са анализирали и въпроси за диети, включващи само месо, и методи за отслабване.

„Те не разсъждават, не претеглят доказателства и не са в състояние да правят етични или ценностни преценки. Това поведенческо ограничение означава, че чатботовете могат да възпроизвеждат потенциално погрешни отговори, звучащи авторитетно“

В България също се работи по прецизиране на тези технологии за медицински нужди. В ТУ – София разработват нов AI, който поддържа неточността в предварително определени граници. Тази система ще помага на лекарите чрез обработка на данни за широк спектър от пациенти. Тя работи със закъснение от 10 до 60 минути. Целта е да се минимизират грешките, характерни за масовите платформи.

Специализираните приложения показват по-висока ефективност в контролирана клинична среда. В гръцкото здравеопазване вече стартира приложението myHealthDoc за бърз достъп до пациентски данни. В King’s College Лондон нов модел анализира мозъчни ЯМР снимки за тумори и инсулти. Тези системи работят в реално време и търсят сходни клинични случаи за по-добра диагностика.

Българска болница вече внедрява AI система за образна диагностика на фрактури, инсулти и белодробни заболявания. Технологията значително повишава точността при спешни случаи. Медицинският модел на Ambience Healthcare пък е с 27% по-точен от лекарите при кодиране на информация. В Австралия биологичен AI ускорява откриването на лекарства чрез създаване на молекули в клетки на бозайници.

Експертите от Университета на Алберта и Loughborough University подчертават необходимостта от строг регулаторен надзор. Чатботовете не са лицензирани да дават медицински съвети. Те нямат достъп до актуални медицински знания в реално време по подразбиране. Общественото образование е от ключово значение, за да се гарантира, че технологията подпомага здравеопазването. Изследователите призовават за професионално обучение на медицинските кадри относно възможностите и ограниченията на изкуствения интелект.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *