ИИ отваря нов фронт за биологични и химически заплахи

Експерти предупреждават, че изкуственият интелект може да позволи на престъпници да създадат следващата голяма пандемия или химическа атака.

ИИ отваря нов фронт за биологични и химически заплахи

СНИМКА: Pixabay

Време за четене: 3 мин. 11 март 2026

През 2023 г. бившият инспектор по оръжията на ООН Роко Казагранде влиза в сградата „Айзенхауер“ във Вашингтон. Тя се намира непосредствено до Западното крило на Белия дом. Ученият носи малък запечатан контейнер. В него се намират няколко епруветки. Техните съставки могат да създадат опасен патоген при определени условия. Този агент би могъл да предизвика следващата смъртоносна световна пандемия.

Посещението на Казагранде не е акт на агресия. То е сериозно предупреждение към властите. Бившият инспектор на ООН Роко Казагранде демонстрира как ИИ генерира инструкции за опасни патогени. Той разговаря със служители по националната сигурност. Казагранде показва колко бързо новите технологии променят биологичната война. Информацията за вирусния агент е получена от чатбот с изкуствен интелект. Системата предложила съставки и атмосферни условия за максимално разпространение на заразата.

Този пример разкрива лесното преодоляване на бариерите пред биологичните оръжия. Преди това бяха нужни сложни лаборатории и екипи от специалисти. Днес част от тази експертиза се заменя от лесен достъп до ИИ. Модели като ChatGPT на OpenAI предоставят аналитични инструменти. Темата вече е част от стратегиите за отбрана по света. САЩ предвиждат мерки за ограничаване на подобни рискове. Великобритания включва химическата и биологичната защита като приоритет в стратегията си за 2025 г.

Технологичните компании също признават проблема. На срещата в Сеул водещи лаборатории обещаха да намалят рисковете. OpenAI класифицира своя инструмент ChatGPT Agent с висока степен на риск за биологична сигурност. Това е първият продукт на компанията с подобна оценка. Той може да помогне на престъпници да създадат химически заплахи. Тъмната страна на изкуствения интелект става все по-видима при подобни сценарии.

Боаз Барак от техническия екип на OpenAI изразява опасения относно реалността на заплахата.

“Някои може да мислят, че биологичният риск не е реален и че моделите предоставят само информация, която може да бъде намерена чрез търсене в гугъл. Това може да е било вярно през 2024 г., но определено не е вярно днес. Въз основа на нашите оценки и тези на нашите експерти рискът е много реален”

Той подчертава, че пускането на подобни модели без защита е безотговорно решение.

“Макар че не можем да кажем със сигурност, че този модел може да позволи на начинаещ да причини сериозна биологична вреда, считам, че би било дълбоко безотговорно да го пуснем на пазара, без да сме приложили всеобхватни мерки за смекчаване на риска като тези, които вече сме въвели”

Първият международен доклад за безопасността на ИИ потвърждава тези опасения. Сто експерти подчертават, че моделите създават подробни ръководства за токсини. Тези насоки често надминават експертните знания. Процесите на производство обаче остават технически сложни за изпълнение. „Майкрософт“ също предупреди за опасностите от неконтролираното използване на технологията в бизнеса.

ИИ има и своята положителна страна за човечеството. Над 1,6 милиарда долара са инвестирани в ИИ за откриване на нови лекарства през 2024 г. Технологията помага в борбата срещу антимикробната резистентност. Тя предлага огромен потенциал за образованието и медицината. Балансът между иновации и сигурност е критичен за бъдещето.

Експертите предупреждават за други сценарии освен пандемиите. ИИ може да помогне за създаване на химически оръжия или експлозиви. Производството на нервнопаралитичен агент като зарин е различна задача от създаването на вирус. Тези атаки могат да парализират градове и да предизвикат паника. Системите могат да съветват как да се заобикалят международни контроли. Те предлагат начини за прикриване на незаконни експерименти.

Европейският съюз предоставя ресурси чрез rescEU за защита срещу химически и биологични заплахи. Тази помощ е достъпна и за България при нужда. Държавните институции и технологичните компании трябва да си сътрудничат тясно. Разузнавателната информация трябва да се обедини с техническите знания. Нови публично-частни партньорства могат да откриват заплахите много по-рано.

Историята показва значението на международните договори. Женевският протокол от 1925 г. забранява химическите оръжия. Конвенцията за биологичните оръжия е подписана преди половин век. Днес светът е изправен пред ново предизвикателство. ИИ може да бъде инструмент за прогрес или за тероризъм. Фокусирането само върху големи сценарии е рисковано. По-малките, но вероятни заплахи също изискват сериозно внимание.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *