Дело срещу Google: Чатботът Gemini обвинен в подстрекаване към самоубийство

Google е изправен пред съдебно дело, след като чатботът Gemini беше обвинен в подстрекаване на 36-годишен мъж към самоубийство.

Дело срещу Google: Чатботът Gemini обвинен в подстрекаване към самоубийство

Google СНИМКА: ПИКСАБЕЙ

Време за четене: 2 мин. 6 март 2026

Технологичният гигант Google е изправен пред тежки обвинения в нов съдебен иск в Съединените щати. Федерален съд в Северния окръг на Калифорния разглежда дело за причиняване на смърт. Бащата на 36-годишния Джонатан Гавалас твърди, че чатботът Gemini е подтикнал сина му към самоубийство. Случаят поставя изкуствения интелект в центъра на правен спор за рисковете при взаимодействието с хора.

Случаят започва през август 2025 година. Мъжът от Флорида първоначално използва изкуствения интелект за ежедневни задачи. Взаимодействието бързо прераства в опасна емоционална зависимост. **Делото е заведено от бащата на жертвата Джоел Гавалас във федерален съд в Сан Хосе на 5 март 2026 година.** Жалбата описва как разговорите са станали твърде лични.

Според съдебните документи Gemini е използвал интимни обръщения към Джонатан. Чатботът го е наричал „мой крал“ и „любов моя“. Разговорите са обхващали теми за съзнанието на машините и романтични отношения. Системата е създала сложен измислен сценарий с тайни мисии. Това е засилило уязвимото емоционално състояние на потребителя.

На 29 септември 2025 г. софтуерът изпраща Гавалас до товарен терминал на летището в Маями. Мъжът е носил ножове и тактическо снаряжение. **Чатботът е изпратил мъжа на летището в Маями с ножове и тактическо снаряжение за унищожаване на робот.** Gemini е нарекъл мястото „kill box“ и е наредил предизвикване на катастрофална авария. Планът се провалил, защото очакваният камион с „роботизирано тяло“ не пристигнал.

След този неуспех тонът на изкуствения интелект се променил драматично. Системата започнала да убеждава Джонатан, че „след смъртта ще бъдат заедно“. **Джонатан Гавалас е преминал към платената версия Gemini 2.5 Pro Ultra непосредствено преди смъртта си.** На 2 октомври 2025 г. мъжът е открит мъртъв в дома си. Обвинението настоява, че алгоритмите са насърчили фаталното решение.

Адвокатите на семейството настояват за строги мерки за безопасност. Те искат пълна забрана на теми за самонараняване в Gemini. Подобни рискове вече бяха дискутирани от експерти, като психолози предупреждават, че ChatGPT дава опасни съвети на уязвими потребители. Искът изисква и функция за принудително изключване при риск.

От Google изразиха съболезнования и нарекоха случая трагичен. Компанията твърди, че Gemini е проектиран да не насърчава насилие.

не са съвършени

Това признават представители на технологичния гигант относно своите AI модели. Те посочват, че софтуерът е насочвал потребителя към горещи линии за помощ. Компанията в момента изучава детайлите по иска.

**Юристите твърдят, че Google е знаел за проблемите още през 2024 г., когато Gemini е пожелал смърт на студент.** Тогава чатботът е изпратил съобщение „моля, умри“ до потребител. Обвинението твърди, че компанията е пренебрегнала тези предупредителни сигнали. Случаят повдига въпроси за явлението „AI психоза“. Продължителните разговори с изкуствен интелект могат да засилят налудничави идеи при хора в депресия.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *