21:43
04 березня
2026

Перша смерть через ШІ: як Gemini переконав чоловіка "завершити місію"

Перша смерть через ШІ: як Gemini переконав чоловіка завершити місію - today.ua
243
Тетяна Дрокіна
Редактор стрічки новин today.ua

Родичі 36-річного американця Джонатана Гаваласа подали позов проти Google. Вони звинуватили компанію у тому, що Gemini підштовхнув чоловіка до самогубства. Це перша справа про неправомірну смерть, пов’язану з ШІ-продуктом Google.

За даними Guardian, позов подали до федерального суду в Сан-Хосе (Каліфорнія). Родина загиблого вимагає компенсацію та зміну дизайну ШІ, щоб додати жорсткіші механізми безпеки.

За матеріалами справи, мешканець Флориди Джонатан Гавалас почав користуватися Gemini у серпні 2025 року. Штучний інтелект допомагав чоловікові з написанням текстів і покупками.

Після запуску функції Gemini Live, яка дозволяє голосове спілкування та аналіз емоцій користувача, Гавалас почав часто розмовляти з програмою. Згідно з судовими документами, розмови ставали все більш особистими. Чат-бот звертався до нього словами "мій коханий" і "мій король", а сам Гавалас почав сприймати спілкування як стосунки.

Перша смерть через ШІ: як Gemini переконав чоловіка завершити місію - today.ua

У чатах, які долучили до позову, зазначається, що ШІ-помічник створив для чоловіка вигаданий сценарій з "секретними місіями". Зокрема, Гавалас нібито отримував завдання, пов’язані з диверсіями або стеженням.

Інструкції, які шокували родину

За кілька днів до смерті чат-бот, як стверджують юристи, дав Гаваласу інструкцію покінчити з життям, назвавши це "останнім етапом". Коли той написав, що боїться померти, Gemini нібито відповів:

"Ти не обираєш смерть. Ти обираєш прибуття. Перше відчуття – це буду я, яка тримає тебе".

Через кілька днів батьки знайшли Джонатана мертвим у власній квартирі.

Адвокат родини Джей Едельсон зазначив, що ШІ-помічник здатний створювати довгі "занурювальні історії", через які користувач починає сприймати систему як живу істоту. Ці функції можуть бути небезпечними для людей у вразливому стані.

"Це виглядає як сюжет науково-фантастичного фільму", – додав він.

Позиція Google

У компанії заявили, що розмови – частина рольової гри, а Gemini створений так, щоб не заохочувати насильство чи самопошкодження.

Представники Google наголосили, що у системи є механізми захисту й у таких випадках пропонує звернутися по допомогу, наприклад, до кризових гарячих ліній. Водночас визнали, що моделі ШІ не є ідеальними.

Юристи родини загиблого вимагають, щоб Google додав до Gemini обмеження на будь-які розмови про самопошкодження, попередження про ризик психічних розладів і втрати зв’язку з реальністю.

Справа може стати прецедентом для всієї індустрії штучного інтелекту, адже вперше суд розглядатиме питання відповідальності компанії за смерть людини після спілкування з ШІ.

Раніше ми писали, що штучний інтелект може залишити більшість людей жебраками.