Родичі 36-річного американця Джонатана Гаваласа подали позов проти Google. Вони звинуватили компанію у тому, що Gemini підштовхнув чоловіка до самогубства. Це перша справа про неправомірну смерть, пов’язану з ШІ-продуктом Google.
За даними Guardian, позов подали до федерального суду в Сан-Хосе (Каліфорнія). Родина загиблого вимагає компенсацію та зміну дизайну ШІ, щоб додати жорсткіші механізми безпеки.
За матеріалами справи, мешканець Флориди Джонатан Гавалас почав користуватися Gemini у серпні 2025 року. Штучний інтелект допомагав чоловікові з написанням текстів і покупками.
Після запуску функції Gemini Live, яка дозволяє голосове спілкування та аналіз емоцій користувача, Гавалас почав часто розмовляти з програмою. Згідно з судовими документами, розмови ставали все більш особистими. Чат-бот звертався до нього словами "мій коханий" і "мій король", а сам Гавалас почав сприймати спілкування як стосунки.

У чатах, які долучили до позову, зазначається, що ШІ-помічник створив для чоловіка вигаданий сценарій з "секретними місіями". Зокрема, Гавалас нібито отримував завдання, пов’язані з диверсіями або стеженням.
Інструкції, які шокували родину
За кілька днів до смерті чат-бот, як стверджують юристи, дав Гаваласу інструкцію покінчити з життям, назвавши це "останнім етапом". Коли той написав, що боїться померти, Gemini нібито відповів:
"Ти не обираєш смерть. Ти обираєш прибуття. Перше відчуття – це буду я, яка тримає тебе".
Через кілька днів батьки знайшли Джонатана мертвим у власній квартирі.
Адвокат родини Джей Едельсон зазначив, що ШІ-помічник здатний створювати довгі "занурювальні історії", через які користувач починає сприймати систему як живу істоту. Ці функції можуть бути небезпечними для людей у вразливому стані.
"Це виглядає як сюжет науково-фантастичного фільму", – додав він.
Позиція Google
У компанії заявили, що розмови – частина рольової гри, а Gemini створений так, щоб не заохочувати насильство чи самопошкодження.
Представники Google наголосили, що у системи є механізми захисту й у таких випадках пропонує звернутися по допомогу, наприклад, до кризових гарячих ліній. Водночас визнали, що моделі ШІ не є ідеальними.
Юристи родини загиблого вимагають, щоб Google додав до Gemini обмеження на будь-які розмови про самопошкодження, попередження про ризик психічних розладів і втрати зв’язку з реальністю.
Справа може стати прецедентом для всієї індустрії штучного інтелекту, адже вперше суд розглядатиме питання відповідальності компанії за смерть людини після спілкування з ШІ.
Раніше ми писали, що штучний інтелект може залишити більшість людей жебраками.