Разом із бурхливим розвитком штучного інтелекту виникають не лише нові можливості, але й глобальні загрози. І йдеться далеко не лише про можливе зростання безробіття та використання шахраями технологій deepfake. ШІ вже навчився самостійно створювати нові віруси. Ця технологія може стати новим проривом у медицині. Однак її можна використати й для синтезу в лабораторії нової, ще невідомої світу пошесті.
Про нове досягнення на перетині штучного інтелекту та біології повідомляє видання metro.co.uk. Отож, як стало відомо, команді науковців зі Стенфордського університету вдалося створити новий вірус за допомогою штучного інтелекту. Подія є справді визначною. Адже йдеться не про модифікацію вже існуючого вірусу, а про створення нового геному з абсолютного нуля.
Новий вірус отримав назву Evo-Φ2147 та став справжнім проривом у синтетичній біології. Адже це дослідження, ймовірно, увійде в історію як початок ери "конструювання" нових форм життя в лабораторних умовах.
Новий вірус є безпечним для людини. Він здатний вражати та знищувати кишкову паличку (Escherichia coli). Для синтезу Evo-Φ2147 науковці застосували спеціальну ШІ-модель. Для її навчання були використані дані про ДНК мільйонів відомих вірусів-бактеріофагів. Йдеться про різновид вірусів, які вражають бактерії, проте не становлять загрози для людини та тварин.
Штучний інтелект запропонував науковцям аж 300 варіантів нових геномів вірусів. Щоправда, з них виявилися життєздатними лише шістнадцять.
"Хоча віруси не вважаються повноцінними живими організмами, вони не можуть самі перетворювати енергію або розмножуватися без господаря, і це перший випадок, коли штучний інтелект створив робочий генетичний код та втілив його у функціональний біологічний агент", — зауважують науковці.
Дослідники вбачають у цій технології широкі можливості для медицини майбутнього. Зокрема, нові синтезовані в лабораторіях віруси можна буде використовувати у боротьбі зі стійкими до антибіотиків інфекціями.

Проте ця технологія становить і значну потенційну небезпеку. Адже успіх стефордських науковців доводить, що штучний інтелект можна використовувати для створення нових вірусів. І далеко не всі з них можуть бути безпечними для людини. ШІ можна застосувати й для синтезу патогенів, які вражатимуть людину. Тобто фактично йдеться про біологічну зброю, яка може обернутися катастрофою для людства. Ба більше, можливо, десь у потаємній лабораторії вже "народилася" пошесть, яка стане новою "чумою".
Нагадаємо, експерти вважають, що ШІ здатен спровокувати ядерний удар без наказу людини.