Вместе с бурным развитием искусственного интеллекта возникают не только новые возможности, но и глобальные угрозы. И речь идет далеко не только о возможном росте безработицы и использовании мошенниками технологий deepfake. ИИ уже научился самостоятельно создавать новые вирусы. Эта технология может стать новым прорывом в медицине. Однако ее можно использовать и для синтеза в лаборатории новой, еще неизвестной миру заразы.
О новом достижении на стыке искусственного интеллекта и биологии сообщает издание metro.co.uk. Итак, как стало известно, команде ученых из Стэнфордского университета удалось создать новый вирус с помощью искусственного интеллекта. Событие действительно является значительным. Ведь речь идет не о модификации уже существующего вируса, а о создании нового генома с нуля.
Новый вирус получил название Evo-Φ2147 и стал настоящим прорывом в синтетической биологии. Ведь это исследование, вероятно, войдет в историю как начало эры "конструирования" новых форм жизни в лабораторных условиях.
Новый вирус безопасен для человека. Он способен поражать и уничтожать кишечную палочку (Escherichia coli). Для синтеза Evo-Φ2147 ученые использовали специальную ИИ-модель. Для ее обучения были использованы данные о ДНК миллионов известных вирусов-бактериофагов. Речь идет о разновидности вирусов, которые поражают бактерии, но не представляют угрозы для человека и животных.
Искусственный интеллект предложил ученым аж 300 вариантов новых геномов вирусов. Однако из них оказались жизнеспособными только шестнадцать.
"Хотя вирусы не считаются полноценными живыми организмами, они не могут сами преобразовывать энергию или размножаться без хозяина, и это первый случай, когда искусственный интеллект создал рабочий генетический код и воплотил его в функциональный биологический агент", — отмечают ученые.
Исследователи видят в этой технологии широкие возможности для медицины будущего. В частности, новые синтезированные в лабораториях вирусы можно будет использовать в борьбе с устойчивыми к антибиотикам инфекциями.

Однако эта технология представляет и значительную потенциальную опасность. Успех стэнфордских ученых доказывает, что искусственный интеллект можно использовать для создания новых вирусов. И далеко не все из них могут быть безопасными для человека. ИИ можно применить и для синтеза патогенов, которые будут поражать человека. То есть фактически речь идет о биологическом оружии, которое может обернуться катастрофой для человечества. Более того, возможно, где-то в тайной лаборатории уже "родилась" зараза, которая станет новой "чумой".
Напомним, эксперты считают, что ИИ способен спровоцировать ядерный удар без приказа человека.