Глава Anthropic Даріо Амодей зробив жорстке попередження щодо активного розвитку штучного інтелекту. На його думку, людство вже перебуває в умовах надзвичайної небезпеки. За словами Амодея, люди просто ще не усвідомили всієї серйозності ситуації.
Про це повідомляє видання Financial Times.
Очільник Anthropic у понеділок, 26 січня, опублікував есе, у якому розповів про небезпеки, пов’язані зі швидким впровадженням ШІ. На думку Даріо Амодея, аби нова технологія була безпечною, необхідно встановити належний контроль над нею. Адже наслідки неконтрольованого розвитку штучного інтелекту можуть бути досить трагічними.
"Людству ось-ось передадуть майже неймовірну владу, і до кінця незрозуміло, чи наші соціальні, політичні та технологічні системи мають зрілість, щоб нею володіти", — написав Амодей у своєму есе.
Варто зауважити, що компанія Anthropic є одним із лідерів сфери штучного інтелекту. А її співзасновник Даріо Амодей раніше працював в OpenAI, звідки звільнився через розбіжності із Семом Альтманом саме щодо контролю над ШІ. Отже, його думка у питанні розвитку технології дійсно є експертною.
За словами аналітика, «потужний штучний інтелект» буде розумнішим за будь-кого на планеті. І з’явитися така технологія може вже в найближчі роки. Саме тому нині людство опинилося в зоні значної небезпеки. Адже люди отримають безпрецедентні можливості, і далеко не кожен прагнутиме скористатися ними на загальну користь.
"Психічно неврівноважений одинак, здатний вчинити стрілянину в школі, але, ймовірно, не здатний створити ядерну зброю або випустити чуму… тепер буде зведений до рівня здібностей вірусолога зі ступенем доктора наук", — зауважує Амодей.
Проте, як додає експерт, зовсім не обов’язково, що в майбутньому штучний інтелект підпорядковуватиметься людству. Ситуація може виявитися протилежною. Не виключено, що саме ШІ домінуватиме на планеті. Або ж технологією скористаються авторитарні лідери для встановлення глобальної диктатури.
Зокрема, Даріо Амодей згадав наміри адміністрації Дональда Трампа продавати новітні ШІ-чіпи Китаю. Експерт порівняв такі плани з продажем ядерного озброєння Північній Кореї.
Водночас нещодавно глава Білого дому підписав указ, який обмежує регулювання розробок штучного інтелекту на рівні окремих штатів. Натомість Дональд Трамп прагне прискорити впровадження інноваційних технологій у США.
Ще однією небезпекою розвитку штучного інтелекту, за словами Амодея, є перспектива тотального безробіття. Нова технологія, яка здатна майже повністю замінити людську працю, належить технологічним гігантам і потребує безпрецедентних інвестицій. Отже, невеликий стартап або середня компанія фактично не здатні конкурувати з лідерами галузі. Йдеться про формування монополії на ШІ, наслідком чого може стати концентрація колосальних статків і впливу в руках корпорацій.
"Це пастка: штучний інтелект настільки потужний, такий блискучий приз, що людській цивілізації дуже важко взагалі накласти на нього якісь обмеження", — наголошує експерт.

Амодей також зауважує, що деякі технологічні компанії вже проявили неабияку недбалість. Експерт завуальовано натякнув на скандал довкола моделі Grok AI Ілона Маска.
"Деякі компанії, що займаються штучним інтелектом, продемонстрували тривожну недбалість щодо сексуалізації дітей у сучасних моделях, що змушує мене сумніватися, що вони виявлять або схильність, або здатність враховувати ризики автономії в майбутніх моделях", — пише Амодей.
Зацікавленими в безконтрольному розвитку ШІ залишаються й чимало політиків. Їх переважно цікавлять нові можливості, які може надати штучний інтелект, зокрема у сфері створення автономної та біологічної зброї. Натомість ризиками, пов’язаними з технологією, політики здебільшого нехтують.
"Ці коливання є прикрими, оскільки сама технологія не переймається тим, що модно, і ми значно ближче до реальної небезпеки у 2026 році, ніж у 2023 році", — додає експерт.
Нагадаємо, раніше повідомлялося, що штучний інтелект навчився створювати живі віруси з нуля.