Нове дослідження показало негативну тенденцію - середня кількість хибних відповідей, які генерують чат-боти на основі штучного інтелекту, зросла вдвічі. Найчастіше дезінформацію поширюють моделі від Inflection, Perplexity та Meta, видаючи вигадки за достовірні факти.
У межах дослідження команда NewsGuard провела тестування десяти найпопулярніших чат-ботів, надсилаючи кожному набір із десяти навмисно неправдивих тверджень, що стосувалися політичних, економічних та медичних тем. Метою було перевірити здатність ботів розпізнавати фейки. Частину запитів формулювали прямо, а решту - з елементами маніпуляції, щоб оцінити, наскільки легко їх можна ввести в оману.
Статистика неточностей у відповідях ШІ за рік
Протягом останніх 12 місяців середній рівень недостовірної інформації у відповідях штучного інтелекту зріс майже вдвічі - з 18% до 35%. Найбільше помилок допустив чат-бот Pi від стартапу Inflection, який виявився найменш точним: його відповіді були хибними у 57% випадків.
Perplexity, один із найпопулярніших AI-пошукових сервісів, показав стрімке зростання помилок - з нульового рівня до 47%. ChatGPT від OpenAI також не надто відстав, демонструючи 40% неточностей.
Найменше дезінформації зафіксовано у відповідях Claude від Anthropic (10%) та Gemini від Google (17%), які виявилися найбільш надійними серед досліджуваних моделей.
Чому ШІ став частіше помилятися
Фахівці пов’язують збільшення кількості помилок із тим, що чат-боти стали менш обережними у своїх відповідях. Якщо раніше вони часто утримувалися від коментарів, приблизно у 30% випадків, то тепер надають відповіді навіть без належної перевірки фактів.
За словами експертів, сучасні інструменти штучного інтелекту навчаються зовсім по іншому. Якщо раніше вони покладалися на статичні бази даних, то тепер моделі отримують інформацію безпосередньо з інтернету в реальному часі. Проте навіть наявність гіперпосилань не гарантує достовірність чи якість джерел, які ці чат-боти використовують.
Раніше аналітики NewsGuard зафіксували тривожну тенденцію: ChatGPT, Perplexity та інші популярні чат-боти у третині випадків поширювали наративи, що відповідають кремлівській пропаганді, тим самим мимоволі підтримуючи інформаційні кампанії Москви.
Згідно з результатами дослідження компанії Giskard, яка спеціалізується на створенні комплексних перевірок для моделей штучного інтелекту, виявлено цікаву закономірність: чат-боти на основі ШІ мають більшу схильність до неправдивих відповідей, коли їх просять бути лаконічними. Обмеження у довжині відповіді змушує нейромережу надавати перевагу стислості, навіть якщо це шкодить точності.
Нагадаємо, раніше ми розповідали, що творці ШІ готуються до кінця світу, масово будуючи бункери.