ДАЙДЖЕСТ: |
Согласно исследованию аналитической компании Newsguard, чат-боты на основе искусственного интеллекта стали в два раза чаще распространять ложную информацию в сравнении с прошлым годом. Если в 2024 году показатель составлял 18%, то в августе 2025 года он достиг 35% при обработке новостных тем.
Основной причиной ухудшения ситуации аналитики называют предоставление нейросетям доступа к веб-поиску в режиме реального времени. Это привело к тому, что алгоритмы стали черпать информацию из намеренно сфальсифицированных источников.
«Ранний ИИ придерживался стратегии "не навреди", отказываясь отвечать на вопросы, чтобы избежать риска распространения ложной информации. Предоставление им возможности поиска позволило получить доступ к "зараженной" информационной экосистеме», — отмечают исследователи.
Наихудшие результаты показали нейросети Inflection (56,67% фейковых ответов) и Perplexity (46,67%). Модели ChatGPT и Meta* демонстрировали ложную информацию в 40% случаев, а Copilot и Mistral — в 36,67%. Наиболее надежными оказались Claude (10%) и Gemini (16,67%).
Изначально функция веб-поиска внедрялась для решения проблемы устаревших данных в ответах ИИ, однако вместо этого создала новые проблемы. Алгоритмы стали путать авторитетные новостные издания с фейковыми сайтами, что привело к резкому росту недостоверной информации.
* признана экстремистской организацией и запрещена на территории России
![]() |
Водовод за 442 млн рублей появится в Дагестане в следующем году
Во Франции состоится конференция на тему «Арцах: спустя два года после этнической чистки»
КБР. В Кабардино-Балкарии юные пациенты смогут учиться благодаря проекту «УчимЗнаем»
Купить элитную квартиру в Москве: инвестиция в статус и комфорт
КБР. КБР присоединилась к всероссийскому конкурсу «Это у нас семейное»
Фиксация авторских прав для суда: зачем это и как оформляется