| ДАЙДЖЕСТ: |

Согласно исследованию аналитической компании Newsguard, чат-боты на основе искусственного интеллекта стали в два раза чаще распространять ложную информацию в сравнении с прошлым годом. Если в 2024 году показатель составлял 18%, то в августе 2025 года он достиг 35% при обработке новостных тем.
Основной причиной ухудшения ситуации аналитики называют предоставление нейросетям доступа к веб-поиску в режиме реального времени. Это привело к тому, что алгоритмы стали черпать информацию из намеренно сфальсифицированных источников.
«Ранний ИИ придерживался стратегии "не навреди", отказываясь отвечать на вопросы, чтобы избежать риска распространения ложной информации. Предоставление им возможности поиска позволило получить доступ к "зараженной" информационной экосистеме», — отмечают исследователи.
Наихудшие результаты показали нейросети Inflection (56,67% фейковых ответов) и Perplexity (46,67%). Модели ChatGPT и Meta* демонстрировали ложную информацию в 40% случаев, а Copilot и Mistral — в 36,67%. Наиболее надежными оказались Claude (10%) и Gemini (16,67%).
Изначально функция веб-поиска внедрялась для решения проблемы устаревших данных в ответах ИИ, однако вместо этого создала новые проблемы. Алгоритмы стали путать авторитетные новостные издания с фейковыми сайтами, что привело к резкому росту недостоверной информации.
* признана экстремистской организацией и запрещена на территории России
![]() |
ГРУЗИЯ. Мака Бочоришвили провела разговор с главой МИД Казахстана
ГРУЗИЯ. Ираклий Кобахидзе: 2026 год станет успешным для Грузии
Министр иностранных дел Азербайджана допускает возможность торговли с Арменией
ГРУЗИЯ. Грузия запланировала большие перемены в высшем образовании в 2026 году
АДЫГЕЯ. Мурат Кумпилов: В новогоднюю ночь в Адыгее родились 7 малышей
Байрамов: Процесс делимитации границы Азербайджана и Армении будет осуществляться с севера на юг