ДАЙДЖЕСТ: |
Согласно исследованию аналитической компании Newsguard, чат-боты на основе искусственного интеллекта стали в два раза чаще распространять ложную информацию в сравнении с прошлым годом. Если в 2024 году показатель составлял 18%, то в августе 2025 года он достиг 35% при обработке новостных тем.
Основной причиной ухудшения ситуации аналитики называют предоставление нейросетям доступа к веб-поиску в режиме реального времени. Это привело к тому, что алгоритмы стали черпать информацию из намеренно сфальсифицированных источников.
«Ранний ИИ придерживался стратегии "не навреди", отказываясь отвечать на вопросы, чтобы избежать риска распространения ложной информации. Предоставление им возможности поиска позволило получить доступ к "зараженной" информационной экосистеме», — отмечают исследователи.
Наихудшие результаты показали нейросети Inflection (56,67% фейковых ответов) и Perplexity (46,67%). Модели ChatGPT и Meta* демонстрировали ложную информацию в 40% случаев, а Copilot и Mistral — в 36,67%. Наиболее надежными оказались Claude (10%) и Gemini (16,67%).
Изначально функция веб-поиска внедрялась для решения проблемы устаревших данных в ответах ИИ, однако вместо этого создала новые проблемы. Алгоритмы стали путать авторитетные новостные издания с фейковыми сайтами, что привело к резкому росту недостоверной информации.
* признана экстремистской организацией и запрещена на территории России
![]() |
Перечислили распространенные схемы мошенничества в интернете
АДЫГЕЯ. В Майкопе ведут строительство центра бальнеологии и реабилитации «Тетис»
КЧР. В Карачаево-Черкесии будет организована акция, посвященная профилактике рака груди
АДЫГЕЯ. В рамках программы КРСТ села Адыгеи хорошеют и благоустраиваются
ЧЕЧНЯ. Легенда о Суле: как один человек заложил основы чеченской цивилизации.
АЗЕРБАЙДЖАН. Такие мероприятия, как Игры стран СНГ, укрепляют дружбу и сотрудничество – Ильхам Алиев
АЗЕРБАЙДЖАН. Российские дипломаты посетили Игоря Картавых в Баку