AI-поисковые системы ссылаются на неверные источники новостей в 60% случаев, согласно исследованию

by · 03.04.2025

Проблемы с точностью AI в новостных поисках

Недавнее исследование, проведенное Центром цифровой журналистики при Колумбийском университете, выявило серьезные проблемы с точностью генеративных AI-моделей, используемых для поиска новостей. Исследователи протестировали восемь инструментов AI-поиска, предоставив им прямые выдержки из реальных новостных статей и попросив идентифицировать оригинальные заголовки, издателей, даты публикации и URL-адреса каждой статьи.

Высокий уровень ошибок в цитировании

Результаты исследования показали, что AI-модели неправильно указывали источники более чем в 60% запросов. Это вызывает серьезные опасения относительно их надежности в правильной атрибуции новостного контента.

Использование AI как альтернативы традиционным поисковым системам

Авторы исследования, Клаудия Язвіньска и Айсварья Чандрасекар, отметили, что около 25% американцев теперь используют AI-модели в качестве альтернатив традиционным поисковым системам. Учитывая, что эти модели испытывают значительные трудности при попытке атрибутировать новостные источники, это ставит под сомнение их общую надежность.

Сравнение различных платформ

Уровень ошибок в цитировании варьировался среди протестированных платформ. Например, Perplexity предоставил неверную информацию в 37% случаев, в то время как ChatGPT Search ошибся в 67% (134 из 200) запрашиваемых статей. Grok 3 продемонстрировал наивысший уровень ошибок — 94%. В общей сложности исследователи провели 1600 запросов через восемь различных генеративных поисковых инструментов.

Заключение

Данные результаты подчеркивают важность критического подхода к использованию AI для поиска новостей. Принимая во внимание высокий уровень ошибок в цитировании, пользователям следует быть осторожными и проверять информацию из надежных источников.

You may also like