Проблемы с точностью AI в новостных поисках
Недавнее исследование, проведенное Центром цифровой журналистики при Колумбийском университете, выявило серьезные проблемы с точностью генеративных AI-моделей, используемых для поиска новостей. Исследователи протестировали восемь инструментов AI-поиска, предоставив им прямые выдержки из реальных новостных статей и попросив идентифицировать оригинальные заголовки, издателей, даты публикации и URL-адреса каждой статьи.
Высокий уровень ошибок в цитировании
Результаты исследования показали, что AI-модели неправильно указывали источники более чем в 60% запросов. Это вызывает серьезные опасения относительно их надежности в правильной атрибуции новостного контента.
Использование AI как альтернативы традиционным поисковым системам
Авторы исследования, Клаудия Язвіньска и Айсварья Чандрасекар, отметили, что около 25% американцев теперь используют AI-модели в качестве альтернатив традиционным поисковым системам. Учитывая, что эти модели испытывают значительные трудности при попытке атрибутировать новостные источники, это ставит под сомнение их общую надежность.
Сравнение различных платформ
Уровень ошибок в цитировании варьировался среди протестированных платформ. Например, Perplexity предоставил неверную информацию в 37% случаев, в то время как ChatGPT Search ошибся в 67% (134 из 200) запрашиваемых статей. Grok 3 продемонстрировал наивысший уровень ошибок — 94%. В общей сложности исследователи провели 1600 запросов через восемь различных генеративных поисковых инструментов.
Заключение
Данные результаты подчеркивают важность критического подхода к использованию AI для поиска новостей. Принимая во внимание высокий уровень ошибок в цитировании, пользователям следует быть осторожными и проверять информацию из надежных источников.
Comments are closed.