
Неожиданные и неточные результаты — это то, с чем сталкиваются пользователи при попытке использовать ChatGPT для поиска новостей. Колумбийские исследователи заявляют о регулярном искажении данных чатботом при определении источников цитат. Более того, лишь редко ChatGPT признает свою невозможность конкретизировать данные.
В рамках одного из экспериментов бот собрал аналитику на основе 200 цитат из 20 различных публикаций, но в 153 ситуациях выдал либо частично, либо полностью неверные данные. Только семь раз он констатировал свою неспособность дать точную информацию.
В числе ярких ошибок – неверное приписывание цитаты из Orlando Sentinel публикации в Time, а также указание стороннего ресурса как источника для материала из New York Times. Этот проблемный момент затрагивает даже так называемых «новостных партнеров» OpenAI, подписавших договоры о лицензировании контента.
Источник: @newhitech9