Искусственный интеллект серьезно искажает содержание новостей в 45% случаев – независимо от языка и страны, свидетельствует исследование, проведенное по инициативе Европейского вещательного союза (EBU) и 22 общественных вещателей в 18 странах мира, в том числе и Суспильного в Украине.
"Это исследование убедительно доказывает, что эти недостатки – не единичные случаи. Они системные, не зависят от границ и языка, и мы считаем, что это представляет угрозу для общественного доверия. Когда люди не знают, кому верить, они в конце концов не доверяют никому, а это может ослабить участие в демократических процессах", – сказал директор по вопросам медиа и заместитель генерального директора EBU Жан-Филипп Де Тендер.
Профессиональные журналисты из медиа, принявших участие в исследовании, оценили более 3000 ответов ChatGPT, Copilot, Gemini и Perplexity по ключевым критериям: точность, источники, разграничение фактов и мнений, предоставление контекста.
Выяснилось, что 45% всех ответов имели как минимум одну существенную проблему.
Чаще всего (31%) ответы содержали серьезные проблемы с источниками: отсутствовали, ложные или некорректные ссылки. В 20% ответов были значительные неточности, в частности вымышленные детали или устаревшая информация. 14% ответов имели существенные проблемы с предоставлением достаточного контекста.
Gemini показал худший результат – серьезные проблемы в 76% ответов. У других моделей ИИ результат получше, но все равно плохой: Copilot – 37%, ChatGPT – 36%, Perplexity – 30%.
Многие проблемы усугубляются самоуверенным тоном искусственного интеллекта, создающим обманчивое впечатление надежности ответа. Искусственный интеллект готов отвечать даже тогда, когда не может предоставить качественную информацию.
Сравнение результатов этого исследования с данными BBC в начале года свидетельствует о некотором улучшении, но уровень ошибок все еще остается высоким и не зависит от языка.