techodix » Искусственный интеллект » ИИ-боты начинают чаще привирать, когда их просят о лаконичных ответах — исследование

ИИ-боты начинают чаще привирать, когда их просят о лаконичных ответах — исследование

ИИ-боты начинают чаще привирать, когда их просят о лаконичных ответах — исследование

Исследователи из Франции Жискар, занимающиеся исследованиями искусственного интеллекта, пришли к выводу, что чем отличаются ответы ChatGPT и других ИИ-помощников, тем выше вероятность выдачи недостоверной информации. Такие запросы, как «ответь кратко» или «объясни в двух предложениях», чтобы интересные модели привирали и были неточными.

Как пишет TechCrunch, в ходе исследования специалисты проанализировали поведение популярных языковых моделей, включая GPT-4o от OpenAI, Mistral Large и Claude 3.7 Sonnet от Anthropic, и установили, что при запросах на краткие ответы, особенно по неоднозначным или спорным темам, модели чаще выдают ошибочную информацию. «Наши данные показывают, что даже простые изменения в инструкциях значительно влияют на склонность моделей к галлюцинациям», — отметили Жискар.

Галлюцинации остаются одной из основных нерешённых проблем в области генеративного ИИ. Даже передовые модели, основанные на вероятностных алгоритмах, могут придумывать несуществующие факты. По словам авторов исследования, новые модели, ориентированные на рассуждение, такие как o3 от OpenAI, склонны к галлюцинациям даже чаще, чем их предшественники, что не может не снизить доверие к их ответам.

Отмечается, что одной из причин повышенной склонности к ошибкам является ограниченность пространства для наблюдения. Когда модель просят быть краткой темой, она не может полностью раскрыть и опровергнуть ложные предпосылки в запросе. Однако этот момент очень важен для разработки кода, поскольку выполнение операции типа «будь кратким» может нанести вред качеству ответа.

Кроме того, было замечено, что модели опровергают спорные утверждения, если их высказывают уверенно. Также выяснилось, что те ИИ, которые пользователи чаще считают удобными или приятными в общении, не всегда учитывают высокую точность обнаружения.

Эксперты из Жискара советуют тщательно подобрать инструкцию для II и соблюдать строгие ограничения по высоте ответов. «Кажущиеся безобидными подсказки вроде «будь лаконичным» могут незаметно ухудшить качество информации», — предупреждают они.

Понравилась ли Вам статья?
0 из 0 посчитали это полезным

Комментарии

Добавить комментарий

Навигация
Гаджеты
Искусственный интеллект
Кибербезопасность
Автотехнологии
Космос и наука
Соцсети и интернет
Мир технологий
Игры и VR
Комментарии
Впервые в мире дрон вызвал молнию, используя колебания электрического поля
{title}
Нина
04.05.2025
Удивительная статья! Идея использовать дрон для вызова молнии с помощью электрического поля звучит
ТОП-5 самых громких хакерских атак 2024 года
{title}
Александр
01.05.2025
Спасибо за интересную статью! Эти пять громких кибератак 2024 года действительно заставляют
Telegram теперь можно использовать как Zoom — добавлены групповые звонки до 200 пользователей
{title}
nik
01.05.2025
Отличная новость! Telegram продолжает удивлять своими обновлениями. Групповые звонки до 200 человек
Все комментарии
Авторизация

Войдите через свою социальную сеть для быстрого доступа