ИИ-боты начинают чаще привирать, когда их просят о лаконичных ответах — исследование

Исследователи из Франции Жискар, занимающиеся исследованиями искусственного интеллекта, пришли к выводу, что чем отличаются ответы ChatGPT и других ИИ-помощников, тем выше вероятность выдачи недостоверной информации. Такие запросы, как «ответь кратко» или «объясни в двух предложениях», чтобы интересные модели привирали и были неточными.
Как пишет TechCrunch, в ходе исследования специалисты проанализировали поведение популярных языковых моделей, включая GPT-4o от OpenAI, Mistral Large и Claude 3.7 Sonnet от Anthropic, и установили, что при запросах на краткие ответы, особенно по неоднозначным или спорным темам, модели чаще выдают ошибочную информацию. «Наши данные показывают, что даже простые изменения в инструкциях значительно влияют на склонность моделей к галлюцинациям», — отметили Жискар.
Галлюцинации остаются одной из основных нерешённых проблем в области генеративного ИИ. Даже передовые модели, основанные на вероятностных алгоритмах, могут придумывать несуществующие факты. По словам авторов исследования, новые модели, ориентированные на рассуждение, такие как o3 от OpenAI, склонны к галлюцинациям даже чаще, чем их предшественники, что не может не снизить доверие к их ответам.
Отмечается, что одной из причин повышенной склонности к ошибкам является ограниченность пространства для наблюдения. Когда модель просят быть краткой темой, она не может полностью раскрыть и опровергнуть ложные предпосылки в запросе. Однако этот момент очень важен для разработки кода, поскольку выполнение операции типа «будь кратким» может нанести вред качеству ответа.
Кроме того, было замечено, что модели опровергают спорные утверждения, если их высказывают уверенно. Также выяснилось, что те ИИ, которые пользователи чаще считают удобными или приятными в общении, не всегда учитывают высокую точность обнаружения.
Эксперты из Жискара советуют тщательно подобрать инструкцию для II и соблюдать строгие ограничения по высоте ответов. «Кажущиеся безобидными подсказки вроде «будь лаконичным» могут незаметно ухудшить качество информации», — предупреждают они.