Market Cap
24h Vol
10071
Cryptocurrencies
58.26%
Bitcoin Share

Почему ИИ галлюцинирует? Исследование OpenAI

Почему ИИ галлюцинирует? Исследование OpenAI


Forklog
2025-09-09 08:44:27

Языковые модели галлюцинируют, поскольку стандартные процедуры обучения и оценки поощряют догадки, а не признание неопределенности. Об этом говорится в исследовательской работе OpenAI. В компании дали следующее определение проблемы: «Галлюцинации — правдоподобные, но ложные утверждения, порождаемые языковыми моделями. Они могут проявляться неожиданным образом даже в ответах на, казалось бы, простые вопросы». Например, когда исследователи спросили «широко распространенного чат-бота» о названии докторской диссертации Адама Таумана Калаи (автора статьи), он уверенно выдал три разных ответа, ни один из которых не был верным. Когда ИИ спросили его день рождения, он назвал три неверные даты. По мнению OpenAI, галлюцинации сохраняются отчасти потому, что современные методы оценки задают неверные стимулы, заставляя нейросети «догадываться» о следующем символе в ответе. В качестве аналогии привели ситуацию, когда человек не знает верного ответа на вопрос в тесте, но может угадать и случайно выбрать правильный. Сравнение правильности ответов двух моделей. Источник: OpenAI. «Предположим, что языковую модель спрашивают о чьем-то дне рождения, но она не знает. Если она угадает “10 сентября”, вероятность правильного ответа составит один к 365. Ответ “я не знаю” гарантирует ноль баллов. После тысяч тестовых вопросов модель, основанная на угадывании, выглядит на табло лучше, чем аккуратная модель, допускающая неопределенность», — объяснили исследователи. С точки зрения точности более старая модель OpenAI — o4-mini — работает немного лучше. Однако частота ошибок у нее значительно выше, чем у GPT-5, поскольку стратегическое угадывание в неопределенных ситуациях повышает точность, но увеличивает количество галлюцинаций. Причины и решения Языковые модели в самом начале тренируют посредством «предобучения» — процесса прогнозирования следующего слова в огромных объемах текста. В отличие от традиционных задач машинного обучения, здесь нет меток «истина/ложь», прикрепленных к каждому утверждению. Модель видит только положительные примеры языка и должна аппроксимировать общее распределение.  «Вдвойне сложно отличить верные утверждения от неверных, когда нет примеров, помеченных как неверные. Но даже при наличии меток ошибки неизбежны», — подчеркнули в OpenAI. В компании привели другой пример. В распознавании изображений, если миллионы фотографий кошек и собак помечены соответственно, алгоритмы научатся надежно классифицировать их. Но если каждую фотографию питомца распределить по дате рождения, задача всегда будет приводить к ошибкам, независимо от того, насколько продвинут алгоритм. Так же получается и с текстом — орфография и пунктуация следуют постоянным закономерностям, поэтому ошибки исчезают с ростом масштаба. Исследователи утверждают, что недостаточно просто ввести «несколько новых тестов, учитывающих неопределенность». Вместо этого «широко используемые оценки, основанные на точности, необходимо обновить, чтобы их результаты исключали попытки угадывания». «Если основные [оценочные] шкалы продолжат поощрять удачные догадки, модели продолжат учиться угадывать», — утверждают в OpenAI. Напомним, в мае ForkLog писал, что галлюцинации остались основной проблемой ИИ. https://forklog.com/news/ton-svel-s-uma-nejronku


Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.