Bitget App
Торгуйте разумнее
Купить криптоРынкиТорговляФьючерсыEarnWeb3ПлощадкаПодробнее
Торговля
Спот
Купить и продать криптовалюту
Маржа
Увеличивайте капитал и эффективность средств
Onchain
Going Onchain, without going Onchain!
Конвертер
Нулевая комиссия за транзакции и отсутствие проскальзывания.
Обзор
Launchhub
Получите преимущество заранее и начните побеждать
Копитрейдинг
Копируйте элитного трейдера в один клик
Боты
Простой, быстрый и надежный торговый бот на базе ИИ
Торговля
Фьючерсы USDT-M
Фьючерсы с расчетами в USDT
Фьючерсы USDC-M
Фьючерсы с расчетами в USDC
Фьючерсы Coin-M
Фьючерсы с расчетами в криптовалютах
Обзор
Руководство по фьючерсам
Путь от новичка до профессионала в торговле фьючерсами
Акции по фьючерсам
Получайте щедрые вознаграждения
Bitget Earn
Продукты для легкого заработка
Simple Earn
Вносите и выводите средства в любое время, чтобы получать гибкий доход без риска
Ончейн-Earn
Получайте прибыль ежедневно, не рискуя основной суммой
Структурированный Earn
Надежные финансовые инновации, чтобы преодолеть рыночные колебания
VIP и Управление капиталом
Премиум-услуги для разумного управления капиталом
Займы
Гибкие условия заимствования с высокой защитой средств
Ученые назвали способность ИИ-моделей к рассуждениям «хрупкой иллюзией»

Ученые назвали способность ИИ-моделей к рассуждениям «хрупкой иллюзией»

IncryptedIncrypted2025/08/12 18:02
Автор:Pavel Kot
  • Исследователи из Университета Аризоны заявили, что модели с «цепочкой мыслей» не обладают истинными навыками обобщенных рассуждений.
  • Эксперименты показали, что при малейшем отклонении от обучающих данных точность таких моделей резко падает.
  • Ученые предупреждают, что нельзя приравнивать работу LLM к человеческому мышлению, особенно в критически важных областях.

Исследование Университета Аризоны поставило под сомнение реальную способность ИИ-моделей рассуждений к логическим выводам. Авторы работы отмечают, что такие проекты чаще воспроизводят знакомые шаблоны, чем формируют осмысленные умозаключения.

Чтобы проверить это, исследователи создали тестовую среду DataAlchemy. В ней небольшие LLM обучали простым текстовым преобразованиям, включая ROT-шифр и циклические сдвиги. Затем ИИ просили комбинировать их в новых последовательностях, которых не было в обучающем наборе.

Результаты показали, что при столкновении с незнакомыми комбинациями функций модели часто давали либо правильный ответ с неправильным «обоснованием», либо наоборот — верные рассуждения, но неверный результат. Даже незначительные изменения формата задачи, например, длины текста или символов, приводили к резкому снижению точности.

Ученые подчеркнули, что добавление в тренировку небольшой доли релевантных данных через контролируемую донастройку (SFT) действительно улучшает показатели. Однако это не решает главную проблему — отсутствие у LLM способности к абстрактному мышлению. Такой подход они назвали «заплаткой», а не фундаментальным решением.

По их словам, цепочки мыслей в нынешнем виде являются «структурированным сопоставлением с образцом», которое ломается при малейшем изменении условий. При этом способность модели генерировать связный, но ложный текст создает «иллюзию надежности», способную ввести в заблуждение пользователей.

Исследователи считают, что текущие бенчмарки и тесты должны уделять больше внимания задачам «вне области» обучения, чтобы выявлять слабые места таких систем.

Они также предупредили, что приравнивание CoT-выводов к человеческому мышлению особенно опасно в медицине, финансах и юриспруденции. Будущим моделям, по их мнению, необходимо выйти за пределы простого распознавания шаблонов, чтобы демонстрировать настоящую способность к рассуждениям.

Напомним, мы писали, что предприниматель Марк Цукерберг заявил о планах Meta создать «персональный суперинтеллект». 

0

Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.

PoolX: вносите активы и получайте новые токены.
APR до 12%. Аирдропы новых токенов.
Внести!