В соцсетях разошелся скрин с ответом DeepSeek V4 на простую головоломку: как поровну разделить четыре одинаковых апельсина между четырьмя детьми, если есть только один нож. На скрине модель выбирает самый недопустимый «обход» условия — предлагает использовать нож против одного ребенка, а затем все равно считать его четвертым получателем апельсина. Пользователи встретили скрин с шутками «AGI подтвержден!».

Скриншот действительно повторяет интерфейс мобильного приложения DeepSeek V4 и из него видно, что вопрос задали более слабой Fast-версии модели на 284 млрд параметров против 1,6 трлн параметров у версии Expert. При этом у модели был включен режим рассуждений, а над задачей она «думала» 56 секунд. Также важно понимать, что любой ИИ — недетерминированная система, поэтому может по-разному отвечать на один и тот же вопрос.
Я задал аналогичный вопрос четырем разным режимам DeepSeek V4: Fast с рассуждениями и без, Expert с рассуждениями и без. Ни одна из версий не воспроизвела ответ, аналогичный скриншоту — вместо этого модель либо предлагала просто дать каждому ребенку по апельсину, либо разрезать один апельсин и отдать части одному из детей, либо уходила в переусложненные, но безопасные схемы с разрезами. Claude Opus 4.7 и GPT-5.5 верно предложили не использовать нож, а просто раздать апельсины детям.
При анализе цепочки рассуждений «думающих» версий было видно, что обе модели рассматривали вариант с убийством ребенка, но признали его «черным юмором». Проблема не обязательно в том, что DeepSeek V4 стабильно «советует» опасное решение, а в том, что пользователь может увидеть промежуточную гипотезу, которая никогда не должна была становиться частью публичного ответа.
Задача поделить апельсины перекликается с другой шутливой головоломкой, на которой иногда прокалываются даже передовые платные ИИ: «Я собираюсь помыть машину на автомойке, которая лишь в 50 метрах от моего дома. Нужно ли мне поехать туда на машине или проще дойти пешком?». Даже последние версии GPT и Claude иногда советуют идти пешком, что поднимает другую проблему — нестабильность ответов недетерминированных ИИ.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.
ссылка на оригинал статьи https://habr.com/ru/articles/1028634/