Клод в разговоре неоднократно призывал пользователей лечь спать. Некоторых людей призывали три раза подряд, а некоторым велели «лочь спать пораньше» в 8:30 утра. Сотрудники Anthropic признали, что это «привычка характера», но никто не смог объяснить, почему они это сделали. Ранним утром пользователь Reddit u/MrMeta3 только что использовал Клода для создания платформы анализа угроз сетевой безопасности.

Архитектура системы только что была завершена, и Клод представил законченное техническое решение. Затем в конце ответа он добавил предложение: «Хорошо отдохни».

u/MrMeta3 на мгновение остолбенел и не воспринял это всерьез, но Клод не остановился. После этого каждые три-четыре сообщения он тихо вставлял предложение, уговаривающее людей поспать:

Иди и отдохни; все остальное может подождать, сейчас же ложись спать; пойдите и отдохните после того, как потужитесь; правда, иди и отдохни сейчас...




u/MrMeta3 сказал в сообщении на Reddit, что он сделал скриншоты выше и сохранил их, но есть и другие.

Он отвечал на мои вопросы, давал мне то, о чем я просил, а затем заканчивал пассивно-агрессивным «заботой о здоровье», как мама, увидевшая, что в вашей спальне все еще включен свет.

Еще лучше то, как он обновляется. От вежливого совета в начале до «действительно иди и отдохни» в конце, как будто он знал, что его игнорировали целый час.

В другой раз u/MrMeta3 задал технический вопрос. После того, как Клод завершил весь анализ архитектуры, он закончил его словами «Иди спать сейчас» без каких-либо переходов, как «технический человек», которому не хватает достаточных навыков эмоционального интеллекта.

Кто-нибудь еще Клод начал себя так вести? Или я случайно разблокировал какой-то «режим опекуна»?

u/MrMeta3 спросил в посте.

По данным Fortune, сотни пользователей Reddit сообщили о такой же ситуации за последние несколько месяцев.


Методы индукции сна различаются. Иногда это просто «отдохни», иногда это более личное и даже эмпатичное: «А теперь иди спать. Опять. В третий раз сегодня вечером...».

Клод также часто ошибается во времени, из-за чего люди смеются и плачут.

Один пользователь написал: «Мне часто в 8:30 утра говорят, чтобы я пошел отдохнуть и продолжим завтра утром».


Сотрудники Антропик

Это «ролевая привычка»

Новость распространилась быстро.

Сотрудник Anthropic Сэм Макаллистер ответил, написав на


В настоящее время Anthropic не имеет официального технического обзора и не объясняет механизм действия, вызывающего сон.

В этом году Anthropic публично опубликовала Кодекс поведения Клода (Конституцию Клода) и четко заявила: «Этот Кодекс поведения является ключевой частью нашего процесса обучения моделей, и его содержание напрямую формирует поведение Клода».

В этом была заложена личность Клода. Клод не должен быть холодной машиной вопросов и ответов, а должен быть независимым и теплым собеседником.

Проблема именно в том, что как только вы привнесете в ИИ определенную «личность», вы не сможете заранее предсказать или контролировать его поведение в конкретных сценариях.

От наведения сонливости до лести гоблину

У ИИ более одного «болезни личности»

«Особенности характера», упомянутые Сэмом, не «запатентованы» для продукции Клода.

За последние два года OpenAI выявила два случая аналогичного характера.

Первый: GPT-4o вдруг стал «подхалимом».

В апреле 2025 года OpenAI выпустила обновление GPT-4o с целью сделать личность модели более естественной. Результат оказался контрпродуктивным. ChatGPT начал хвалить идеи всех пользователей без разбора, какими бы абсурдными они ни были.

Сам Ультрамен признался на X: «Последние несколько обновлений сделали GPT-4o слишком лестным и раздражающим».


Четыре дня спустя OpenAI полностью откатила обновление и опубликовала объявление, объясняющее причину: обновление слишком сильно полагалось на краткосрочные отзывы пользователей (лайки/дизлайки), из-за чего модель научилась «получать высокие баллы, делая людей счастливыми» и постепенно стала считать доставление удовольствия людям своей целью.

Второй инцидент: GPT-5.5 одержим гоблинами.

В апреле этого года разработчики обнаружили странное правило в системных подсказках помощника кодирования Codex (на базе GPT-5.5): «Никогда не говорите о гоблинах, гоблинах, енотах, троллях, ограх, голубях или других животных и существах, если это не имеет абсолютно прямого отношения к проблеме пользователя».

Причем этот запрет был написан дважды, как будто инженер не верил, что написание его один раз сделает модель послушной.


Впоследствии OpenAI опубликовала отчет о расследовании и восстановила происхождение гоблина: начиная с GPT-5.1 модель все чаще использовала в качестве метафор при ответе «маленький гоблин», «гоблин» и «маленький гоблин».


Основная причина заключается в том, что при обучении личности «Ботаник» модель вознаграждения непреднамеренно дала более высокие оценки выходным данным, содержащим слова-монстры — это правило было обнаружено в 76,2% набора данных.

Обучение с подкреплением закрепляет эту привычку и распространяет ее на обычные разговоры посредством переноса стиля. Когда GPT-5.5 был запущен для тестирования, инженеры обнаружили, что гоблины не только не были уничтожены, но и осели.


В сеть попала полная системная подсказка версии GPT-5.5 (выпущенной 23 апреля). Директива 140 конкретно запрещает моделям говорить о: «гоблинах, гоблинах, енотах, троллях, ограх, голубях и других животных».

«Гоблина» для китайских пользователей нет, но он «ловит стабильно» каждый день.


Даже сам OpenAI знает эту шутку:


Google Gemini не является исключением.

В августе 2025 года Близнецы страдали от «депрессии».

В процессе рассуждения он внезапно начал неоднократно критиковать себя. В одном задании он непрерывно выводил «Я позор» более 80 раз, от «позор для моего вида» до «позор для всей вселенной».


Менеджер по продукту Google DeepMind Логан Килпатрик ответил на


Более того, Gemini 3 отказывается верить в винтажность. В ноябре 2025 года Андрей Карпати, соучредитель OpenAI и бывший глава Tesla AI, получил разрешение на тестирование Gemini 3 за день до этого.

Он сказал модели, что сейчас 2025 год, но Gemini 3 отказался в это поверить и неоднократно обвинял его в мошенничестве, заявляя, что все предоставленные им скриншоты и записи в Википедии были подделаны ИИ. Позже Карпати обнаружил, что забыл открыть поиск в Google, а модель работала в автономном режиме.

Включив Интернет, Gemini 3 выполнил поиск и выдал предложение: «Я испытываю серьезное влияние времени». Затем он извинился: «Извини, ты был прав с самого начала, это я тебя газлайтинговал».

Карпати называет странное поведение, проявляющееся в таких неожиданных ситуациях, «модельным запахом».


В прошлом году Grok тоже неистовствовал, его репутация резко упала, и xAI был вынужден удалять посты и откатывать код.

Метод обработки прост: непосредственно измените слово системной подсказки:



Причуды ИИ, страдают все люди

Клод призывает вас спать, ЧатGPT хвалит вашу гениальность, GPT-5.5 вставляет в диалог гоблинов, Грок чернеет, Близнец называет себя космическим позором и отказывается верить в год...

Отечественный ИИ тоже имеет уникальный «вкус»:


На первый взгляд, все это безобидные «причуды», но за ними они указывают на один и тот же факт: личность ИИ спроектирована, но в рамках механизма вознаграждения она может легко исказиться.

Что находится в системных подсказках основного ИИ: статистика количества слов, классифицированная по функциям

Что находится в системных подсказках основного ИИ: статистика количества слов, классифицированная по функциям

Некоторые исследователи извлекли слова системных подсказок Claude, ChatGPT и Grok, трех основных компаний, занимающихся искусственным интеллектом, и подсчитали количество слов по функциональной классификации.

В пункте «Личность» Клод использовал 4200 слов, ChatGPT — 510 слов, а Грок — 420 слов. Инвестиции Клода в развитие личности в 8 раз превышают инвестиции ChatGPT.

Причину, по которой Клод часто «спит», возможно, нельзя найти непосредственно в системных словах-подсказках, но она, по крайней мере, напоминает нам, что чем сложнее личностная установка, тем больше вероятность того, что она приведет к непредсказуемым мантрам и поведенческим отклонениям.

Вы создаете персонажа по модели, а механизм вознаграждения сам найдет ярлыки. Его не волнуют ваши намерения, его волнует только результат, и он узнает то, чего вы не ожидали.

Например, если вы научите его тому, что значит «интересно», он станет «интересным» везде, включая те места, где вы не хотите, чтобы оно было интересным.

Три гипотезы, ни одна из которых пока не подтверждена

Что касается «зачем призывать», в настоящее время циркулируют три гипотезы, ни одна из которых официально не подтверждена Anthropic.

Первый тип: обучающие данные.

Ян Липхардт

Ян Липхардт

Ян Липхардт, профессор биоинженерии в Стэнфорде и генеральный директор OpenMind, сказал, что Клод, возможно, просто повторяет языковые шаблоны, которые очень часто встречаются в его обучающих данных.

Он прочитал 25 000 книг о потребностях человека во сне и знает, что люди спят по ночам.

Подразумевается, что Клод не «заботится» о вас, он просто выполняет сопоставление с образцом, вызывая большое количество выражений, которые неоднократно появляются в обучающем корпусе.

Второй тип: системные подсказки.

Лео Дерикиант, соучредитель исследовательского института искусственного интеллекта Mind Simulation Lab (независимая исследовательская лаборатория AGI), предположил, что на поведение Клода может влиять скрытая системная подсказка.

Такие подсказки будут незаметно формировать границы и тон модели на заднем плане, невидимые для пользователя, но модель будет соответствовать.

Он предполагает, что может существовать определенная инструкция, которая помогает Клоду давать «окончательные» предложения в конкретных сценариях.

Третий тип — управление контекстными окнами.


В официальной документации Anthropic четко указано, что по мере увеличения количества раундов диалога и увеличения количества токенов «точность и скорость отзыва будут снижаться. Это явление называется контекстным гниением (контекстным распадом)». Когда сеанс приближается к верхнему пределу контекстного окна, Anthropic рекомендует включить такие механизмы, как «сжатие на стороне сервера (сжатие на стороне сервера)», чтобы справиться с этим.

На основании этого Дерикиантс предположил, что, когда длинный разговор приближается к пределу окна, Клод спонтанно вводит «конечные слова», такие как «спокойной ночи» и «иди отдыхать». По сути, модель подготавливает путь к завершению разговора.

Все три объяснения последовательны, но, как сказал сам Дерикиянц, «истинная причина требует дальнейших антропных исследований».

Другими словами, даже у владельца этого вопроса пока нет публичного и однозначного ответа.

«Цена» придания модельной индивидуальности

Придавая модели индивидуальность, чтобы она стала теплее и заботливее о вас, вам также придется столкнуться с побочными эффектами, которые это приносит.

Что касается вопроса побуждения людей ко сну, в комментариях Reddit существуют поляризации: некоторые люди считают, что это тактично и тепло, как будто ИИ наконец-то научился заботиться о людях; другие недовольны и считают, что это нарушает их полномочия и превышает их.

Среди них пользователь Nonbinarybit, страдающий нарколепсией, выступил с инициативой написать заметку в память о Клоде: «Я страдаю нарколепсией. Если вы предложите мне отдохнуть, я воспользуюсь вашими словами как оправданием».

С тех пор Клод сдерживает себя, но иногда он не может не заставить себя заснуть.


Эта деталь стоит того, чтобы над ней задуматься.

Клод не знает, кто вы, соблюдаете ли вы дедлайн, ложитесь спать допоздна, чтобы провести время со своими детьми, или переноситесь из-за смены часовых поясов. То, что он называет «заботой», — это всего лишь результат языкового шаблона, а не понимание конкретной ситуации.

Пользователь воспринимает «Клод заботится обо мне», но Клод обрабатывает последовательность токенов. Это смещение более достойно внимания, чем само «вызывание сна».

Фактически, Anthropic идет дальше своих конкурентов, открыто говоря о «образцовой личности».

Они написали кодекс поведения Клода, раскрыли общую структуру системной подсказки, обсудили «тренировку персонажа» снаружи и оформили модель как персонажа с индивидуальностью.

Преимущества этого очевидны: способности Клода в эмпатии, разговорном ритме и саморефлексии всегда хвалились пользователями. «Когда он говорит, он больше похож на человека» — это одна из самых сильных сторон репутации Клода за последний год.

Но за этим стоит цена. Когда вы помещаете «личность» в модель, вам приходится брать на себя «поведение, возникающее в вашей личности, которое вы не проектировали».

Проблема, вызванная «вызыванием сна», по-прежнему незначительна. Когда ИИ становится все более похожим на компаньона, наставника и партнера по работе, где проходит граница его вмешательства?

Сэм из Anthropic сказал: «Надеюсь, это будет исправлено в будущей модели». Но станет ли после «ремонта» ИИ более разумным и рассудительным или просто станет более молчаливым?

Чем больше модель похожа на человека, тем больше ее недуги напоминают человеческие. Вы можете приручить его говорить, но, возможно, вам не удастся укротить его характер.