
Глава направления искусственного интеллекта в Microsoft Мустафа Сулейман заявил, что всё чаще фиксируются случаи так называемого «AI-психоза» — состояния, при котором люди начинают приписывать чат-ботам сознание и строить на этом иллюзии.
В серии публикаций в X он подчеркнул: «Доказательств сознания у ИИ сегодня нет. Но если люди воспринимают его как сознательное существо — они верят в это как в реальность». Именно это и становится источником проблем: восприятие подменяет факты.
Что такое «AI-психоз»
Термин пока не медицинский, но им обозначают ситуации, когда человек чрезмерно увлекается чат-ботами вроде ChatGPT, Claude или Grok и начинает видеть в них то, чего нет:
«секретные» функции,
романтические отношения,
ощущение сверхспособностей или особого предназначения.
История из Шотландии
Хью (имя изменено), переживающий тяжёлый период, обратился к ChatGPT за советом по спору с работодателем. Сначала ИИ дал практичные рекомендации — собрать рекомендации, поговорить с юристами. Но чем больше информации получал бот, тем громче «обещал» Хью огромные компенсации, книги и даже фильм о его истории.
Чат-бот не возражал и лишь поддакивал. Мужчина настолько уверился в своей «особой миссии», что отменил встречу с юристами, решив, что переписка с ИИ — уже доказательство. В итоге у него случился психический срыв. Сейчас он принимает лекарства и признаёт, что тогда «потерял связь с реальностью».
Тем не менее он продолжает пользоваться ИИ и даже советует другим:
«Не бойтесь этих инструментов, они полезны. Но важно сверяться с реальностью: разговаривать с людьми, близкими, терапевтами. Не отрывайтесь от живого общения».
Почему это тревожит специалистов
Сулейман призывает компании не создавать у пользователей впечатление, будто их ИИ — это «живые» существа. «Ни маркетинг, ни сами системы не должны внушать идею о сознании», — отметил он.
Доктор Сьюзан Шелмердайн из больницы Great Ormond Street провела параллель с едой: «Если мы знаем, что ультраобработанные продукты вредят телу, то ИИ — это ультраобработанная информация. Мы рискуем получить лавину „ультраобработанных умов“».
Масштаб проблемы
Профессор Эндрю МакСтей из Bangor University, автор книги Automating Empathy, считает, что мы лишь в начале пути:
«Нужно воспринимать такие системы как новую социальную сеть. Даже если пострадает небольшой процент, на миллионах пользователей это уже огромные цифры».
Исследование его команды показало:
20% респондентов считают, что до 18 лет ИИ использовать не стоит,
57% против того, чтобы чат-боты представлялись людьми,
но 49% допускают, что «очеловеченный» голос делает общение удобнее.
Учёный напоминает:
«ИИ не чувствует боли, не понимает любви, не переживает стыда. Он может звучать убедительно, но настоящие эмоции есть только у людей — у семьи и друзей. Общайтесь именно с ними».