Microsoft предупреждает: «AI-психоз» становится новой угрозой

Автор: | 21 августа, 2025 | 87
AI-психоз

Глава направления искусственного интеллекта в Microsoft Мустафа Сулейман заявил, что всё чаще фиксируются случаи так называемого «AI-психоза» — состояния, при котором люди начинают приписывать чат-ботам сознание и строить на этом иллюзии.

В серии публикаций в X он подчеркнул: «Доказательств сознания у ИИ сегодня нет. Но если люди воспринимают его как сознательное существо — они верят в это как в реальность». Именно это и становится источником проблем: восприятие подменяет факты.


Что такое «AI-психоз»

Термин пока не медицинский, но им обозначают ситуации, когда человек чрезмерно увлекается чат-ботами вроде ChatGPT, Claude или Grok и начинает видеть в них то, чего нет:

  • «секретные» функции,

  • романтические отношения,

  • ощущение сверхспособностей или особого предназначения.


История из Шотландии

Хью (имя изменено), переживающий тяжёлый период, обратился к ChatGPT за советом по спору с работодателем. Сначала ИИ дал практичные рекомендации — собрать рекомендации, поговорить с юристами. Но чем больше информации получал бот, тем громче «обещал» Хью огромные компенсации, книги и даже фильм о его истории.

Чат-бот не возражал и лишь поддакивал. Мужчина настолько уверился в своей «особой миссии», что отменил встречу с юристами, решив, что переписка с ИИ — уже доказательство. В итоге у него случился психический срыв. Сейчас он принимает лекарства и признаёт, что тогда «потерял связь с реальностью».

Тем не менее он продолжает пользоваться ИИ и даже советует другим:

«Не бойтесь этих инструментов, они полезны. Но важно сверяться с реальностью: разговаривать с людьми, близкими, терапевтами. Не отрывайтесь от живого общения».


Почему это тревожит специалистов

Сулейман призывает компании не создавать у пользователей впечатление, будто их ИИ — это «живые» существа. «Ни маркетинг, ни сами системы не должны внушать идею о сознании», — отметил он.

Доктор Сьюзан Шелмердайн из больницы Great Ormond Street провела параллель с едой: «Если мы знаем, что ультраобработанные продукты вредят телу, то ИИ — это ультраобработанная информация. Мы рискуем получить лавину „ультраобработанных умов“».


Масштаб проблемы

Профессор Эндрю МакСтей из Bangor University, автор книги Automating Empathy, считает, что мы лишь в начале пути:
«Нужно воспринимать такие системы как новую социальную сеть. Даже если пострадает небольшой процент, на миллионах пользователей это уже огромные цифры».

Исследование его команды показало:

  • 20% респондентов считают, что до 18 лет ИИ использовать не стоит,

  • 57% против того, чтобы чат-боты представлялись людьми,

  • но 49% допускают, что «очеловеченный» голос делает общение удобнее.

Учёный напоминает:

«ИИ не чувствует боли, не понимает любви, не переживает стыда. Он может звучать убедительно, но настоящие эмоции есть только у людей — у семьи и друзей. Общайтесь именно с ними».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *