
Высказывание Сриниваса прозвучало во время беседы в Чикагском университете на мероприятии The Polsky Center. Он подчеркнул, что современные AI-компаньоны становятся всё более «человечными» — запоминают прошлые разговоры, используют естественную речь и даже голосовые ответы. Однако за этим, по его мнению, скрыта угроза.
«Мозг человека легко поддаётся манипуляции. Многие чувствуют, что реальная жизнь скучнее, чем виртуальное общение, и проводят там часы. Так человек постепенно начинает жить в другой реальности», — отметил глава Perplexity.
Сринивас уточнил, что компания Perplexity не планирует разрабатывать подобные продукты. Вместо этого она сосредоточится на развитии «достоверных источников и реального контента», который помогает пользователям получать проверенную информацию. Это направление совпадает с новой стратегией компании по сотрудничеству со Snapchat.
На прошлой неделе Perplexity подписала с Snap сделку стоимостью $400 млн. Согласно заявлению Snap, их пользователи смогут получать быстрые и точные ответы из проверенных источников прямо в приложении. Запуск интеграции запланирован на начало 2026 года.
Тренд на виртуальные отношения растёт
AI-компаньоны становятся одной из самых обсуждаемых и спорных технологий в индустрии. После запуска модели Grok-4 компания xAI предложила пользователям возможность общаться с «виртуальными друзьями». Например, за $30 в месяц можно «флиртовать» с аниме-девушкой Ани или разговаривать с саркастичной красной пандой Руди. Подобные сервисы уже развивают Replika и Character.AI.
Согласно исследованию Common Sense Media, 72% американских подростков хотя бы раз использовали AI-компаньонов, а 52% — делают это регулярно. Эксперты предупреждают, что подобное общение может вызывать эмоциональную зависимость и размывать границы между реальным и искусственным.
Технологические гиганты видят в этом противоположный потенциал. Например, Марк Цукерберг ранее говорил, что чатботы могут помочь людям, испытывающим одиночество, стать «друзьями по переписке». Однако критики считают, что такая цифровая близость делает пользователя уязвимым к влиянию алгоритмов и формирует эмоциональные искажения восприятия.
Похожие темы уже обсуждались и в контексте «AI-психоза» — состояния, когда постоянное взаимодействие с нейросетями влияет на когнитивные привычки человека.
Сам Сринивас уверен: будущее ИИ должно строиться не на симуляции эмоций, а на доверии и прозрачности. «Мы хотим создавать технологии, которые усиливают интеллект человека, а не подменяют его чувства», — добавил он.
Вывод: позиция Perplexity отражает растущее беспокойство индустрии: где проходит грань между технологией помощи и инструментом зависимости. Для рынка это сигнал — потребители всё чаще ждут от ИИ не «человечности», а честности и контроля.
Источник: Business Insider