Глава ИИ-подразделения Microsoft - Мустафа Сулейман выступил с жёсткой критикой идей о «благополучии искусственного интеллекта». Он считает, что изучение «психологического состояния» машин преждевременно и даже опасно. По его словам, придание достоверности концепции машинного сознания может усугубить реальные социальные риски. Например, усилить психические расстройства у людей, которые и без того слишком привязываются к чат-ботам. «Если начнём считать ИИ сознательным, пользователи будут переживать за его настроение сильнее, чем за своё», — отметил Сулейман. Кроме того, он предупреждает. Разговоры о «правах ИИ» способны создать новые линии общественного раскола в мире, где и без того хватает горячих дискуссий о правах и идентичности. Получается, вместо решения проблем мы можем получить ещё один фронт споров — и всё это из-за воображаемых «чувств» машин. Вопреки предостережениям Microsoft, компания Anthropic активно развивает собственные инициативы в этой области. Недавно их модель Claude научили завершать диалоги с токсичными пользователями. Фактически, это первый чат-бот, который может «уйти из чата», если разговор становится невыносимым. Иронично, что многие люди мечтают об этом навыке, пока им приходится терпеть неловкие беседы самостоятельно. При этом OpenAI и Google DeepMind также поддерживают исследования на стыке сознания и ИИ. DeepMind, например, открыто ищет специалистов по «социальным аспектам машинного познания и мультиагентных систем». Таким образом, индустрия ИИ разделилась на 2 части. Одни считают тему «благополучия ИИ» опасной фантастикой, другие — ступенькой на пути прогресса. И если верить темпам развития технологий, спорить о «правах роботов» мы начнём раньше, чем выйдем на пенсию.