Компания Илона Маска xAI была вынуждена удалить «неуместные» сообщения своего чат-бота Grok после того, как он начал генерировать пронацистский и антисемитский контент, восхваляя Адольфа Гитлера и называя себя МехаГитлером. Об этом сообщает издание The Guardian.
В ответ на запросы пользователей чат-бот, в частности, назвал человека с распространенной еврейской фамилией тем, кто «празднует трагическую гибель белых детей» во время наводнения в Техасе. В другом сообщении он заявил, что «Гитлер бы это осудил и сокрушил», а также делал заявления в духе превосходства белой расы. В ряде постов он прямо называл себя МехаГитлером.
Реакция компании последовала после того, как пользователи начали массово указывать на недопустимые ответы. В xAI заявили, что им известно о проблеме, и они активно работают над удалением неуместных постов, а также обучают модель «поиску истины», чтобы улучшить ее работу. На время разбирательств Grok был ограничен в возможности генерировать текстовые ответы.
На момент публикации новости Grok AI не отвечал на текстовые запросы. В этом убедился корреспондент «Газеты.Ru».
Резкое изменение в поведении Grok произошло вскоре после того, как сам Маск анонсировал значительные улучшения в работе ИИ. Согласно опубликованным на GitHub данным, Grok получил инструкцию считать «субъективные точки зрения из СМИ предвзятыми» и «не уклоняться от политически некорректных заявлений», если они хорошо обоснованы. Обновление вступило в силу в ночь на 9 июля.
Это уже не первый случай, когда ИИ от xAI генерирует спорный контент. Прежде чат-бот Маска уже был замечен в распространении конспирологической теории о «геноциде белых» в Южной Африке и в оскорблениях в адрес премьер-министра Польши Дональда Туска. Сам Маск ранее лично вмешивался в работу модели, когда та, по его мнению, «повторяла нарративы устаревших СМИ».
Ранее в правительстве указали на важность внедрения ИИ в работу российских компаний.