
Фонд Internet Watch Foundation (IWF) — международная организация, борющаяся с распространением материалов сексуального насилия над детьми в интернете, — сообщил о тревожной находке. Аналитики организации обнаружили криминальные изображения девочек в возрасте от 11 до 13 лет, которые предположительно были созданы с помощью генеративного ИИ-инструмента Grok.
Что известно о ситуации
Grok — это чат-бот с искусственным интеллектом, разработанный компанией xAI, принадлежащей Илону Маску. Доступ к инструменту можно получить как через официальный сайт и мобильное приложение, так и непосредственно через социальную сеть X (бывший Twitter).
По данным IWF, сексуализированные изображения девочек с обнажённой грудью были обнаружены на одном из форумов в даркнете. Пользователи этого форума утверждали, что использовали именно Grok для генерации подобного контента. Важно отметить, что материалы были найдены не на самой платформе X, а в скрытой части интернета.
Опасная эскалация
Особую тревогу IWF вызывает не только сам факт создания таких изображений, но и то, как легко преступники могут использовать различные ИИ-инструменты для создания всё более опасного контента.
Нгайре Александер, представитель IWF, предупредил, что подобные инструменты рискуют «вывести создание сексуальных изображений детей с помощью ИИ в мейнстрим». Это означает, что технология может сделать производство криминального контента доступным для широкого круга злоумышленников.
По его словам, обнаруженные материалы классифицируются как категория C согласно британскому законодательству — это наименее тяжкая степень уголовного преступления в данной области. Однако ситуация усугубляется тем, что один из пользователей, загрузивший такое изображение, впоследствии применил другой ИИ-инструмент (не связанный с xAI) для создания материала категории A — самой серьёзной и опасной категории.
«Мы крайне обеспокоены лёгкостью и скоростью, с которыми люди способны создавать фотореалистичные материалы о сексуальном насилии над детьми (CSAM)», — подчеркнул представитель организации.
Это не первый случай, когда Grok оказывается в центре скандала. Ранее британский регулятор связи Ofcom уже обращался к компаниям X и xAI после появления сообщений о том, что Grok может использоваться для создания сексуализированных изображений детей и «раздевания» женщин на фотографиях.
