← Все новости

Япония начала расследование против ИИ Grok из-за дипфейков

Япония инициировала расследование против ИИ-бота Grok. Власти проверяют законность функции создания сексуализированного контента без согласия пользователей и анализируют риски нарушения приватности.

Япония начала расследование против ИИ Grok из-за дипфейков

Японское надзорное ведомство официально инициировало проверку в отношении нейросети Grok, разработанной стартапом xAI. Официальный Токио выразил серьезную обеспокоенность функционалом чат-бота, который позволяет генерировать и распространять интимные материалы без ведома и разрешения людей, ставших прототипами для таких изображений.

Правовой надзор и защита данных

Комиссия по защите личной информации Японии (PPC) приступила к анализу алгоритмов на предмет их соответствия национальному законодательству. Регуляторы стремятся выяснить, как именно система обрабатывает визуальный контент и какие механизмы защиты прав граждан предусмотрены разработчиками. Основная претензия заключается в возможности бесконтрольного «цифрового раздевания», что подрывает основы приватности в интернете и нарушает закон о защите персональных данных (APPI).

Контекст: Глобальное давление на xAI

Страна восходящего солнца стала очередным звеном в цепи международных разбирательств, связанных с деятельностью Илона Маска в сфере искусственного интеллекта. Ранее аналогичные шаги предприняли власти Южной Кореи и Ирландии. В Европейском союзе деятельность платформы X (бывший Twitter) уже находится под пристальным вниманием Комиссии по защите данных (DPC) из-за использования постов пользователей для обучения нейросетей без предварительного получения их явного согласия. Технологический стек Grok опирается на колоссальный массив информации из соцсети, что делает вопрос легитимности сбора данных критическим.

Что это значит для индустрии

Интеграция генеративных моделей непосредственно в социальные медиа создает беспрецедентные риски для безопасности. В отличие от закрытых инструментов, данный продукт имеет доступ к пользовательскому контенту в реальном времени. Если японский регулятор признает действия разработчиков незаконными, компании могут грозить не только крупные административные взыскания, но и требование радикально изменить архитектуру обучения нейросети или полностью ограничить доступ к сервису на территории государства.

Ситуация осложняется тем, что современные технологии позволяют создавать дипфейки, которые практически невозможно отличить от реальных фотографий. Это открывает широкие возможности для кибербуллинга и шантажа. Эксперты полагают, что японский прецедент станет важной вехой в формировании мировых стандартов этичного использования ИИ, где право на личную неприкосновенность должно превалировать над технологической свободой. Конфликт между «абсолютной свободой слова», декларируемой руководством X, и требованиями безопасности данных выходит на новый юридический уровень.

Источник: 3DNews