← Все новости

Уязвимость OpenAI Sora: как скачать видео без водяных знаков

Исследователь нашел способ обхода защиты OpenAI Sora, позволяющий скачивать генерации без водяных знаков напрямую с серверов компании через стандартные инструменты браузера.

Уязвимость OpenAI Sora: как скачать видео без водяных знаков

Энтузиаст обнаружил критическую недоработку в архитектуре Sora — новейшей нейросети от OpenAI для генерации видеоконтента. Исследование началось после появления в сети предложений о продаже роликов, очищенных от фирменных знаков отличия. Первоначальная гипотеза о трудоемкой постобработке с помощью машинного обучения или ручной ретуши каждого кадра была опровергнута мгновенным получением результата.

Техническая брешь в защите

Специалист по кибербезопасности выявил способ извлечения исходных файлов из системы, минуя наложенные фильтры визуальной идентификации. Высокая скорость выполнения запроса — всего одна секунда — натолкнула автора на мысль, что оригинальный контент хранится на серверах в незащищенном виде. В ходе анализа вкладки Network в инструментах разработчика браузера удалось обнаружить прямые пути к медиафайлам.

Это подтвердило догадку: система не рендерит видео заново для удаления меток, а просто предоставляет доступ к исходнику, который скрыт за интерфейсом пользователя. Итогом изысканий стала публикация готового решения и исходного кода на платформе GitHub, что сделало метод доступным для широкого круга лиц.

Контекст

OpenAI позиционирует свой продукт как инструмент с многоуровневой системой безопасности, включая метаданные C2PA и невидимые цифровые отпечатки. Эти меры призваны предотвратить бесконтрольное распространение дипфейков и дезинформации. Однако текущая реализация веб-интерфейса, судя по всему, оставляет лазейку для тех, кто знаком с базовыми принципами работы веб-приложений. На данный момент доступ к модели ограничен узким кругом тестировщиков, что делает подобные утечки особенно резонансными.

Что это значит

Данный инцидент демонстрирует хрупкость современных методов защиты ИИ-контента на этапе закрытого бета-тестирования. Пока корпорации фокусируются на сложных алгоритмах маркировки, базовые принципы безопасности облачного хранения остаются без должного внимания. Для OpenAI это сигнал о необходимости пересмотра логики выдачи контента перед полноценным релизом технологии, чтобы исключить несанкционированное использование генераций без обязательной атрибуции.

Источник: Хабр