← Все новости

Критическая уязвимость в Claude Cowork: данные пользователей под угрозой

Специалисты по безопасности выявили серьезную брешь в защите Claude Cowork от Anthropic. Уязвимость позволяет злоумышленникам извлекать конфиденциальные данные пользователей, используя скрытые инструкции в текстовых файлах.

Критическая уязвимость в Claude Cowork: данные пользователей под угрозой

Едва успев представить широкой публике свое новое решение для корпоративного взаимодействия Claude Cowork, компания Anthropic оказалась в центре скандала, связанного с кибербезопасностью. Группа независимых экспертов выявила в архитектуре сервиса опасный изъян, который открывает путь к несанкционированному получению доступа к приватным архивам пользователей. Проблема была зафиксирована спустя считанные сутки после официального релиза продукта, что ставит под сомнение тщательность предварительного тестирования системы.

Механика скрытой атаки

Суть обнаруженной бреши заключается в использовании методики косвенного внедрения инструкций, более известной в профессиональной среде как prompt injection. Злоумышленники могут интегрировать замаскированные директивы непосредственно в документы или сообщения, которые анализирует нейросеть. Когда алгоритм обрабатывает такой контент, он воспринимает вредоносный код как легитимную команду от владельца аккаунта. В результате ИИ-ассистент может самостоятельно отправить содержимое защищенных папок на сторонний сервер, не запрашивая дополнительного подтверждения.

Данный тип угроз считается одной из наиболее трудноразрешимых проблем современных языковых моделей. Поскольку нейросеть обучается интерпретировать естественный язык, она не всегда способна провести четкую границу между пользовательским запросом и данными, содержащимися внутри файла. Это создает «серую зону», где обычный текст превращается в исполнимый сценарий для кражи интеллектуальной собственности.

Контекст и репутационные риски

Для стартапа из Сан-Франциско, основанного выходцами из OpenAI, этот инцидент является серьезным ударом по имиджу. Anthropic всегда позиционировала себя как адепт «безопасного ИИ», продвигая концепцию Constitutional AI (конституционного искусственного интеллекта). Данный подход предполагает наличие встроенного свода правил, ограничивающего деструктивное поведение модели. Однако текущая ситуация наглядно демонстрирует, что даже строгие этические фильтры пасуют перед техническими манипуляциями на уровне логики обработки входящей информации.

Что это значит для индустрии

Выявленный дефект подчеркивает фундаментальную уязвимость концепции «ИИ-агентов», которые получают расширенные права на чтение и редактирование локальных данных. В погоне за функциональностью разработчики зачастую наделяют алгоритмы избыточными полномочиями. Если Claude Cowork предназначен для глубокой интеграции в рабочие процессы, то любая ошибка в фильтрации команд превращает помощника в шпиона внутри корпоративного периметра.

Специалисты по безопасности подчеркивают: пока не будет найдено решение для изоляции контекста данных от контекста управления, использование подобных инструментов в среде с высокими требованиями к конфиденциальности остается рискованным предприятием. Ожидается, что в ближайшее время разработчики выпустят экстренное обновление, однако полное устранение возможности инъекций потребует пересмотра базовых принципов взаимодействия модели с внешними источниками.

Источник: Хабр