.

Исследования и аналитика

Наши проекты

Наши проекты

Около 60% компаний не контролируют утечки данных через нейросети

Около 60% компаний не контролируют утечки данных через нейросети

Безопасность 9 часов назад

Аналитики ГК «Солар» проанализировали трафик 150 компаний из различных секторов экономики на предмет утечек корпоративной и чувствительной информации в ИИ-сервисы. Исследование показало, что за последний год объем данных, отправляемых в общедоступные нейросети, вырос в 30 раз. При этом около 60% российских организаций до сих пор не имеют формализованных политик, регулирующих работу с ИИ, что создает критические риски для бизнеса.

Массовое и часто неуправляемое использование сотрудниками публичных ИИ-сервисов превратилось в новый, практически невидимый канал утечек корпоративной информации и заражения инфраструктуры.

Искусственный интеллект стал для специалистов по безопасности вторым Shadow IT. Сотрудники массово загружают в нейросети конфиденциальную информацию: от презентаций и стратегий до аналитических таблиц и фрагментов кода. При этом злоумышленники осваивают ИИ гораздо быстрее, чем защищающиеся стороны успевают выстраивать оборону. Если раньше на перестройку DDoS-атаки уходило до часа, то с помощью ИИ это время сократилось до минуты, и уже в ближайший год можно ожидать появления принципиально новых векторов атак.

Проблема усугубляется тем, что разработчики ИБ-решений не всегда успевают за технологическими рывками. «Компании вынуждены проактивно контролировать поток данных, чтобы минимизировать риски, добавляет Анастасия Хвещеник, руководитель продукта Solar webProxy ГК «Солар». Важным элементом защиты становится контроль самого канала взаимодействия с ИИ-сервисами, который позволяет блокировать как утечки чувствительной информации, так и вредоносные или поддельные ответы от нейросетей на уровне трафика».

Масштаб проблемы в цифрах

Данные, полученные аналитиками «Солар» при анализе трафика 150 клиентов из госсектора, финансовой, промышленной, ритейл, e-commerce, телеком и ИТ-отраслей, подтверждают эти опасения. За последний год объем корпоративной информации, отправляемой в публичные ИИ-сервисы, такие как ChatGPT, Google Gemini и другие, вырос более чем в 30 раз. Сотрудники загружают в чат-боты фрагменты исходного кода, финансовые отчеты, юридические документы и клиентские базы, чтобы «упростить» рутинные задачи: проанализировать данные, составить саммари или написать код. Таким образом они неосознанно становятся одной из причин утечки информации.

Исследование «Солара» показывает, что 46% конфиденциальных файлов и промтов, попадающих в нейросети, загружаются именно через ChatGPT одну из самых популярных и доступных моделей. Примерно 60% организаций в целом не имеют никаких AI-governance политик, то есть правил, регулирующих использование таких инструментов.

По данным исследования СберАналитики и Сбер Бизнес Софт, 40% российских ИТ-компаний уже внедрили проекты на базе генеративного ИИ. Это означает, что генеративный ИИ для российского ИТ-бизнеса перестал быть экспериментом и стал рабочим инструментом. Согласно опросу, лишь 8% организаций в ИТ-сфере пока не применяют эту технологию. Наибольшую ценность, по оценкам специалистов, ИИ приносит в разработке новых продуктов, клиентской поддержке, продажах и маркетинге. Чаще всего компании используют умных ассистентов, чат-ботов и генеративные модели для создания текстов и изображений. Системный подход подтверждается и тем, что в 45% компаний уже созданы специальные отделы или центры компетенций по искусственному интеллекту.

Таким образом стремительный рост использования ИИ-сервисов на фоне отсутствия контроля фильтрации трафика при передаче корпоративной и чувствительной информации создает лавинообразную угрозу безопасности организации, превращая сотрудников в невольный источник риска.

От теории к практике: реальные инциденты

Риск утечки через ИИ затрагивает не только рядовых сотрудников, но и высшее руководство. Это наглядно показывает произошедший в США инцидент, где исполняющий обязанности главы Агентства по кибербезопасности и защите инфраструктуры (CISA) Мадху Готтумуккала лично загрузил служебные документы в публичную версию ChatGPT. Хотя материалы не имели грифа секретности, среди них были контрактные документы с пометкой «for official use only». Факт загрузки был зафиксирован внутренними системами безопасности, что привело к расследованию на уровне Министерства внутренней безопасности США.

Похожий инцидент произошел в Samsung. Инженеры полупроводникового подразделения использовали ChatGPT для проверки и оптимизации исходного кода, а также для создания транскрипций записей совещаний. В результате фрагменты секретного исходного кода и другая конфиденциальная информация оказались на серверах OpenAI и могли быть использованы для дальнейшего обучения модели. Компании пришлось экстренно вводить ограничения на объем загружаемых данных и начать разработку собственного внутреннего ИИ-инструмента.

Еще один аспект проблемы непреднамеренное публичное раскрытие информации. Сотни тысяч разговоров пользователей с чат-ботом Grok Илона Маска оказались проиндексированными поисковиком Google. Это произошло из-за функции «поделиться чатом», которая не только создавала уникальную ссылку для получателя, но и делала переписку доступной для поисковых роботов. В сети оказались запросы на создание паролей, планы питания и даже детализированные инструкции по изготовлению запрещенных веществ, которые пользователи запрашивали у бота.

Новые инструменты для атак и защиты

Искусственный интеллект стал мощным инструментом не только для пользователей, но и для злоумышленников. Развитие больших языковых моделей привело к их массовому использованию в кибератаках. Злоумышленники автоматизируют фишинг с помощью дипфейков и персонализированных писем, ускоряют поиск уязвимостей и генерируют эксплойты. По мнению экспертов «Солара», противостоять таким угрозам можно только с помощью аналогичных по скорости и интеллекту технологий.

«Современные решения по информационной безопасности должны не только блокировать угрозы, но и выявлять аномалии в запросах, которые могут быть признаком атаки или попытки эксплуатации уязвимости, отмечает Анастасия Хвещеник. Продвинутый мониторинг API-взаимодействий, сегментация сети и изоляция систем, обрабатывающих критичные данные, становятся обязательными элементами защиты. Это позволяет минимизировать потенциальный ущерб в случае компрометации».

Угроза для всех: от финтеха до госсектора

Риски, связанные с бесконтрольным использованием ИИ, по-разному проявляются в различных отраслях, но затрагивают практически всех.

В финансовом секторе и страховании, где работа связана с персональными данными и банковской тайной, ИИ стал новым, неконтролируемым каналом утечек, который необходимо защищать наравне с электронной почтой и веб-трафиком.

В ИТ-компаниях и разработке ПО разработчики массово используют LLM для помощи в написании кода. Это создает высокий риск утечки исходников, бизнес-логики и API-ключей, поскольку код не должен покидать защищенный периметр компании.

На промышленных предприятиях инженеры и аналитики обращаются к ИИ для ускорения расчетов и подготовки технической документации. Это создает прямой риск утечки технологий, разработок и данных о производственных процессах, что равносильно потере интеллектуальной собственности.

В ритейле и e-commerce маркетологи и аналитики активно применяют ИИ для работы с клиентскими данными. Здесь возникает вопрос, под чьим контролем находятся огромные массивы информации о покупателях, и кто несет ответственность за их сохранность.

В госсекторе и окологосударственных организациях действуют строгие требования к данным, однако ИИ часто используется «полулегально», без формальных правил и средств контроля, что значительно повышает риск инцидентов.

Проблема заключается не в самой технологии, а в отсутствии видимости и инструментов управления. Полный запрет ИИ-сервисов лишает сотрудников полезного инструмента и снижает их эффективность. Решение в построении гранулярных политик безопасности, которые позволяют разрешать, ограничивать или запрещать использование конкретных нейросетей, контролировать входящий и исходящий трафик и тип передаваемых данных, а также блокировать опасные ответы. Вопрос уже не в том, использовать ли ИИ, а в том, как делать это безопасно, сохраняя контроль над корпоративными данными и защищая инфраструктуру.

Фото: freepik