Аналитики ГК «Солар» проанализировали трафик 150 компаний из различных секторов экономики на предмет утечек корпоративной и чувствительной информации в ИИ-сервисы. Исследование показало, что за последний год объем данных, отправляемых в общедоступные нейросети, вырос в 30 раз. При этом около 60% российских организаций до сих пор не имеют формализованных политик, регулирующих работу с ИИ, что создает критические риски для бизнеса.
Массовое и часто неуправляемое использование сотрудниками публичных ИИ-сервисов превратилось в новый, практически невидимый канал утечек корпоративной информации и заражения инфраструктуры.
Искусственный интеллект стал для специалистов по безопасности вторым Shadow IT. Сотрудники массово загружают в нейросети конфиденциальную информацию: от презентаций и стратегий до аналитических таблиц и фрагментов кода. При этом злоумышленники осваивают ИИ гораздо быстрее, чем защищающиеся стороны успевают выстраивать оборону. Если раньше на перестройку DDoS-атаки уходило до часа, то с помощью ИИ это время сократилось до минуты, и уже в ближайший год можно ожидать появления принципиально новых векторов атак.
Проблема усугубляется тем, что разработчики ИБ-решений не всегда успевают за технологическими рывками. «Компании вынуждены проактивно контролировать поток данных, чтобы минимизировать риски, — добавляет Анастасия Хвещеник, руководитель продукта Solar webProxy ГК «Солар». — Важным элементом защиты становится контроль самого канала взаимодействия с ИИ-сервисами, который позволяет блокировать как утечки чувствительной информации, так и вредоносные или поддельные ответы от нейросетей на уровне трафика».
Масштаб проблемы в цифрах
Данные, полученные аналитиками «Солар» при анализе трафика 150 клиентов из госсектора, финансовой, промышленной, ритейл, e-commerce, телеком и ИТ-отраслей, подтверждают эти опасения. За последний год объем корпоративной информации, отправляемой в публичные ИИ-сервисы, такие как ChatGPT, Google Gemini и другие, вырос более чем в 30 раз. Сотрудники загружают в чат-боты фрагменты исходного кода, финансовые отчеты, юридические документы и клиентские базы, чтобы «упростить» рутинные задачи: проанализировать данные, составить саммари или написать код. Таким образом они неосознанно становятся одной из причин утечки информации.
Исследование «Солара» показывает, что 46% конфиденциальных файлов и промтов, попадающих в нейросети, загружаются именно через ChatGPT — одну из самых популярных и доступных моделей. Примерно 60% организаций в целом не имеют никаких AI-governance политик, то есть правил, регулирующих использование таких инструментов.
По данным исследования СберАналитики и Сбер Бизнес Софт, 40% российских ИТ-компаний уже внедрили проекты на базе генеративного ИИ. Это означает, что генеративный ИИ для российского ИТ-бизнеса перестал быть экспериментом и стал рабочим инструментом. Согласно опросу, лишь 8% организаций в ИТ-сфере пока не применяют эту технологию. Наибольшую ценность, по оценкам специалистов, ИИ приносит в разработке новых продуктов, клиентской поддержке, продажах и маркетинге. Чаще всего компании используют умных ассистентов, чат-ботов и генеративные модели для создания текстов и изображений. Системный подход подтверждается и тем, что в 45% компаний уже созданы специальные отделы или центры компетенций по искусственному интеллекту.
Таким образом стремительный рост использования ИИ-сервисов на фоне отсутствия контроля фильтрации трафика при передаче корпоративной и чувствительной информации создает лавинообразную угрозу безопасности организации, превращая сотрудников в невольный источник риска.
От теории к практике: реальные инциденты
Риск утечки через ИИ затрагивает не только рядовых сотрудников, но и высшее руководство. Это наглядно показывает произошедший в США инцидент, где исполняющий обязанности главы Агентства по кибербезопасности и защите инфраструктуры (CISA) Мадху Готтумуккала лично загрузил служебные документы в публичную версию ChatGPT. Хотя материалы не имели грифа секретности, среди них были контрактные документы с пометкой «for official use only». Факт загрузки был зафиксирован внутренними системами безопасности, что привело к расследованию на уровне Министерства внутренней безопасности США.
Похожий инцидент произошел в Samsung. Инженеры полупроводникового подразделения использовали ChatGPT для проверки и оптимизации исходного кода, а также для создания транскрипций записей совещаний. В результате фрагменты секретного исходного кода и другая конфиденциальная информация оказались на серверах OpenAI и могли быть использованы для дальнейшего обучения модели. Компании пришлось экстренно вводить ограничения на объем загружаемых данных и начать разработку собственного внутреннего ИИ-инструмента.
Еще один аспект проблемы — непреднамеренное публичное раскрытие информации. Сотни тысяч разговоров пользователей с чат-ботом Grok Илона Маска оказались проиндексированными поисковиком Google. Это произошло из-за функции «поделиться чатом», которая не только создавала уникальную ссылку для получателя, но и делала переписку доступной для поисковых роботов. В сети оказались запросы на создание паролей, планы питания и даже детализированные инструкции по изготовлению запрещенных веществ, которые пользователи запрашивали у бота.
Новые инструменты для атак и защиты
Искусственный интеллект стал мощным инструментом не только для пользователей, но и для злоумышленников. Развитие больших языковых моделей привело к их массовому использованию в кибератаках. Злоумышленники автоматизируют фишинг с помощью дипфейков и персонализированных писем, ускоряют поиск уязвимостей и генерируют эксплойты. По мнению экспертов «Солара», противостоять таким угрозам можно только с помощью аналогичных по скорости и интеллекту технологий.
«Современные решения по информационной безопасности должны не только блокировать угрозы, но и выявлять аномалии в запросах, которые могут быть признаком атаки или попытки эксплуатации уязвимости, — отмечает Анастасия Хвещеник. — Продвинутый мониторинг API-взаимодействий, сегментация сети и изоляция систем, обрабатывающих критичные данные, становятся обязательными элементами защиты. Это позволяет минимизировать потенциальный ущерб в случае компрометации».
Угроза для всех: от финтеха до госсектора
Риски, связанные с бесконтрольным использованием ИИ, по-разному проявляются в различных отраслях, но затрагивают практически всех.
В финансовом секторе и страховании, где работа связана с персональными данными и банковской тайной, ИИ стал новым, неконтролируемым каналом утечек, который необходимо защищать наравне с электронной почтой и веб-трафиком.
В ИТ-компаниях и разработке ПО разработчики массово используют LLM для помощи в написании кода. Это создает высокий риск утечки исходников, бизнес-логики и API-ключей, поскольку код не должен покидать защищенный периметр компании.
На промышленных предприятиях инженеры и аналитики обращаются к ИИ для ускорения расчетов и подготовки технической документации. Это создает прямой риск утечки технологий, разработок и данных о производственных процессах, что равносильно потере интеллектуальной собственности.
В ритейле и e-commerce маркетологи и аналитики активно применяют ИИ для работы с клиентскими данными. Здесь возникает вопрос, под чьим контролем находятся огромные массивы информации о покупателях, и кто несет ответственность за их сохранность.
В госсекторе и окологосударственных организациях действуют строгие требования к данным, однако ИИ часто используется «полулегально», без формальных правил и средств контроля, что значительно повышает риск инцидентов.
Проблема заключается не в самой технологии, а в отсутствии видимости и инструментов управления. Полный запрет ИИ-сервисов лишает сотрудников полезного инструмента и снижает их эффективность. Решение — в построении гранулярных политик безопасности, которые позволяют разрешать, ограничивать или запрещать использование конкретных нейросетей, контролировать входящий и исходящий трафик и тип передаваемых данных, а также блокировать опасные ответы. Вопрос уже не в том, использовать ли ИИ, а в том, как делать это безопасно, сохраняя контроль над корпоративными данными и защищая инфраструктуру.
Фото: freepik











