Станислав Ежов, «Группа Астра»: «Доверенный ИИ начинается не с выбора модели, а с проектирования контура»
Разработка системы технической целостности оборудования для нефтегазовой компании
Система защиты конечных устройств для международной промышленной компании
Эксперт компании «Газинформсервис» предложила инструмент, оценивающий безопасность ИИ
Обзор обновленной версии платформы автоматизации ИТ-операций Astra Automation 2.0
ЦБ
°
среда, 6 мая 2026

Корпоративный ИИ-сервис может снизить риски утечек данных через нейросети

Согласно исследованию ГК «Солар», за 2025 год объем утечек чувствительной информации через публичные нейросети вырос в 30 раз. По оценке оператора ИТ-решений «ОБИТ», ответом на риск может стать внедрение корпоративного ИИ-сервиса, работающего в безопасном контуре компании.

Стремительный рост использования общедоступных ИИ-сервисов в бизнесе превратился в один из самых быстрорастущих и наименее контролируемых каналов утечек корпоративных данных. По итогам 2025 года объем информации, передаваемой сотрудниками российских компаний в публичные нейросети (ChatGPT, Google, Gemini) вырос в 30 раз. К таким выводам пришли аналитики ГК «Солар» на основе анализа сетевого трафика 150 организаций из ИТ, финансового сектора, промышленности, госсектора, телекоммуникаций, ритейла и e-commerce.

Информация, которая обрабатывается через нейросети, включает в себя фрагменты исходного кода, бухгалтерские отчеты, юридические документы, базы клиентов и другие инсайдерские материалы. При этом сервисы используются сотрудниками для оптимизации задач —аналитики и суммаризации данных, генерации текста и программного кода.

Важно отметить, что службы информационной безопасности часто не видят и не контролируют этот канал передачи данных. По мнению специалистов оператора ИТ-решений «ОБИТ», снизить уровень этих рисков можно за счет комплексного подхода, который включает как организационные, так и технические меры. Обязательным шагом становится разработка и внедрение политик безопасного использования ИИ для разных категорий сотрудников — юристов, бухгалтерии, разработчиков, аналитиков, отдела продаж и других подразделений. В рамках таких политик важно четко определить, какие данные допустимо передавать во внешние сервисы, а какие — запрещено. Не менее значимую роль играет обучение сотрудников не только преимуществам ИИ-инструментов, но и потенциальным рискам их использования.

Не менее важной мерой может стать внедрение корпоративных ИИ-помощников. Такие решения разрабатываются под конкретные бизнес-задачи и роли сотрудников и контролируют передачу чувствительных данных во внешние сервисы. В рамках одного из проектов «ОБИТ» был разработан корпоративный ИИ-помощник для менеджеров по продажам. Решение позволяет автоматизировать сбор и анализ актуальных данных о контрагентах из внутренних и внешних источников (CRM, корпоративные базы знаний, справочники), а также генерирует оптимальные предложения по услугам и сервисам для конкретного клиента.

Сервис реализован в формате мультиагентной системы: каждая из LLM-моделей выполняет свою роль (например, аналитик), а центральный агент распределяет задачи между агентами. Решение функционирует в защищенном контуре с применением необходимых мер безопасности: сегментация сети, мониторинг трафика, контроль доступа и логирование действий.

«Если компания не предоставляет своим сотрудникам ИИ-инструмент, они так или иначе найдут альтернативу на рынке и будут передавать данные внешним сервисам. Поэтому в развертывание корпоративного ИИ-сервиса в защищенном контуре становится первоочередным решением для предотвращения утечек. «ОБИТ» регулярно реализует подобные проекты для клиентов, и для многих организаций полноценный ролевой ИИ-агент зачастую является первым опытом работы с искусственным интеллектом, важным шагом к цифровой зрелости бизнеса», — отмечает Михаил Телегин, заместитель генерального директора по стратегическим проектам «ОБИТ».

Свежее по теме