Станислав Ежов, «Группа Астра»: «Доверенный ИИ начинается не с выбора модели, а с проектирования контура»
Разработка системы технической целостности оборудования для нефтегазовой компании
Система защиты конечных устройств для международной промышленной компании
Эксперт компании «Газинформсервис» предложила инструмент, оценивающий безопасность ИИ
Обзор обновленной версии платформы автоматизации ИТ-операций Astra Automation 2.0
ЦБ
°
воскресенье, 3 мая 2026

ИИ взял – ИИ дал: нейросети не только «отнимают» у людей работу, но и дают ее

Распространение искусственного интеллекта в корпоративных системах может привести к появлению новых управленческих ролей в структурах компаний. Эксперты прогнозируют, что в ближайшие годы в организациях появятся руководители, отвечающие за риски использования ИИ и экономику кибербезопасности.

Одной из таких позиций может стать Chief AI Risk Officer (CAIRO) — руководитель, контролирующий безопасность и надежность систем искусственного интеллекта, сообщает пресс-служба компании Softline. 

В задачи нового руководителя может входить аудит моделей машинного обучения, контроль качества данных, мониторинг поведения алгоритмов и управление инфраструктурой так называемых AI control rooms — центров наблюдения за работой интеллектуальных систем.

«По мере того как искусственный интеллект становится частью корпоративной инфраструктуры, возникает необходимость управлять его рисками так же системно, как финансовыми или операционными. Поэтому к 2030 году в крупных компаниях может появиться новая роль — Chief AI Risk Officer. Такой специалист будет отвечать за валидацию моделей, контроль „галлюцинаций“, атаки на модели и работу так называемых AI control rooms», — отмечает Алексей Пилипчук, технический директор «Софтлайн Решения».

В «Группе Астра», крупнейшем разработчике ИИ-решений и вендоре B2B-решений, считают, что новая должность — логичный ответ на современные ИИ-реалии».

«ИИ уже принимает решения, которые стоят денег и репутации. По нашему опыту в «Группе Астра», компании, которые выстроили доверенный ИИ-контур с аудитом моделей и контролем рисков, экономят на инцидентах от 20–30% ИБ-бюджета. Поэтому руководитель, контролирующий безопасность и надежность систем искусственного интеллекта — это не мода, это следующий логичный шаг для любого, кто хочет масштабировать ИИ без катастроф», — говорить Станислав Ежов, директор по развитию ИИ «Группы Астра».

Свежее по теме