В ходе сессии «Контроль ИИ. Возможные модели и способы регулирования ИИ», которая состоялась 22 мая в рамках конференции «Цифровая индустрия промышленной России», участники обсудили аспекты регулирования технологий с применением искусственного интеллекта, в том числе на основе международного опыта.
Управляющий директор Центра регулирования ИИ Сбербанка Андрей Незнамов представил анализ законодательных актов 35 стран в области применения ИИ. На его основе он выделил три подхода, которые сегодня практикуются в мире: ограничительный (Евросоюз) — сфокусирован на рисках и ограничениях, гибридный (США, Китай) — комбинирует акты стимулирования с точечными нормативными ограничениями и саморегулированием, и проинновационный (Великобритания, Сингапур, Япония) — сосредоточен на саморегулировании и развитии.
Андрей Незнамов, управляющий директор Центра человекоцентричного ИИ Сбербанка:
«На наш взгляд в России многие мировые практики успешно реализуются. Я часто слышу, что у нас ничего не регулируется — это не так, потому что ИИ — это сквозная технология, которая всегда сопряжена с отраслевым законодательством. Россия одной из первых создала на основе этики развернутую систему управления ИИ, которую можно определить как саморегулирование при активном участии государства. Наше видение в этом вопросе — нужно двигаться по пути снятия отдельных барьеров и не создавать новых.»
Продолжая тему этики, участники обсудили новые решения в области регулирования ИИ на ее основе, такие как Responsible Al Lisence (RAIL). Это тип открытой лицензии для обеспечения ответственного использования технологий ИИ, разработанный на базе open source.
Александр Савельев, доцент факультета права Высшей школы экономики:
«В отличие от классической open source лицензии — RAIL допускает ограничения использования лицензируемых технологий ИИ по определенным способам использования, в том числе связанными с этикой. Например, нельзя нарушать регуляторные требования государств, использовать ИИ для нанесения вреда человеку или принятия решений, затрагивающих его права. Этот подход дает право лицензиару юридически ограничивать возможность использования модели ИИ для данных целей. Кроме того, RAIL допускает техническое ограничение лицензиаром использования модели ИИ в удаленном режиме и обязывает лицензиата устанавливать все обновления от разработчика ИИ, что делает его существенно более зависимым от лицензиара, чем в cлучае с open source лицензиями.»
В фокусе внимания участников сессии также были риски применения ИИ в мошеннических целях. Одной из таких технологий являются дипфейки — правдоподобные поддельные изображения, видео, звук или текст, которые могут использоваться в том числе для прохождения удаленной идентификации в банке или убеждения человека перевести свои денежные средства на чужой счет.
Для СКБ Контур эта тема актуальна в части сервиса ВКС Контур.Толк. По словам Михаила Сродных, для выявления дипфейков компания сегодня видит два пути: разработка собственных решений или внедрение уже имеющихся на рынке сервисов детектирования.
В первом случае требуются значительные ресурсы на постоянное дообучение сервиса распознавания, во втором — юридическая экспертиза, так как для передачи данных третьей стороне нужно согласие пользователей системы, в данном случае пользователей Толка.
Вместе с тем, риск отдельных случаев неправомерного применения технологий не должен приводить к скепсису ее использованию в целом.
Михаил Сродных, генеральный директор СКБ Контур:
«Моя позиция как технооптимиста: очень важно не затормозить развитие технологии. Любой разработчик и любой, кто применяет и развивает продукты с использованием ИИ в каком-то смысле несет за это ответственность и может повлиять на ход событий. Как именно повлиять? — вкладываться в то, чтобы при использовании наших продуктов не реализовывались рисковые сценарии. Потому что как только появляются публичные значимые истории, сразу возникает мотив, желание, потребность добавлять какие-то регулирующие меры. Чем больше регулирующих мер — тем медленнее развитие технологий. Чем больше мы медлим, тем сильнее начинаем отставать от других стран.»
По результатам сессии ее участники сошлись во мнении, что разработка и принятие регулирующих мер в отношении ИИ должны идти при активном привлечении экспертного сообщества и представителей крупных игроков IT-рынка. Для этого они договорились принять резолюцию о выработке отечественной IT-отраслью консолидированной позиции при оценке и управлении возможными рисками применения ИИ.