Доверенный искусственный интеллект станет ключевым IT-направлением в 2025 году
Выступая на открытой конференции ИСП РАН, заместитель министра цифрового развития РФ и президент Академии криптографии Александр Шойтов рассказал, что в течение 2024 года к консорциуму для исследований безопасности технологий искусственного интеллекта присоединилось 9 организаций, а январе 2025-го в него вступят еще 15 компаний, научных и учебных организаций, занимающихся ИИ-разработкой. Сегодня в рамках консорциума сформировано 6 рабочих групп, занимающихся нормативным регулированием в сфере искусственного интеллекта, тестированием ИИ-технологий на предмет атак, доверенными технологиями ИИ, безопасной ИИ-разработкой, обезличиванием больших данных и ИИ в критической информационной инфраструктуре.
Консорциум был создан в мае 2024 года при поддержке Минцифры. В него вошли АНО национальный технологический центр цифровой криптографии» (НТЦ ЦК), Академия криптографии РФ и Институт системного программирования им. В.П. Иванникова Российской академии наук (ИСП РАН).
«Нам надо максимально быстро внедрять перспективные технологии, такие как искусственный интеллект. Выстраивать свою работу, чтобы с одной стороны обеспечить безопасность, с другой не стоять на пути у прогресса. Именно поэтому мы собрали на одной площадке разработчиков ИИ, ведущие компании в сфере информационной безопасности, научное сообщество и федеральные органы исполнительной власти, включая регуляторов», — заявил Шойтов.
Развитие кибербезопасности, внедрение практик разработки безопасной разработки программного обеспечения и вопросы создания доверенных систем искусственного интеллекта стали главными темами открытой конференции ИСП РАН.
В России первый ГОСТ по безопасной разработке ПО был принят в 2016 году, а в 2024 появилась новая редакция, подготовленная при участии «Лаборатории Касперского», Positive Technologies, «ИнфоТеКС» и других компаний. Предполагается, что она вступит в действие с 1 января 2025 года.
«Безопасная разработка подразумевает, что на всех этапах — от дизайна системы, до ее сопровождения — должны использоваться инструменты статического и динамического анализа разного уровня, в зависимости от того, какой уровень доверия и безопасности вы хотите обеспечить. В российской регуляторике есть 6 уровней доверия. «В данном случае слово «доверие» однозначно сопоставляется со словом «безопасность», — говорит директор ИСП РАН Арутюн Аветисян. — Теперь появилось новое технологическое направление — искусственный интеллект. Но если вы посмотрите на стратегию развития искусственного интеллекта, документ подписанный президентом, то вы увидите, что там под словом «доверие» понимается более широкая история. Это безопасность, в ее полном объеме, а также «доверие» в его социогуманитарном аспекте. Потому что мы видим, как ИИ-технологии начинают влиять на людей, на общество, знаем примеры негативного влияния, манипуляций людьми. И эта составляющая тоже очень важна».
При этом, по словам Аветисяна, в РФ пока нет юридического документа, который определяет такое понятие как доверенный искусственный интеллект: «Он только создается. К концу 2024 года ФСТЭК (Федеральная служба по техническому и экспортному контролю — Прим.ред.) выставит первые требования, после чего они начнут попадать в регуляторику. В том, что касается безопасности, это будут требования ФСТЭК, а в том, что касается «доверия», как гуманитарной сферы, тут уже свои требования будет выдвигать Роскомнадзор и другие организации».
Источник: Российская Газета
Комментарии