
Российское законодательство должно соответствовать динамике цифровой экономики и не подавлять творческий потенциал. В этой связи, требуется его глубокая модернизация, отметили участники сессии «Цифровой бизнес и право» на Петербургском международном юридическом форуме – 2025, сообщает пресс-служба форума.
Ключевым аспектом становится регулирование рисков, связанных с искусственными интеллектом и обработкой данных, включая введение маркировки ИИ-продукции и повышение цифровых компетенций юристов. Функциональная безопасность ИИ и принцип минимизации данных станут основополагающими элементами защиты в цифровой среде.
По мнению исполнительного директора НОЦ «Информационное и цифровое право» Московского государственного университета имени М.В. Ломоносова Игоря Терещенко, предупредить риски в цифровой экономике можно через функциональную безопасность ИИ.
«Функциональная безопасность искусственного интеллекта может являться основой и вектором, который мы можем взять, в том числе в научном русле, в ближайшее время. То есть именно функциональная безопасность, это грамотность сотрудников, это внутренние действия компании, могут помочь стать той самой превентивной терапевтической медициной, а не дорогой хирургией», — сказал эксперт.
При этом одной из проблем является неясность рисков технологических инноваций, что затрудняет юридическую ответственность.
«Мы, в принципе, пока не представляем всех рисков, которые эта технология несет. Не представляем мы их. В этом самая главная проблема, с которой сталкивается как бизнес, так и государство при регулировании. Бизнес не может рассчитать всех рисков, потому что эти риски и для себя, и для других, и непонятно где они больше», — подчеркнул член-корреспондент Российской академии наук; главный научный сотрудник Института государства и права Российской академии наук Андрей Габов.