Безопасность разработок и внедрения искусственного интеллекта обсудили на ПМЭФ
Накануне завершился трехдневный Петербургский международный экономический форум [ПМЭФ-2024], на котором в том числе прошла панельная дискуссия «Международный и национальный опыт регулирования сферы искусственного интеллекта». Организатором сессии стало Министерство иностранных дел Российской Федерации, а темой для обсуждения - подходы к регулированию искусственного интеллекта [ИИ] как на национальном, так и на международном уровне.
В дискуссии приняли участие политики, общественники и представители бизнес-сообщества. Все они сошлись во одном мнении - совсем скоро ИИ придет во все сферы жизни общества: от медицины до военно-промышленного комплекса. Однако, отсутствие должного регулирования в этой передовой области может привести к серьезным последствиям и угрозам для общества.
Участниками сессии было обращено внимание на попытки отдельных государств установить и распространить свою монополию на технологический процесс, связанный с разработками в области генеративных нейросетей. Активность ряда стран в этом вопросе в разы увеличивает угрозы, имеющие отношение к бесконтрольным и закрытым процессам обучения ИИ. На этом заострил внимание принявший участие в работе ПМЭФ-2024 основатель GDA Group Ярослав Богданов.
- Действия отдельных участников IT-отрасли, которые приводят к ограничению доступа к информации, манипуляциям и стремлению доминировать в инновационной кибер-сфере увеличивают риски. Нам необходимо начать дискуссию о правах и обязанностях искусственного интеллекта на международном уровне, потому что отсутствие международного сотрудничества может привести к тому, что западные страны будут стремиться к накоплению материальных и политических ресурсов в одних руках, игнорируя интересы всего мирового сообщества.
Злоумышленники уже сделали ИИ инструментом для атак на цифровую инфраструктуру и кражи персональных данных, отметил Ярослав Богданов. Он высказал мнение, что без соответствующих законов и механизмов контроля масштаб кибератак и утечек информации непросто продолжит расширяться, а угрожает перекинуться на государственный сектор. И в разных уголках планеты инциденты такого рода уже фиксируются.
- В основе обеспечения глобальной безопасности в том числе должен быть поднят вопрос регулирования разработок искусственного интеллекта. В применении и эксплуатации технологий такого масштаба недопустимы политизация, нарушение этики и юридических норм. Государства и международные институты и организации должны активно работать и взаимодействовать между собой с целью разработки стандартов и норм, которые обеспечат устойчивое и справедливое для всех развитие искусственного интеллекта. В этой отрасли должно выстраиваться открытое и прозрачное сотрудничество, - сказал Ярослав Богданов, отметив, что предвзятость и дискриминация в этом вопросе неприемлемы.
По его убеждению, решение по регулированию ИИ и обеспечению международной информационной безопасности должны стать итогом совокупных усилий государства, бизнеса и экспертного сообщества на мировом уровне. Ранее основанная Ярославом Богдановым GDA Group выразила готовность выступить в качестве площадки для координации этих усилий.