Эксперт по кибербезопасности озвучил ключевую проблему рынка искусственного интеллекта
В последнее время все чаще ведутся разговоры о том, что инвесторы охладели к рынку искусственного интеллекта. В частности, на это указывает падение стоимости акций крупнейших игроков - Nvidia и Microsoft, которые развернули масштабную деятельность в сфере разработок генеративных нейросетей.
Известный американский эксперт в области кибертехнологий Гэри Маркус назвал текущий август месяцем, "когда лопнет пузырь искусственного интеллекта". Маркус, отметим, изначально был ярым скептиком в отношении нейросетей и критиковал идею о создании AGI - искусственного интеллекта, который сможет принимать решения, сопоставимые с человеческим разумом.
Одна из ключевых компаний в области ИИ - OpenAI, оказалась в сложном положении. Из нее уходили и уходят топ-менеджеры. На прошлой неделе объявил об увольнении Джон Шульман - соучредитель компании. По мнению Гэри Маркуса, это указывает на то, что в OpenAI кризис с созданием обещанного AGI. Инвесторы отвернутся от рынка ИИ, не дождавшись прогресса.
Ситуацию вокруг ИИ для нас прокомментировал российский эксперт в области кибербезопасности, основатель компании GDA Group Ярослав Богданов.
.
С его точки зрения, речи об угасании отрасли не идет. Проблема заключается не в отсутствии инвестиций или прогресса, а в отсутствии безопасности данных.
-Кадровые изменения в OpenAI начали происходить не сегодня. Ранее компанию покинули Илья Суцкевер и Уильям Сондерс. Оба занимали ключевые позиции в сфере безопасности разработок. Сондерс откровенно заявлял, что стремление к прибыли при игнорировании вопросов безопасности грозит превратить компанию в “Титаник искусственного интеллекта”. По моему мнению, это наиболее точное определение текущего состояния отрасли генеративных нейросетей. Проблема одна - нет правил работы в этой сфере. Ни юридических, ни научных, никаких, – отметил Ярослав Богданов.
Касательно появления AGI, эксперт полагает, что сверхразум, способный ставить собственные цели и реализовывать задачи по их достижению, в настоящий момент является угрозой для человечества.
-Представьте себе, что AGI поставит перед собой задачи, исполнению которых будет мешать человек. Он просто устранит его, как вид, как цивилизацию, чтобы все цели были достигнуты. Как этого избежать? Создать свод правил, которые будут обязательны к исполнению всеми разработчиками ИИ. Вне географических, политических и национальных рамок. Тогда можно будет говорить о том, что рынок генеративных нейросетей готов перейти на следующий уровень и гарантирует безопасность как отдельному пользователю, так и планете в целом, - сказал Ярослав Богданов.
Вопросами безопасности отрасль озадачена уже давно. Прогресса нет именно в этом направлении. Когда будут достигнуты глобальные соглашения, тогда и инвесторы вновь повернутся лицом к рынку искусственного интеллекта, уверен Ярослав Богданов.