
Отчет экспертов по искусственному интеллекту (ИИ) западной компании Future of Life Institute (FLI) показывает, что меры обеспечения безопасности ведущих отраслевых компаний, таких как OpenAI, Anthropic, xAI и Meta*, «далеки от новых мировых стандартов». ИИ-эксперт Станислав Ежов рассказал о рисках и их минимизации при внедрении ИИ в бизнес-процессы.
Независимые эксперты пришли к выводу, что хотя IT-гиганты и соревнуются в разработке «суперинтеллекта», ни один из них не имеет продуманной стратегии контроля таких передовых систем.
В докладе говорится, что именно экзистенциальная безопасность — готовность компаний к экстремальным рискам в будущем, связанным с ИИ-системами, по своим возможностям равными человеку или превосходящими его, в частности к риску потери контроля над такими системами,— является главной структурной слабостью отрасли.
«Отчет FLI подтверждает то, что происходит в реальности — крупные ИИ-компании гонятся за производительностью, забыв про управление рисками. Важно понимать, что для бизнеса такой подход несет проблемы безопасности, так как уязвимости чужих моделей приобретаются вместе с самими моделями. Внедрение ИИ в бизнес-процессы сегодня актуальная повестка. Бизнес начинает трепетнее относиться к киберрискам, что позволяет бизнесу значительно минимизировать, если не исключить вовсе проблему безопасности», — говорит директор по ИИ «Группы Астра» Станислав Ежов.
* Компания Meta и ее продукты признаны экстремистскими, их деятельность запрещена на территории РФ.




























