Искусственный интеллект: за или против кибермошенников

58
Изображение: от DC Studio на Freepik
Изображение: от DC Studio на Freepik

В 2023 году Россия оказалась среди самых атакуемых хакерами стран. Злоумышленники активно используют искусственный интеллект, нейросети, социальную инженерию и технологии машинного обучения. Нападения с использованием человеческого фактора становятся быстрее, эффективнее и дешевле при поддержке ИИ-помощников. Растет количество DDoS-атак, атак с использованием вирусов-шифровальщиков, атак нулевого дня. Какие типы кибератак сегодня существуют и как с ними можно бороться, обсудили участники конференции «Цифровая индустрия промышленной России».

 

Владимир Дрюков, директор Центра мониторинга и реагирования на кибератаки компании Solar JSOC:

 

Владимир Дрюков, директор Центра мониторинга и реагирования на кибератаки компании Solar JSOC
Владимир Дрюков, директор Центра мониторинга и реагирования на кибератаки компании Solar JSOC

– Помните рассказ о том, как в будущем человек пытается через Google заказать пиццу, но система ему не дает этого сделать, потому что у него высокий холестерин? Как только мы начали использовать социальные сети, сведения, которые публиковались в них, – фотографии из отпуска или из магазина, – уже давали возможность атаковать нас. А сейчас, когда происходят утечки информации о том, где зарегистрирована ваша машина, каковы результаты ваших медицинских анализов и тому подобного, эти сведения тем более дают злоумышленникам огромное поле для различных манипуляций.

Не говоря о том, что такие алгоритмы хорошо даются искусственному интеллекту. И «запудрить голову», используя данные, которые уже сейчас есть практически в открытом доступе, для каждого из нас – реальная угроза.

Здесь два важных аспекта.

Первый касается стоимости атаки. Классический cyber-crime (киберпреступник), который работал за свои деньги, по нашим наблюдениям, уже ушел с рынка. Остались отголоски вирусов-шифровальщиков. Например, попытки взломать автоматизированную банковскую систему, попытки атаки на SWIFT (система, которую используют банки для обмена платежами между странами) – это уже осталось в прошлом.

Сейчас мы работаем с политически мотивированными хакерами, у которых нет проблем с финансированием. Они получают деньги, инструменты, ресурсы, которые позволяют им работать.

Но у автоматизации есть и вторая сторона. Любая автоматизация легче детектируется, чем человеческая деятельность. Так, мы, как в одной среднеазиатской стране, автоматизировали атаки на бензоколонки. Шифровальщик проходил полный цикл взлома за три минуты. И в этом процессе человек практически не принимал участия. Запускались скрипты, шифровальщик, приходило письмо по почте – все было полностью автоматизировано. И проблема в том, что если скорость атак будет высокой, то мы с большой долей вероятности скоро столкнемся с ними на большой инфраструктуре.

Но APT (Advanced Persistent Threat – целевая кибер-атака) развиваются сейчас медленно, потому что они скрываются от наших потенциальных защитных редутов.

Поэтому автоматизация на первом этапе, надеюсь, больше даст нам возможность видеть хакеров, чем им – возможность нас атаковать.

Уверен, что кибермошенник завтрашнего дня – очень ленивый, за него все делают роботы, а он только иногда запускает утилиты, которые за него работают.

 

Именно в кибербезопасности искусственный интеллект активен на стороне злоумышленников. В области атак или мошеннических действий даже сейчас инструментарий разнообразнее, чем в области защиты.

 

Вспомните классическую пирамиду хакерской группировки: люди, которые пишут вирусы, которые занимаются рассылкой спама, и те, кто занимается координацией работ. Так вот, всех, кроме людей, которые планируют операцию, потенциально заменит робот.

Когда в 1990‑е годы создавались первые в стране сайты, их разработка была сложным процессом: нужно было разбираться в HTML, в кодах. Веб-дизайнер практически занимался программированием. Сейчас же для создания сайта можно взять готовый редактор, выбрать правильные картинки, нарисовать кнопки, и все, сайт готов. То есть порог входа заметно снизился, и это изменило саму индустрию. Поэтому нельзя исключать, что как пропали специалисты, которые занимались HTML-кодом, так могут исчезнуть и те, кто занимается сейчас разработкой вирусного кода, – все будет полностью автоматизировано.

Мафия бессмертна, и этому есть много подтверждений. Вот недавно ФБР в пятый раз окончательно победоносно закрыл BreachForums (англоязычный криминальный форум по черному хакерству). Через пять дней форум снова материализовался, с другой этикеткой, но с той же самой базой и участниками.

То есть нельзя найти и прихлопнуть паука без того, чтобы на его месте не появился новый.

 

Георгий Старостин, директор Дирекции информационной безопасности компании «СОГАЗ»:

 

Георгий Старостин, директор Дирекции информационной безопасности компании «СОГАЗ»
Георгий Старостин, директор Дирекции информационной безопасности компании «СОГАЗ»

– Сейчас, с учетом социальных сетей и утечек, будут развиваться возможности применения искусственного интеллекта для определения целей – групп людей, которые в наибольшей степени подходят под определенную атаку. Например, условных пенсионеров или офис-менеджеров. То есть людей с определенными характеристиками. И если для того, чтобы вручную перелопатить данные 10–20 тысяч человек, чтобы определить нужную группу, человеку нужны недели и месяцы, то ИИ сможет это сделать за часы или даже минуты.

Это значит, что удары по самым слабым звеньям станут происходить чаще за счет создания более точных и быстрых выборок.

Надо отметить, что киберзлоумышленников будущего можно разделить на две группы: те, кто будет создавать такой сервис, и те, кто будет его использовать, чтобы извлекать выгоду. Первая – это хорошие художники в плохом смысле этого слова. Вторая – это уже массовый потребитель. То есть люди, которые будут заказывать доставку свежего списка жертв, как раньше заказывали утром свежий батон на Озоне. И, конечно, таких покупателей будет больше. Потому что цель создателей продукта – чтобы их продукт купили. Значит, первые будут зарабатывать на покупателях своего продукта, а вторые – на жертвах. Конечно, вторых будет больше, ведь их деятельность проще, а порог входа ниже.

При этом поскольку порог входа будет ниже, то среди киберпреступников будет больше непрофессиональных людей, которые станут чаще попадаться. Так что показатели наших правоохранительных органов возрастут.

 

Сергей Гордейчик, CEO компании CyberOK:

 

Сергей Гордейчик, CEO компании CyberOK
Сергей Гордейчик, CEO компании CyberOK

– Сегодня, к сожалению, именно в кибербезопасности искусственный интеллект активен на стороне злоумышленников. В области атак или мошеннических действий даже сейчас инструментарий разнообразнее, чем в области защиты. В своей повседневной практике мы занимаемся поверхностью атак, то есть сканируем рунет и пытаемся найти уязвимые узлы и угрожающие организации. И мы видим, что в данном направлении ИИ хорошо работает. Облегчает работу и в части подготовки экспертных знаний, и обработки данных. Но мы пока не видим взрывного роста, как в некоторых областях легальной деятельности, потому что пока сети не дают такого сквозного эффекта.

Например, stable diffusion (модель глубокого обучения, создающая изображения по текстовым описаниям, с открытым исходным кодом. – Прим. ред.) свершила переворот. Пользователю стало не обязательно разбираться в картинках, чтобы получить картинку.

Атакующих программ такого уровня сейчас нет. Но зато уже есть модели, связанные с технологиями Text to speech (TTS, преобразует текст в разговорный звук. – Прим. ред.) и генерацией видеоизображений. И их развитие пугает. Чтобы создать вполне достоверную копию, им нужно всего 10 секунд записи голоса. То есть малой части моего выступления хватит для создания цифрового образа, имеющего мои голос, изображение, манеру речи. Так что большинство моих не слишком близких знакомых легко можно обмануть. Вопрос в том, когда этот набор превратится в «большую красную кнопку»?

 

В дальнейшем мы придем к противостоянию ИИ атакующих и защищающих, причем это будет уже битва машин.

 

Кроме того, у gpt-моделей есть большая проблема: их устойчивость к деструктиву сейчас довольно низкая. Внутри нее не «зашиты» ограничения того, что нельзя делать. А то, что «зашито», легко обходится. Думаю, что в дальнейшем развитии чем лучше будет модель, тем в ней больше будет механизмов безопасности.

С телефонными мошенниками боролись разными способами. Против них внедряли тот же искусственный интеллект, умных голосовых помощников. Но это не слишком помогало. А потом посадили несколько группировок. И наступила пауза.

То есть пока лучшее средство борьбы с кибермошенниками, с киберпреступностью – это неотвратимость наказания. И искусственный интеллект как раз и может дать дополнительную степень анонимизации за счет того, что активные действия заканчиваются монетизацией.

Именно на выводе денег, полученных преступным путем, и ловят мошенников и нарушителей. Доказать вывод средств гораздо проще, чем запуск программы.

Думаю, в дальнейшем мы придем к противостоянию ИИ атакующих и защищающих, причем это будет уже битва машин.

 

Подготовила Славяна РУМЯНЦЕВА