ИИ может применяться для создания вредоносных программ
Злоумышленники пробуют применить возможности искусственного интеллекта для разработки фишинговых сайтов. Обнадеживающий факт — данных об эффективности внедрения пока нет.
Security Intelligence в ответ на данные, говорящие о росте заинтересованности в технологиях искусственного интеллекта со стороны злоумышленников, провели эксперимент, нацеленный на сравнение эффективности человека и ИИ-технологий в части осуществления мошеннической деятельности.
Так, исследователи сравнили эффективность фишинговых писем, созданных нейросетью ChatGPT и человеком. В результате эксперимента было определенно, что эффективность вирусных писем, созданных человеком гораздо выше, чем ИИ — чаще всего участники эксперимента считали сгенерированный фишинг ИИ подозрительным. Так, частота кликабельности на 14% выше у вируса, разработанного человеком, у ChatGPT показатель составил только 3%.
Интеграция ИИ-технологий в деятельность злоумышленников — вопрос времени, считает член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. «Как в России, так и на мировом рынке уже виднеются подобные тенденции. Напомню, что в этом году ChatGPT уже оказался под угрозой: злоумышленники взломали сервис и изменили код так, чтобы он смог генерировать вредоносный контент — те же фишинговые письма. Активизация киберпреступников связана с возможностями, которые предоставляет искусственный интеллект — прежде всего, скорость обработки данных. Представьте, если раньше злоумышленнику требовалось несколько часов, чтобы создать фишинговую страницу, а потом время на то, чтобы осуществить рассылку, то с помощью ИИ это можно сделать за считанные секунды», — пояснил Антон Немкин.
В настоящий момент и в России, и в мире технологии искусственного интеллекта только формируются, в том числе с точки зрения правового регулирования, напомнил депутат. «Поэтому уже на начальном этапе следует уделить особое внимание информационной безопасности ИИ-технологий. Отмечу, что такие разработки требуют значительного инвестирования и времени на создание качественных моделей. Поэтому злоумышленники скорее будут ориентироваться не на создание собственных решений, а на атаку существующих. Россия активно внедряет ИИ, как в государственном, так и в частном секторах, в том числе на основе технологии GPT, поэтому данный вопрос должен стоить в повестке», — заключил Антон Немкин.
Источник: https://www.novostiitkanala.ru