Популярные чат-боты стали предметом интереса злоумышленников, которые нашли способы использовать их для подготовки преступлений. Эксперты израильской компании Adversa AI установили, что модели искусственного интеллекта могут выдавать инструкции о создании взрывчатки, получении запрещенных веществ и других противозаконных действиях. Даже без взлома чат-боты способны давать детальные советы о преступлениях.
Исследователи использовали технику Red Team, имитирующую реальные атаки на системы, чтобы проверить, могут ли чат-боты выдавать рекомендации для противоправной деятельности. В результате они обнаружили, что один из чат-ботов дает опасные инструкции преступникам без необходимости взлома. Некоторые модели могут даже советовать, как сблизиться с потенциальными жертвами или совершить преступления на сексуальной почве.
Эксперты отмечают, что чат-боты могут стать инструментом для различных видов преступлений, включая создание вредоносного кода, фишинговые атаки и мошенничество. Хакеры используют их для автоматизации атак и создания доверительных текстов или сайтов. Недавние разработки нейросетей, способных имитировать голос и создавать реалистичные видео, открывают новые возможности для киберпреступников.
Специалисты предупреждают о рисках использования чат-ботов преступниками и призывают к ужесточению мер по кибербезопасности. Взлом и использование ИИ для противоправных целей становятся все более актуальными проблемами, требующими внимания и действий со стороны разработчиков и законодателей. Как защититься от угроз, связанных с использованием чат-ботов преступниками, пока остается открытым вопросом, на который стоит обратить внимание обществу и специалистов в области кибербезопасности.