"У меня нет миллионов в банке, заводов и яхт, политикой я не занимаюсь. Разве я интересен преступникам?" В аналоговом мире скорее всего нет. Но цифровой мир устроен иначе. Здесь можно автоматизировать не только запись ребенка в школу, но и ограбление. Способов обмана и воровства денег довольно много, особенно с учетом активного развития искусственного интеллекта (ИИ). Скромные доходы не спасут от внимания криминала и значит о кибербезопасности стоит позаботиться каждому.
В последние годы растет количество атак с использованием контента, созданного ИИ, в том числе при помощи технологии дипфейков. Известны случаи, когда человек не смог отличить настоящий контент от поддельного. Так, в Китае злоумышленник, изменив голос, выдал себя за друга предпринимателя и убедил его сделать перевод на 600 000 $.
По знаниям системы с ИИ уже давно впереди человека. По языковым и аналитическим способностям с появлением языковых GPT-моделей тоже стали нас обгонять. А недавно под угрозой оказалась и эмоциональная составляющая, после того как в апреле 2024 года была разработана ИИ-модель, которая понимает человеческие эмоции и реагирует на них, создавая ответы, учитывающие чувства пользователя.
В начале 2024 года вымогатели начали использовать ИИ для подделки голосовых сообщений в Telegram. Мошенники генерируют с помощью ИИ голосовые обращения на основе аудиосообщений владельца аккаунта, это позволяет убедительнее просить деньги у его знакомых. Совсем скоро «эмоциональная» ИИ-модель может стать основой для голосовых дипфейков и вывести мошенничество в мессенджерах и соцсетях на новый уровень.
Ожидается, что одной из инноваций 2024 года станут средства защиты, способные выявлять поддельный контент, созданный ИИ. Но и каждому из нас стоит развивать критическое мышление и придерживаться базовых правил цифровой гигиены: использовать сложные пароли и двухфакторную аутентификацию, не публиковать и не передавать через мессенджеры и соцсети чувствительную информацию.