Искусственный интеллект сейчас «на хайпе», и будет оставаться в центре внимания еще долгие годы, все глубже проникая в нашу жизнь. Ты, наверное, уже знаешь, что отличает ИИ от обычной компьютерной программы, и делает его столь уникальным?
Хоть ИИ – понятие широкое, мы можем уверенно назвать несколько его главных особенностей:
Не осталась в стороне от ИИ-революции и тема цифрового мошенничества.
С одной стороны, для тех, кто борется с цифровыми преступлениями, открылась масса возможностей.
Возьмем, к примеру, системы распознавания и блокировки «фишинговых» рассылок (то есть писем, цель которых – заставить пользователя совершить необходимое мошеннику действие). Во времена до ИИ, программистам приходилось описывать сложные «деревья решений» для автоматического выявления таких электронных писем. К примеру, детально прописывать все характерные словесные конструкции («Вы получили наследство от бабушки из Парижа…», «Поздравляем! Вы выиграли 200 000 рублей…» и так далее), характерные для мошеннических схем. При этом, стоило злоумышленникам заменить слова в тексте письма на синонимы, система прекращала распознавать мошенничество.
ИИ всё изменил. За счет навыка работы с естественным письменным языком, искусственный интеллект считывает суть, а не простую комбинацию букв и слов. А способность к обучению и автономным действия позволяет современным ИИ-системам проактивно обнаруживать новые мошеннические «легенды», и в сотни раз быстрее блокировать злоумышленников.
Еще более ценным ИИ оказался для борьбы с телефонными мошенниками. Для «машинного анализа» живая речь – объект, кратно более сложный, чем текст. Буквы и слова на письме унифицированы, а устная речь разнообразна по акцентам, тембру, скорости произношения. Однако именно ИИ позволит современным системам не просто распознавать речь, но и делать это в режиме реального времени, что позволяет выявить мошенника время во время телефонного разговора и блокировать его (причем делать это полностью автоматизировано, не нарушая тайну связи). Таким системы уже доступны у ряда мобильных операторов в России и в нескольких странах за рубежом.
Иными словами, за последние годы внедрение ИИ позволило предотвращать мошенничество гораздо быстрее и эффективнее. С помощью ИИ российские телеком-операторы сегодня блокируют десятки миллионов попыток телефонного мошенничества в месяц, а банки – распознают злоумышленников за несколько секунд и ограничивают их активность.
Значит ли это, что ИИ сегодня позволил кратно снизить угрозу цифрового мошенничества и сделать наш мир безопаснее?
Увы, это не совсем так. Большинство ИИ моделей сегодня доступны для использования всем желающим, и мошенники сумели адаптировать их под свои задачи.
Вот лишь несколько примеров.
Уверен, ты уже пробовал переписываться с Алисой, ChatGPT и другими текстовыми ботами – порой, их не отличишь от человека, верно? Тот же ChatGPT способен вести одновременно несколько десятков миллионов активных переписок. На его основе злоумышленники создают собственных ботов, которые способны инициировать и вести диалог в мессенджерах с тысячами потенциальных жертв в минуту (представляясь, например, сотрудниками МВД). И в случае «успешного» диалога, на определенном этапе к разговору подключается уже настоящий человек, сам мошенник, подводя жертву к целевому действию. Такой подход позволяет злоумышленникам масштабировать своим атаки и делает их кратно эффективнее, если это слово здесь применимо.
Технологии синтеза речи и изображений открыли мошенникам возможность действовать с использованием так называемого deep fake – имитации голоса и лица. Первое в мире уголовное дело за deep fakeмошенничество было заведено в Китае еще в 2020 году, однако с тех пор технологии шагнули далеко вперед, и позволяют за несколько минут создать имитацию голоса и лица практически любого человека. Не далее чем несколько дней назад мне и нескольким моим коллегам по видеосвязи звонил «генеральный директор» МегаФон, с просьбой помочь с крупным денежным переводом – разумеется, это был мошенник, однако отличить его от настоящего человека было весьма непросто.
Таким образом, ИИ как и любая революционная технология на ранней стадии развития создала как возможности, так и множество угроз. И порой единственным способом надежной защиты от мошенника остается здравый смысл и осведомленность о возможностях, которые (пока еще) доступны злоумышленникам.
Впрочем, люди всегда находили способ договориться о «правилах игры», когда речь заходит о новых технологиях. В первые десятилетия существования автомобилей, приобрести их мог любой желающий, который мог перемещаться на машине где угодно и какой угодно скоростью. Но экспоненциально растущее число жертв ДТП привело к необходимости создания регламентов и правил эксплуатации автомобиля. Конечно, в стремлении обезопасить граждан, принимались не только разумные, но и откровенно нелепые правила: например, «Закон о красных флагах» Великобритании, требовавший, чтобы перед каждым автомобилем, перемещающимся в черте города, шел человек с поднятым на голосом предупреждающим флагом. Впрочем, вскоре от него отказались, а новые правила позволили автомобилям развиваться и делать жизнь людей не только проще, но и безопаснее. Такая судьба ждет и искусственный интеллект.
Краткое наименование: АНО «Центр глобальной ИТ-кооперации».
ИНН: 714467033. КПП: 770301001.ОГРН: 1207700468139.
Юридический адрес: 125009, г. Москва, Тверской бульвар, д.14, стр.1, этаж 6, помещ. I, офис 6.
Эл.почта: info@cgitc.ru. Телефон/Факс: + 7 (495) 221 56 06.