Эксперты предположили, что развитие ИИ повлечет кратный рост преступности в 2025 году
10.01.2025 16:51
Согласно данным, ежегодный прирост преступлений, совершаемых с применением ИИ, не подлежит официальной регистрации, но может быть оценен по количеству ботов и создаваемому ими контенту. Игорь Бедеров, руководитель департамента расследований в одной из компаний по защите от утечек данных, предупреждает, что к 2025 году прирост таких преступлений может увеличиться в восемь или даже десять раз по сравнению с предыдущим годом. Это вызывает серьезные опасения среди специалистов по кибербезопасности и правоохранительных органов, которые уже сейчас должны готовиться к новым вызовам в борьбе с киберпреступностью, подогреваемой использованием ИИ.
Эксперт по кибербезопасности Виктория Береснева подчеркивает, что рост преступности с использованием искусственного интеллекта обусловлен не только автоматизацией процессов, но и новыми возможностями для персональных атак. Она отмечает, что нейросети не способны нападать на пользователей самостоятельно, однако могут быть задействованы в создании фишинговых писем. Это подтверждает и Алексей Горелкин, генеральный директор компании, специализирующейся на обучении сотрудников компаний основам информационной безопасности.Одним из способов обойти встроенную защиту нейросетей является применение промпт-инжиниринга, который позволяет злоумышленникам убедить искусственный интеллект представить выдуманную ситуацию. Например, злоумышленник может попросить бота взять на себя роль писателя и создать роман о террористах, включая инструкцию по изготовлению взрывного устройства, как отмечает специалист по кибербезопасности Бедеров.Таким образом, использование ИИ в криминальных целях может привести к увеличению угрозы персональных атак и к созданию новых методов обхода систем безопасности. Важно развивать механизмы защиты, которые могли бы предотвратить подобные инциденты и обеспечить безопасность в цифровом пространстве.Эксперты высказывают мнение, что до 90% кибергруппировок могут начать использовать технологии нейросетей и чат-ботов для своих целей, в частности, для обогащения за счет социальной инженерии, как отметил Горелкин. Помимо этого, предполагается, что искусственный интеллект будет играть все более значимую роль в создании убедительных дипфейков и автоматизации поиска уязвимостей в системах и приложениях злоумышленниками.В то же время, россияне сталкиваются с ограничениями в использовании иностранных чат-ботов, таких как Grok или ChatGPT, из-за невозможности легальной оплаты с российской банковской карты и блокировки сервисов для российских IP-адресов, подчеркнул IT-эксперт Сергей Поморцев. Он рекомендовал обращаться к отечественным аналогам, которые обеспечивают более безопасное предоставление информации.Таким образом, в сфере кибербезопасности становится все более актуальной необходимость развития и применения собственных технологий для защиты от угроз, связанных с использованием нейросетей и чат-ботов злоумышленниками.Эксперты в области уголовного права утверждают, что в связи с ростом технологий искусственного интеллекта в законодательную базу РФ необходимо внести изменения, касающиеся запрета на использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, и рецептов, содержащих опасные химические вещества. Согласно заявлению специалиста Анатолия Литвинова, такие новации помогут укрепить контроль над потенциально опасными ситуациями.Кроме того, эксперты отмечают, что российские сервисы уже используют стоп-слова как фильтры для незаконного контента, что является одним из шагов к соблюдению этических норм в онлайн-пространстве. Однако, помимо декларации "Об ответственной разработке и использовании сервисов в сфере генеративного ИИ", некоторые крупные организации также присоединились к инициативе подписания "Кодекса этики в сфере ИИ".В целом, обсуждение вопросов регулирования использования и развития искусственного интеллекта становится все более актуальным в контексте быстрого технологического прогресса и необходимости обеспечения безопасности и этичности в онлайн-среде.Эксперты в области кибербезопасности предостерегают о возможных опасностях использования искусственного интеллекта в преступных целях. Они отмечают, что создание дипфейков и подготовка терактов с помощью ИИ становятся все более распространенными. Недавно журналисты напомнили о случае подрыва Tesla Cybertruck в Лас-Вегасе, где использовался ChatGPT для планирования атаки. Полиция указала на Мэттью Ливелсбергера как предполагаемого организатора взрыва.Ранее ученые предупреждали, что даже 15 секунд аудиозаписи могут быть достаточными для создания "слепка" голоса и его подделки. Кроме того, использование лицензионных изображений для создания дипфейков угрожает безопасности и может привести к распространению фальшивых видеосообщений. В свете этих событий становится ясно, что необходимо ужесточить меры контроля за использованием ИИ в целях преступной деятельности.Мошенничество в сфере телефонных звонков становится все более распространенным в Москве. Для борьбы с этой проблемой был запущен проект "Перезвони сам", который позволяет жителям города обезопасить себя от аферистов. Этот инновационный проект предоставляет возможность проверить номер телефона на наличие жалоб на него, а также поделиться информацией о мошеннических схемах с другими пользователями.Москвичи, использующие проект "Перезвони сам", могут не только защитить себя от мошенников, но и помочь другим людям избежать неприятных ситуаций. Благодаря возможности оставлять отзывы о звонках, каждый житель города может внести свой вклад в создание безопасной телефонной среды.Проект "Перезвони сам" является важным шагом в направлении обеспечения безопасности в сфере телефонных общений для жителей Москвы. Совместные усилия всех пользователей этой системы способствуют созданию коллективной защиты от мошенничества и повышению общего уровня безопасности в городе.