|
Google раскрыла тайный альянс государств и хакеров
|
Как киберпреступники стали частью дипломатии.
В своем новом отчете Google утверждает, что киберпреступность все чаще становится инструментом в руках государств. Компания призывает власти всего мира признать кибератаки угрозой национальной безопасности и усилить меры по противодействию. В докладе указываются ключевые рекомендации, направленные на борьбу с объединенными усилиями преступников и спонсируемых государством хакеров .
Особое внимание уделяется нескольким странам, среди которых Китай, Иран и Северная Корея. Эти страны, по мнению Google, используют криминальные группировки для выполнения своих задач. Такой подход позволяет скрывать свою причастность, сокращать расходы и получать доступ к вредоносным инструментам без необходимости их разработки.
Например, иранские хакеры применяют шифровальщики для финансирования разведывательной деятельности, а китайские группировки используют киберпреступность для дополнительного дохода. Наиболее показателен пример Северной Кореи, где кибератаки на криптобиржи стали основным источником финансирования страны.
Google подчеркивает, что без активного вмешательства со стороны правительств и международного сотрудничества проблема будет только усугубляться. В числе предложенных мер — признание кибербезопасности приоритетной задачей, создание стимулов для внедрения лучших практик защиты, а также активное разрушение экосистемы киберпреступности. В частности, предлагается бороться не только с отдельными группировками, но и с инфраструктурой, поддерживающей их деятельность — пуленепробиваемыми хостингами (Bulletproof Hosting) и криптовалютными платформами, через которые отмываются деньги.
Несмотря на усилия правоохранительных органов, проблема остается масштабной. В отчете отмечается, что даже после громких ликвидаций группировок LockBit и ALPHV , рынок мгновенно заполняется новыми игроками. Платформы для утечек данных почти удвоили свою активность за последние 2 года, а число атак на критически важную инфраструктуру продолжает расти.
Одной из наиболее уязвимых сфер остается здравоохранение. По данным Google, атаки на медицинские учреждения в 2023 году привели к остановке работы сотен объектов, задержке тысяч операций и утечке персональных данных пациентов. Среди наиболее пострадавших — Change Healthcare , больницы Румынии , сеть Ascension и британский провайдер Synnovis. Врачи не могут позволить себе длительные простои, чем активно пользуются преступники. Группировка Qilin прямо заявила, что будет атаковать медицинский сектор, поскольку отрасль приносит наибольшую прибыль.
Google призывает мировых законодателей признать реальность: киберпреступность стала столь же серьезной угрозой, как и атаки со стороны национальных разведок. В качестве примера приводятся данные ФБР: только на BEC-мошенничестве за 10 лет было потеряно около $55 миллиардов. При этом финансовая мотивация остается ключевым драйвером киберугроз, а рост преступных экосистем делает борьбу с хакерами сложнее.
Китайские хакеры обходят антивирусы через легитимные утилиты Windows
Хакеры маскируют TONESHELL под компоненты Electronic Arts.
Китайская кибергруппировка Mustang Panda применяет новую технику обхода антивирусной защиты и сохранения контроля над заражёнными системами. Специалисты Trend Micro обнаружили, что хакеры используют легитимный инструмент Windows под названием Microsoft Application Virtualization Injector («MAVInject.exe») для внедрения вредоносного кода в процесс «waitfor.exe», если на устройстве обнаружена работа антивируса ESET.
Атака начинается с загрузки нескольких файлов, включая легитимные исполняемые файлы, вредоносные компоненты и подставной PDF-документ, предназначенный для отвлечения внимания жертвы. В ходе атаки используется Setup Factory — инструмент для создания установщиков Windows, что помогает скрыть вредоносный код и обеспечить его незаметное выполнение.
Первоначальный вредоносный файл («IRSetup.exe») действует как загрузчик, доставляя на устройство несколько компонентов, в том числе документ-приманку, ориентированный на пользователей из Таиланда. Это указывает на возможное использование фишинговых писем для распространения вредоноса.
Далее исполняемый файл запускает легитимное приложение Electronic Arts («OriginLegacyCLI.exe») для подгрузки поддельной библиотеки «EACore.dll». Этот файл представляет собой модифицированную версию бэкдора TONESHELL, связанного с Mustang Panda. Основной задачей вредоноса является проверка наличия процессов антивируса ESET («ekrn.exe» или «egui.exe»). Если антивирус активен, вредонос выполняет «waitfor.exe» и использует «MAVInject.exe» для запуска кода без обнаружения.
По словам специалистов, «MAVInject.exe» позволяет внедрять вредоносный код в запущенный процесс, обходя антивирусное обнаружение. Хакеры, вероятно, предварительно протестировали атаку на машинах с ESET, чтобы убедиться в её эффективности.
Завершающий этап атаки включает расшифровку встроенного шелл-кода, который устанавливает связь с удалённым сервером. После этого атакующие могут загружать и выгружать файлы, а также инициировать удалённое управление заражённым устройством.
Таким образом, китайские хакеры адаптируют методы атаки, используя легитимные инструменты Windows для скрытого выполнения вредоносного кода. Это позволяет им эффективно обходить антивирусную защиту и долго сохранять доступ к скомпрометированным системам.
OpenAI обнаружила, что Северная Корея использует ChatGPT для кибермошенничества, а Китай — для цензуры
OpenAI заявила 21 февраля, что выявила и удалила несколько связанных с Северной Кореей аккаунтов, которые злоупотребляли ChatGPT для создания поддельных резюме и онлайн-профилей.
По словам компании, аккаунты использовали материалы, сгенерированные ChatGPT, для подачи заявок на работу в западных компаниях. OpenAI не раскрывает количество удаленных учетных записей или когда произошло удаление.
Северная Корея все чаще обращается к генеративному искусственному интеллекту, чтобы украсть передовые западные технологии и финансировать свою незаконную программу создания ядерного оружия. Северокорейские хакеры уже давно нацелены на сотрудников компаний, занимающихся кибербезопасностью и криптовалютой, через такие платформы, как LinkedIn, стремясь получить доступ к конфиденциальной информации и активам.
Совсем недавно они усовершенствовали свою тактику с помощью генеративного ИИ. Сообщается, что хакеры использовали ChatGPT для создания поддельных профилей рекрутеров, укрепления доверия с целями с течением времени и, в конечном итоге, установки шпионского ПО для вывода средств.
OpenAI также заявила, что удалила аккаунты, связанные с Китаем. Некоторые из этих аккаунтов якобы использовали ChatGPT для создания новостных статей на испанском языке с критикой Соединенных Штатов. Статьи публиковались под названиями китайских компаний на крупных латиноамериканских новостных платформах.
Кроме того, китайская организация безопасности разработала инструмент на основе искусственного интеллекта для мониторинга антикитайского контента в социальных сетях, говорится в сообщении OpenAI. Компания, назвавшая инструмент «Peer Review», подтвердила, что ChatGPT использовался в процессе отладки.
В OpenAI отметили, что это стало первым известным открытием инструмента слежки на основе искусственного интеллекта.
OpenAI удалила пользователей из Китая и Северной Кореи
Представьте себе мир, где искусственный интеллект становится оружием в руках тех, кто хочет сеять хаос. Компания OpenAI, которая создала популярный чат-бот ChatGPT, недавно объявила, что удалила аккаунты пользователей из Китая и Северной Кореи. Их подозревают в использовании технологий для темных дел. Что именно они задумали и почему это беспокоит даже правительство США? Давайте разбираться вместе.
Хитрости с новостями и фальшивыми профилями
OpenAI обнаружила, что некоторые пользователи из Китая применяли ChatGPT для создания статей на испанском языке. Эти тексты позорили США и появлялись в серьезных изданиях Латинской Америки под вымышленными китайскими названиями. Тем временем в Северной Корее кто-то мастерил резюме и онлайн-профили для несуществующих людей. Цель? Обмануть западные компании и устроить "фантомов" на работу.
Мошенничество через соцсети
Еще одна интересная находка – аккаунты, связанные с финансовой аферой в Камбодже. Тамошние мошенники использовали технологию OpenAI, чтобы переводить тексты и генерировать комментарии. Их активность разворачивалась в соцсетях, таких как X и Facebook. Компания не уточнила, скольких именно заблокировали, но ясно одно: масштабы могли быть впечатляющими.
Почему это важно
Правительство США давно бьет тревогу из-за того, как Китай может применять искусственный интеллект. Говорят, это и контроль над населением, и распространение лжи, и даже угроза безопасности союзников. OpenAI, со своим ChatGPT, который уже имеет более 400 миллионов пользователей еженедельно, оказалась в центре этой игры. Сейчас фирма ведет переговоры о привлечении 40 миллиардов долларов, что может стать рекордным для частных компаний.
Итак, искусственный интеллект – это не только помощник, но и инструмент, который может обернуться против нас. События в Китае и Северной Корее показывают: технологии развиваются, а вместе с ними – и новые способы обмана. Сможем ли мы удержать контроль? Время покажет.
Источник: Reuters
ChatGPT замечен в исследованиях искусственного интеллекта в университетах Северной Кореи
Северная Корея, по-видимому, использует ChatGPT, сервис разговорного искусственного интеллекта, разработанный американской компанией OpenAI, в исследованиях искусственного интеллекта на университетском уровне, сообщают государственные СМИ.
Северокорейское внешнее пропагандистское СМИ «Голос Кореи» (VOK) 21 февраля представил Научно-исследовательский институт технологий искусственного интеллекта при Университете имени Ким Ир Сена, назвав его «элитной группой в области искусственного интеллекта». Материалы исследования института включали документ под названием «GPT-4 Example: Writing», объясняющий, как пользователи могут предложить ChatGPT сгенерировать текст на английском языке.
Хан Чхоль Чжин, научный сотрудник университета, рассказал VOK, что сервис искусственного интеллекта «помогает нам глубоко понять передовые технологии и найти способы принять их как свои собственные».
В последнее время Северная Корея проявляет повышенный интерес к внедрению технологий искусственного интеллекта. Ранее в этом месяце пропхеньянская газета Choson Sinbo сообщила, что несколько стран заблокировали доступ к китайской модели искусственного интеллекта DeepSeek, сославшись на опасения по поводу утечек данных. Газета заявила, что западные СМИ «навешивают на китайский ИИ ярлык угрозы безопасности» и что правительства и компании формируют «международную блокаду» против DeepSeek.
Чосон Синбо описал DeepSeek как искусственный интеллект, «сравнимый с ChatGPT», но разработанный без передовых полупроводников. В нем утверждается, что, в отличие от «закрытой системы» ChatGPT, DeepSeek работает на платформе с «открытым исходным кодом», что позволяет снизить затраты на разработку и ускорить инновации за счет глобального сотрудничества.
«Успех DeepSeek означает не победу Китая, а поражение Соединенных Штатов», — писала газета, добавляя: «Санкции и блокады не могут поддерживать технологическое превосходство».
Пример использования ChatGPT упоминается в исследовательских материалах Университета имени Ким Ир Сена./Голос Кореи (VOK)
OpenAI блокирует китайские аккаунты, использовавшие ChatGPT для разработки инструментов слежки в соцсетях
OpenAI заблокировала группу китайских аккаунтов, владельцы которых пытались с помощью ChatGPT отлаживать и редактировать код для системы наблюдения в социальных сетях. Об этом представители компании сообщили в пятницу. Кампанию, получившую название Peer Review, проводили пользователи, запрашивавшие у ChatGPT помощь в создании рекламных текстов для программы, предназначенной для мониторинга антикитайских настроений на платформах X, Facebook, YouTube, Instagram и других площадках.
По информации OpenAI, эта группа проявляла особый интерес к выявлению призывов к протестам против нарушений прав человека в Китае с целью передачи этих данных властям страны.
Эта сеть состояла из аккаунтов ChatGPT, работавших по графику, соответствующему рабочему времени материкового Китая. Пользователи делали запросы на китайском языке, а характер использования наших инструментов указывал на ручной ввод запросов, а не на автоматизацию.
Согласно данным компании, операторы использовали нейросети для проверки утверждений о том, что собранная информация была отправлена в китайские посольства за рубежом и агентам разведки, наблюдающим за протестами в США, Германии и Великобритании. По словам Бена Ниммо, главного исследователя OpenAI, это первый обнаруженный компанией случай создания подобного ИИ-инструмента.
Злоумышленники иногда невольно раскрывают свою деятельность на других интернет-ресурсах из-за способа использования наших ИИ-моделей.
— Ниммо в интервью The New York Times
Большая часть кода для инструмента слежки, судя по всему, была основана на открытой версии одной из моделей Llama от Meta. Группа также использовала ChatGPT для создания годового отчета о производительности, где утверждалось, что они писали фишинговые письма по заказу клиентов из Китая.
Для оценки влияния этой деятельности потребуется информация от нескольких заинтересованных сторон, включая операторов любых моделей с открытым исходным кодом, которые могут пролить свет на эту активность.
В отдельном заявлении компания сообщила, что недавно заблокировала аккаунт, использовавший ChatGPT для генерации постов в соцсетях с критикой Цай Ся, китайского политолога и диссидента, живущего в США. Та же группа применяла чат-бот для создания статей на испанском языке с критикой США, которые публиковались в "мейнстримных" новостных организациях Латинской Америки и часто приписывались отдельным лицам или китайским компаниям.
OpenAI заблокировала иранскую операцию по влиянию, использовавшую ChatGPT для создания фейковых новостей
В пятницу OpenAI сообщила, что пресекла иранскую кампанию по влиянию, которая использовала ChatGPT для создания фальшивых новостных статей и постов в социальных сетях, нацеленных на американцев. Компания заявила, что идентифицировала и заблокировала аккаунты, которые генерировали контент для пяти сайтов (на английском и испанском языках), выдававших себя за новостные издания и распространявших "поляризующие сообщения" по таким вопросам, как президентская кампания в США, права ЛГБТК+ и война в Газе.
Операция была идентифицирована как Storm-2035, часть серии кампаний по влиянию, которые Microsoft на прошлой неделе связала с иранским правительством. Помимо новостных постов, кампания включала "десяток аккаунтов в X и один в Instagram", связанных с этой операцией. OpenAI отметила, что операция не получила значительного отклика.
Большинство постов в социальных сетях, которые мы идентифицировали, получили мало или вовсе не получили лайков, репостов или комментариев.
Кроме того, OpenAI сообщила, что по шкале угроз, операция получила лишь второй уровень (по шкале от одного до шести), что означает "активность на нескольких платформах, но без доказательств того, что реальные люди заметили или широко распространили их контент".
Операция создавала контент для фальшивых консервативных и прогрессивных новостных изданий, нацеленных на противоположные точки зрения. По данным Bloomberg, контент предполагал, что Дональда Трампа "цензурируют в социальных сетях, и он готовится провозгласить себя королем США". Другой пример касался выбора Камалы Харрис Тима Уолза в качестве напарника.
Кроме того, операция создавала контент о присутствии Израиля на Олимпийских играх и (в меньшей степени) о венесуэльской политике, правах латиноамериканских сообществ и независимости Шотландии. Кампания также разбавляла серьезные темы комментариями о моде и красоте, "возможно, чтобы выглядеть более аутентично или попытаться набрать подписчиков".
Операция пыталась сыграть на обе стороны, но не получила отклика ни от одной из них.
— следователь из отдела разведки и расследований OpenAI Бен Ниммо
Неудавшаяся операция по влиянию последовала за раскрытием информации о том, что иранские хакеры пытались атаковать кампании как Харрис, так и Трампа. ФБР сообщило, что неформальный советник Трампа Роджер Стоун стал жертвой фишинговых писем. Иранские хакеры затем получили доступ к его аккаунту и отправили сообщения с фишинговыми ссылками другим людям. ФБР не нашло доказательств того, что кто-либо из кампании Харрис поддался на этот обман.