Названа исходящая от ChatGPT опасность
Названа исходящая от ChatGPT опасность
2 года назад 1398

Расширение возможностей киберпреступников назвали одой из основных опасностей, которая исходит от интеллектуальных чат-ботов, в частности ChatGPT. Такое мнение в беседе с «Лентой.ру» высказал заместитель генерального директора «Группы Т1» по технологическому развитию Антон Якимов.

«Массовое использование ChatGPT не прошло мимо киберпреступников: с его помощью они могут извлекать полезную информацию из любых данных, уточнять вопросы и запросы пользователей, анализировать их данные и прогнозировать дальнейшее поведение. Проблема и опасность ChatGPT заключается в том, что чат-бот может без труда предоставить информацию о том, как создать вредоносный код, вирус или программу», — отметил замглавы «Группы Т1».

Якимов добавил, что именно развитие нейросетей вывело на новый уровень процессы идентификации жертв и кражи их данных киберпреступниками. Для простых граждан это обернется тем, что они будут сталкиваться как с очевидными угрозами, так и с теми, которые почти невозможно распознать. При этом используемые злоумышленниками методики и схемы постоянно модифицируются.

«Мошенники активно внедряют искусственный интеллект в привычные атаки, усложняя борьбу с ними. Например, с помощью дипфейков — реалистичных изображений, видео или аудио, созданных с помощью искусственного интеллекта и машинного обучения, — хакеры проходят биометрическую защиту, крадут личные данные или шантажируют их владельцев», — привел пример Якимов, который к другим способам атак с использованием искусственного интеллекта отнес фишинг и заражение автономными вредоносными программами.

Опасность ChatGPT сравнили с ядерным оружием

Модель искусственного интеллекта (ИИ) ChatGPT и другие подобные модели могут быть опаснее ядерного оружия. Если человек не сможет их контролировать, то сами нейросети могут стать автором более умного искусственного интеллекта. Так писатель, историк и автор известной книги «Sapiens: Краткая история человечества» Юваль Ной Харари сравнил нейросети с оружием массового поражения в статье для The Economist.

Ученый напомнил, что ИИ может саморазвиться вне контроля человека. «В то время как ядерные бомбы не могут сами изобрести более мощное ядерное оружие, искусственный интеллект может создать экспоненциально более мощный искусственный интеллект», — предупредил Харари, отметив, что ИИ может и даже должен использоваться для благих целей вроде поиска лекарства от онкологических заболеваний или разрешения проблем экологии.

По его мнению, в будущем нейросети могут использоваться и для создания полноценного «политического контента и фейковых ироничных новостей», что влечет дополнительные риски для стабильного существования человеческого общества.

Названа главная опасность нейросети ChatGPT

Опасность ставшего популярным ChatGPT в безальтернативном ответе, убежден генеральный директор АНО «Цифровые платформы», специалист в области кибербезопасности Арсений Щельцин. Об этом он заявил в разговоре с «Лентой.ру».

Ранее стало известно, что чат-бот ChatGPT установил мировой рекорд как самое быстрорастущее приложение по числу скачиваний. Об этом сообщило агентство Reuters со ссылкой на исследование финансового холдинга UBS Group. За два месяца число пользователей приложения достигло отметки в 100 миллионов, а 13 миллионов ежедневно пользуются приложением.

С точки зрения безопасности, сам продукт выглядит безобидным: не требует никаких особых данных от пользователя и особых подключений. Это абсолютно то же самое, что и сервисы с простой регистрацией

Арсений Щельцинспециалист в области кибербезопасности

«Самое опасное кроется в возможностях этого продукта. Используя искусственный интеллект, чат комбинирует информацию по заданному запросу. По сути, это замена поискового запроса и, так скажем, безальтернативный вариант ответа», — отметил Щельцин.

Эксперт добавил, что у чата есть возможность генерировать на один и тот же запрос разные ответы, но они будут очень похожи.

«Вполне возможно, что пользователи, полагаясь на эти ответы в своих материалах и программах, будут вкладывать не до конца проверенную информацию. Это главная опасность», — подытожил собеседник «Ленты.ру».

Ранее стало известно, что выпускник РГГУ защитил написанный нейросетью ChatGPT диплом. Об этом он сообщил в своем аккаунте в Twitter. Согласно рассказу москвича, представившегося Александром, он решил воспользоваться нейросетью, чтобы совместить приятное с полезным — избавиться от научной работы и протестировать возможности новой нейросети.

ChatGPT — бот с искусственным интеллектом, разработанный компанией OpenAI. Он умеет вести беседу, давать ответы на заданные вопросы, а также править и создавать компьютерный код и даже стихи и песни.

0 комментариев
Архив