В японском министерстве намерены попробовать использовать ChatGPT
В японском министерстве намерены попробовать использовать ChatGPT
2 года назад 1169

Министр по административным делам и коммуникациям Японии Такэаки Мацумото заявил в ходе состоявшегося в четверг в Токио заседания, что намерен попробовать использовать чат-бот на базе искусственного интеллекта ChatGPT в рамках своего ведомства, передает Trend со ссылкой на ТАСС.

"Мы осведомлены о возможности неточных ответов и утечки персональных данных при работе ChatGPT, однако подобные обстоятельства не могут быть достаточным основанием для отказа от его использования. В связи с этим мы хотели бы попробовать применить чат-бот в повседневной деятельности министерства", - приводит слова Мацумото телеканал NHK.

Кроме того, по данным агентства Kyodo, использование чат-бота для своей работы в тестовом режиме уже внедрила администрация города Йокосука, расположенного в соседней с Токио префектуре Канагава. В частности, ChatGPT на протяжении месяца будет привлекаться для составления пресс-релизов. В случае успешных результатов городская администрация рассчитывает продолжить его применение, отмечает агентство.

Министр экономической безопасности Японии Санаэ Такаити ранее отметила, что у местных властей нет намерения немедленно запрещать или как-то иначе регулировать использование ChatGPT и других программ на основе искусственного интеллекта.

ChatGPT компании OpenAI был запущен в конце 2022 года. Сервис взаимодействует с пользователем в диалоговом режиме. Чат-бот может отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять неуместные запросы. Возможности сервиса привлекли пристальное общественное внимание. Новинка подверглась критике после того, как ее использовали студенты в разных странах для сдачи экзаменов и подготовки академических работ.

Российская школа внедрила технологию ChatGPT-4 в обучение

Skyeng, онлайн-школа английского языка, готовится запустить виртуального собеседника на базе чат-бота GPТ-4. Об этом «Хайтеку» сообщили в пресс-службе школы.

Онлайн-школа Skyeng, первая из российских Edtech-компаний, готовит к запуску усовершенствованную версию чат-бота «Кеша» на основе GPT-4 для обучения взрослых и детей.

Симулятор ситуаций «Кеша», разработанный на основе технологий компании Skyeng, помогал взрослым студентам и младшим ученикам школы в практике речи, имитируя живой человеческий диалог и помогая ученикам оттачивать навыки общения на иностранном языке в разных диалоговых ситуациях.

Он сам ведет диалог, отвечая за его развитие, объясняет ошибки и анализирует их. Например, с ним можно практиковать покупку авиабилетов и решения возможных сложностей: изменения бронирования, отмены или переноса полета. Общение происходит как в письменном, так и в устном формате.

«Технологии Open AI стимулировали новый виток развития отрасли Edtech», — прокомментировала нововведение руководитель продукта Skyeng Анастасия Шишова. «Кеша» не заменит занятия с преподавателем, подчеркнули в компании. Однако он внесет вклад в персонализацию образовательного процесса.

Европол предупреждает о новых методиках использования ChatGPT мошенниками

Криминалитет с большей скоростью, чем рядовые пользователи, осваивает новые прорывные технологии. Это видно по уликам на ноутбуках преступников, изъятых недавно в ходе следствия Европолом. Они указывают, что европейские мошенники стали применять ChatGPT в своем ремесле уже через считанные недели после появления доступа к нему.

Преступники хитры и без труда обходят встроенную защиту ChatGPT — например, запрет на создание вредоносного кода. Для этого они просто разбивают задачу на несколько частей, чтобы запросы выглядели нейтральными. А потом по инструкциям от самого же ИИ собирают их в одну программу. Даже те, кто ничего не смыслят в программировании, создают утилиты под свои нужды, используя ChatGPT как инструктора.

Вторая популярная ниша незаконного использования нейросети – социальная инженерия. ChatGPT способен без труда написать убедительный текст для фишингового сайта или переписки, без ошибок и с такими деталями, которые введут в заблуждение пользователя. Он может вести диалоги и убеждать людей в своей правоте, создавать заманчивые предложения для рассылок и подражать конкретной манере общения, чтобы выдать себя за реально существующего человека.

Третий мошеннический способ применения ChatGPT – возможность напрямую спросить его, как совершить преступление с наибольшей выгодой. Узнать о новых аферах, схемах обмана, получить статистику по совершаемым преступлениям, чтобы не конкурировать с другими преступниками. А также получить понимание, какие ошибки совершают другие мошенники, на чем их ловит полиция и как этого избежать. Нейросеть закономерно и неизбежно превратилась в обоюдоострый инструмент, который приносит как пользу, так и вред.

Одна европейская страна ограничила использование ChatGPT

Итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT. Об этом в пятницу, 31 марта, сообщило WIRED.

Причиной того, что в Италии решили ограничить работу чат-бота, стало нарушение законодательства о персональных данных. В управлении обратили внимание на отсутствие правовой основы, оправдывающей массовый сбор и хранение личной информации пользователей для обучения алгоритмов, которые лежат в основе работы платформы. Помимо того, отмечается, что хотя чат-бот предназначен для лиц старше 13 лет, в нем нет фильтра для проверки возраста пользователя.

Пока ограничение действует только в одной европейской стране. Его ввели до тех пор, пока ChatGPT «не будет соответствовать правилам конфиденциальности». У компании OpenAI, разработавшей ChatGPT, есть 20 дней, чтобы ответить управлению и сообщить о мерах, принятых для устранения этой проблемы. В противном случае компании грозит штраф в размере до 20 миллионов евро, или до 4 процентов годового мирового оборота.

В Испании начали расследование в отношении разработчика ChatGPT

Испанское агентство по защите данных (AEPD) начало предварительное расследование против американской компании OpenAI, которая является разработчиком популярного чат-бота ChatGPT. Об этом сообщается на сайте регулятора.

Как следует из сообщения, расследование начато в связи с возможным нарушением правил. AEPD уточнило, что на прошлой неделе агентство обратилось в Европейский комитет по защите данных с просьбой включить ChatGPT «в качестве темы для рассмотрения на своем пленарном заседании». В результате комитет принял решение создать целевую группу «для развития сотрудничества и обмена информацией о действиях, предпринимаемых органами по защите данных».

Ранее OpenAI выпустила отчет, в котором разработчики чат-ботов предупреждают, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации. Также компания продемонстрировала способность чат-бота запустить фишинговую атаку и скрыть все доказательства мошеннического поведения.

0 комментариев
Архив