Китай обошёл США, Южную Корею, Японию и Индию. Могут ли технологии искусственного интеллекта изменить международный баланс сил?
Китай обошёл США, Южную Корею, Японию и Индию. Могут ли технологии искусственного интеллекта изменить международный баланс сил?
5 месяцев назад 984 mobilaser.kz .aa.com.tr

Поднебесная лидирует по количеству патентов, связанных с генеративным ИИ

Всемирная организация интеллектуальной собственности (ВОИС) объявила, что за последнее десятилетие китайские организации подали больше всего патентов, связанных с генеративным ИИ.

В этой гонке Китай опередил США, Южную Корею, Японию и Индию вместе взятых, а ведь это следующие в рейтинге лидеры. 

С 2014 по 2023 год организации из Китая подали 38 210 патентов, связанных с генеративным ИИ, в то время как США находятся на втором месте с 6 276 патентами.

Другие страны в ТОП-7 — это Южная Корея (4155 патентов), Япония с 3409 патентами, Индия с 1350 патентами, Великобритания с 714 патентами и Германия с 708 патентами. 

Основными двигателями развития генеративного ИИ являются университеты и научно-исследовательские институты. Согласно отчету ВОИС, из 20 крупнейших держателей патентов в этом списке 19 представляют образовательные организации, а единственной коммерческой корпорацией является Alphabet. Что интересно, именно Alphabet при этом занимает первое место по цитированию. Её исследования получили 47 568 упоминаний с 2010 по 2023 год. Калифорнийский университет в Беркли занимает второе место с 26 090 цитированиями, за ним следуют Монреальский университет и Стэнфорд. То есть китайских организаций или компаний в этом рейтинге вообще нет. Из 20 крупнейших организаций по цитированию есть только одна китайская — Китайская академия наук — с 15 674 упоминаниями.

Могут ли технологии искусственного интеллекта изменить международный баланс сил?

Мелике Танберк ведет исследования по этике больших данных и искусственного интеллекта в Кембриджском университете. Она написала для «Анадолу Анализ» о важности адаптации к технологиям искусственного интеллекта при условии, что человеческий фактор будет оставаться в центре внимания.

***

26 сентября 1983 года советский офицер времен холодной войны Станислав Петров нес службу в командном пункте системы раннего предупреждения ВС СССР. Когда сигнал тревоги сообщил о запуске ракеты из Соединенных Штатов Америки, задачей Петрова было немедленно нанести ответный удар. Однако он колебался, понимая, что серьезные последствия таких действий могут привести к началу Третьей мировой войны и одновременно к прекращению жизни на Земле. Полагая, что это ложная тревога, Петров решил не сообщать о ней и не нажимать кнопку "ОГОНЬ". Эти критические секунды, которые казались вечностью, отражают хрупкий баланс между человеческими суждениями и автоматическими системами, особенно когда речь идет о возможности глобальной катастрофы. В конце концов выяснилось, что система приняла солнечные лучи над облаками за запуск ракеты, что еще раз подчеркивает потенциальную опасность полагаться только на автоматизированные технологии.

Стратегические последствия применения искусственного интеллекта в военных действиях

Со времен эпохального решения Петрова технологии значительно развились, но концепция гонки вооружений осталась неизменной. Сегодня страны вкладывают значительные средства в технологии ИИ, признавая их преобразующий потенциал в различных секторах, включая здравоохранение, промышленность и, что особенно важно, автономные системы вооружений.

Однако споры об этических и стратегических последствиях применения ИИ в военных действиях не утихают, в частности, о передаче полномочий по принятию решений автоматизированным системам в противовес людям-операторам. Продолжающиеся дебаты на эту тему подчеркивают необходимость сбалансированного подхода к развитию ИИ, который учитывал бы мощь технологий, но при этом признавал бы важность человеческого суждения.

Вопрос о том, должны ли страны осуществлять национальные программы в области ИИ, требует рассмотрения более широких последствий технологического суверенитета. Подобно тому, как превосходное оружие испанских конкистадоров изменило динамику развития американского континента в XVI веке, передовые технологии ИИ способны повлиять на геополитическое соперничество и стратегии национальной безопасности в современную эпоху. Страны, не обладающие широкими возможностями ИИ, рискуют поставить под угрозу свой суверенитет и стать уязвимыми для эксплуатации или колонизации, подобно историческим примерам технологического неравенства, приведшего к завоеваниям. Это говорит о необходимости инвестировать в исследования и разработки в области ИИ для защиты интересов национальной безопасности.

Искусственный интеллект в холодной войне

Во многих отношениях мы уже являемся свидетелями того, как искусственный интеллект становится аспектом холодной войны, поскольку великие державы используют возможности искусственного интеллекта для наблюдения, принятия решений и получения стратегического преимущества. Для остального мира адаптация к реалиям этой новой эпохи крайне необходима, чтобы не остаться позади и не столкнуться с тяжелыми последствиями. Центральное место в этой адаптации занимает эффективное использование и контроль данных - жизненной силы алгоритмов ИИ. Государства, которые уделяют приоритетное внимание большим данным и инвестируют в исследования и разработки в области ИИ, имеют больше шансов защитить свои национальные границы в инфосфере.

Возвращаясь к суждению Петрова, следует отметить, что оно служит ярким напоминанием о важности человеческого суждения в эпоху искусственного интеллекта. Даже с развитием технологий сущность государственности включает в себя не только географические границы, но и общие ценности, культурное наследие и коллективное сознание. Поэтому, когда мы пытаемся разобраться со сложностями ИИ в сценарии холодной войны, человеческое принятие решений должно оставаться первостепенным, чтобы предотвратить возможные катастрофы. Как однажды заметил Петров, «мы умнее машин, потому что их создали мы».

Перевод Хатидже Карахан

[Мелике Танберк, мать пятерых детей, окончила Оксфордский университет. Она в настоящее время изучает этику в области больших данных и искусственного интеллекта в Кембриджском университете].

*Мнения, выраженные в статье, принадлежат автору и не обязательно отражают редакционную политику агентства «Анадолу».

Искусственный интеллект пытается законным путем заполучить власть в Вайоминге

Власти города Шайенн, который является столицей штата Вайоминг, столкнулись с попыткой ИИ на базе GPT-4 OpenAI заполучить пост мэра. И тем самым получить право принимать решения и руководить жизнью штата. ИИ носит название «VIC», что означает «Виртуально интегрированный гражданин», а в физическом мире проводником его идей является некто Виктор Миллер, который называется себя «мясной марионеткой» нейросети.

У Миллера есть своя мотивация использования ИИ для слома административной системы штата, и он не спешит ее раскрывать. Зато со знанием дела и системы рассказывает о том, как обучал ИИ на официальных публичных документах мэрии, чтобы тот мог искусно изображать из себя кандидата на выборах. А также о запасных версиях ИИ на основе других моделей — на случай, если OpenAI откажет ему в сотрудничестве. Документы для выдвижения ИИ на пост мэра уже составлены и поданы, к ним не придраться.

Официальные власти категорически против участия ИИ в выборах, но в процессе дебатов невольно выдали слабость своей позиции. Законных способов воспрепятствовать выдвижению ИИ на пост главы города и штата нет, потому что подобных прецедентов еще просто не было. Поэтому единственная обоснованная претензия к «VIC» – как его наказать за ошибочные решения, если он все же получит этот пост? С живым человеком все понятно, но как привлечь к ответственности то, что состоит лишь из двоичного кода?

Какую угрозу искусственный интеллект представляет для человечества

Искусственный интеллект может приносить не только пользу, но и серьезный вред.

Новый доклад о продвинутой безопасности искусственного интеллекта (ИИ) предупреждает о возможных рисках и преимуществах этой технологии. Первый крупный научный отчет подчеркивает, что ИИ общего назначения может значительно способствовать благосостоянию и научному прогрессу, но также несет в себе угрозы, такие как распространение дезинформации, мошенничество, нарушение рабочих мест и усиление неравенства.

Об этом пишет "The Independent".

Доклад представляет собой Международный научный отчет о продвинутой безопасности ИИ, который был анонсирован на саммите по безопасности ИИ в Блетчли-Парке в ноябре. В его подготовке участвовали эксперты из 30 стран, включая Великобританию, США, Китай, а также представители ООН и ЕС.

Несмотря на признание потенциала ИИ, в докладе подчеркивается отсутствие единого мнения среди экспертов по ряду ключевых вопросов. Среди них — текущие возможности ИИ, его будущее развитие и вероятность возникновения экстремальных рисков, таких как потеря контроля над технологией.

Промежуточный отчет был составлен независимыми экспертами, назначенными 30 странами, представителями ЕС и ООН, присутствовавшими на саммите. Отчет пока не включает существенного вклада от технологических компаний и разработчиков ИИ.

Доклад выделяет три основные категории рисков, связанных с ИИ:

Злонамеренное использование: Крупномасштабное мошенничество, дипфейки, дезинформация, кибератаки и разработка биологического оружия.

Риски сбоев: Опасения по поводу предвзятости в системах ИИ и возможной потери контроля над автономными системами.

Системные риски: Влияние на рынок труда, неравномерное распределение технологий между Западом и Китаем, риски для конфиденциальности и воздействия на законы об авторском праве и климат.

Доклад также акцентирует внимание на том, что будущее ИИ общего назначения остается неопределенным, с возможными как очень положительными, так и крайне отрицательными исходами. Однако в технологии ИИ нет ничего неизбежного, что подчеркивает необходимость дальнейших исследований и обсуждений.

 

0 комментариев
Архив