В интервью MIT Technology Review Альтман предположил, что ИИ должен работать на своих пользователей усерднее, чем самый трудолюбивый исполнительный помощник руководителя, и должен знать абсолютно все о том, кто его использует.
Соучредитель OpenAI подчеркнул, что ИИ станет «сверхкомпетентным коллегой, который знает абсолютно все обо всей моей жизни, [прочтет] каждое электронное письмо, будет знать каждый разговор, который я когда-либо вел». Очевидно, такого ИИ еще не существует, но OpenAI стремится его создать.
В том же интервью Альтман назвал ChatGPT «невероятно тупым», а также сообщил, что скоро появится новая версия чат-бота GPT-5, которая по сравнению с GPT-4 будет намного умнее.
Ученые назвали искусственный интеллект (ИИ) возможной угрозой для разумной жизни во Вселенной, что потенциально способно объяснить парадокс Ферми. Об этом сообщается в статье, опубликованной в журнале Acta Astronautica.
Сверхразумная форма ИИ (ASI), которая превосходит человеческий интеллект и способная обучаться самостоятельно, может играть роль «великого фильтра», то есть быть непреодолимым препятствием, мешающим появлению развитых цивилизаций, наделенных возможностью осваивать большие космические пространства. По мнению специалистов, быстрое развитие технологий искусственного интеллекта может совпасть со временем перехода цивилизации от однопланетного существования к многопланетному.
Согласно одному из катастрофических сценариев, если страны все больше будут полагаться на автономные системы искусственного интеллекта, которые конкурируют друг с другом, то может возникнуть ситуация, когда военные возможности ИИ будут использованы для разрушений в беспрецедентных масштабах. Это способно уничтожить как саму цивилизацию, так и сами системы ИИ.
Типичная продолжительность жизни технологически развитой цивилизации может составлять менее ста лет. Это примерно равно сроку между появлением возможности посылать и принимать межзвездные радиосигналы (на Земле это 1960 год) и предполагаемым созданием ASI (2040 г.) на Земле. Если эту оценку включить в уравнение Дрейка, то в любой момент времени существует лишь горстка разумных цивилизаций.
Ученые из Польши и Великобритании провели эксперимент с участием реальных людей и аватаров, управляемых искусственным интеллектом, и пришли к выводу, что первые могут менять свои суждения в области морали под воздействием вторых.
Как правило, люди приспосабливаются к взглядам других по нескольким причинам. Во-первых, потому что поддаются групповому давлению, а во-вторых, хотят получить признание от общества или от конкретного лица, которое нравится. Третья причина заключается в том, что мы воспринимаем группу как источник лучшей интерпретации той или иной ситуации, поэтому склонны полагаться на мнение большинства.
Однако сегодня социальное давление становится все более сильным не только в реальном мире, но и в виртуальном. Поэтому важно понимать, как формируются наши суждения под воздействием последнего, особенно если часть такого взаимодействия происходит не с настоящими людьми, а с искусственно созданными аватарами.
Ученые из университетов Социально-гуманитарного (SWPS) (Польша) и Кентского (Великобритания) решили выяснить это подробнее, а свои выводы представили в журнале PLOS One.
Эксперимент проводили в два этапа. В первом участвовали 103 человека, при помощи которых ученые проверяли то, насколько люди склонны менять моральные суждения под воздействием других.
Поэтому для начала испытуемых независимо друг от друга спрашивали, как они оценивают различное поведение людей. Например, наказание ребенка за плохие оценки в школе или разговор по телефону во время киносеанса. Затем участники оценивали то же самое поведение в группах с тремя другими людьми, которые имели противоположное добровольцу мнение по тем или вопросам.
Выяснилось, что участники скорректировали свое мнение под воздействием других в 43 процентах случаев. Правда, это происходило реже, если в обсуждаемых ситуациях наносился вред другим людям.
Во втором эксперименте участвовали 138 человек. На этот раз мнение добровольцев точно так же оценивали индивидуально, а потом в присутствии трех аватаров с помощью виртуальной гарнитуры. Некоторые из них контролировали люди, другие — искусственный интеллект. В последнем случае участникам сообщили, что Кентский университет хочет протестировать новые алгоритмы, реализованные в виртуальных аватарах.
На этот раз добровольцы изменили свое мнение и привели его в соответствие «мнению» аватаров, управляемых человеком, в 30 процентах случаев и в 28 процентах — когда персонажами дополненной реальности управлял искусственный интеллект. Получается, люди способны подвергаться воздействию виртуальных ботов почти так же сильно, как и реальных лиц.
Правда, исследователи подчеркнули, что для окончательных выводов нужны дальнейшие исследования. В первую очередь это необходимо для того, чтобы точнее определить степень воздействия, которое оказывает на человека виртуальная среда, и оценить социальные последствия такого влияния в эпоху быстрого развития цифровых коммуникаций.
Два искусственных интеллекта научили общаться друг с другом
Ученые смоделировали человеческие навыки общения и передачу знаний между ИИ. Их научили обучать друг друга выполнять задачи без огромного количества данных.
Исследования показали, что следующая эволюция искусственного интеллекта (ИИ) может заключаться в создании агентов, которые смогут напрямую общаться и обучать друг друга выполнять задачи.
Ученые смоделировали сеть ИИ, способную обучаться и выполнять задачи исключительно на основе письменных инструкций. Затем этот ИИ описал то, чему он научился, «сестринскому» ИИ, который выполнил ту же задачу, несмотря на отсутствие предварительной подготовки или опыта в ее выполнении. Первый ИИ общался со своим «братом» с помощью обработки естественного языка (language processing, NLP).
NLP — это область ИИ. Ее цель — воссоздать «человеческий» язык на компьютерах, чтобы машины естественным образом понимали инструкции и воспроизводили письменный текст или речь. Их строят на нейронных сетях, которые представляют собой совокупность алгоритмов машинного обучения.
«Как только ИИ изучил задачу, одна сеть смогла описать их второй, своей копии, чтобы она могла их воспроизвести. Насколько нам известно, это первый случай, когда два ИИ смогли “разговаривать” друг с другом чисто лингвистическим способом», — заявил ведущий автор статьи Александр Пуже, руководитель Нейроцентра Женевского университета .
Ученые добились такой передачи знаний, использовав модель NLP «S-Bert», которую предварительно обучили понимать человеческий язык. Они подключили S-Bert к меньшей нейронной сети, сосредоточенной на интерпретации сенсорных сигналов и моделировании ответных двигательных действий.
Подробности эксперимента опубликованы в журнале Nature.
Предсказано появление коллективного искусственного интеллекта
Ученые предсказали будущее искусственного интеллекта (ИИ), который, по их мнению, будет напоминать расу кибернетических организмов боргов из сериала «Звездный путь». Согласно статье, опубликованной в журнале Nature Machine Intelligence, отдельные ИИ могут быть объединены в коллективную сеть, которая даст им возможность постоянно развиваться.
В коллективном искусственном интеллекте многочисленные отдельные элементы, каждый из которых способен независимо приобретать новые знания и навыки, образуют сеть для обмена информацией друг с другом. Предполагается, что появление такого ИИ приведет к крупным прорывам в различных областях, позволит быстро реагировать на новые ситуации, проблемы или угрозы.
Говоря о кибербезопасности, руководитель исследования Андреа Солтоджио из Университета Лафборо подчеркнула, что, если один ИИ выявит угрозу, то оно может поделиться этим знанием с другими узлами сети и вызвать коллективный ответ подобно реакции иммунной системы. Это также применимо к разработке роботов для реагирования на стихийные бедствия или медицинских агентов, предназначенных для персонализированного лечения.
Исследователи признают, что существуют риски, такие как быстрое распространение информации, которую можно использовать в неэтичных или незаконных целях, однако каждый ИИ может сохранять независимость от коллектива и продолжать выполнять свои собственные цели. Такой подход позволит значительно снизить риск доминирования одних ИИ над другими.
Коллективный ИИ отличается от генеративных моделей искусственного интеллекта, таких как ChatGPT, чьи возможности обучения ограничены. Большую часть своих знаний такие модели приобретают во время энергозатратных тренировок и не могут продолжать обучение. Авторы предполагают, что в будущем такие ИИ вымрут, уступив постоянно развивающимся и совместно используемым коллективным ИИ.