В Японии начались испытания первого лекарства, созданного с помощью искусственного интеллекта. Искусственный интелект создал новый искусственный интеллект умнее себя
В Японии начались испытания первого лекарства, созданного с помощью искусственного интеллекта. Искусственный интелект создал новый искусственный интеллект умнее себя
4 года назад 1876

Как правило, на разработку нового медицинского препарата уходит от трех до пяти лет, после чего начинается этап его тестирования с участием добровольцев. Британский стартап AI Exscientia и японская фарм-компания Sumitomo Dainippon Pharma намерены сократить эти сроки до 1 года.

Речь идет о перспективном препарате DSP-1181 для лечения обсессивно-компульсивного расстройства (ОКР), тяжелого психического заболевания, от которого страдают миллионы людей во всем мире.

В распоряжении Exscientia, расположенной в Оксфорде (Великобритания), находится уникальная платформа машинного обучения Centaur Chemist. С ее помощью, используя технологии ИИ, компания собирается значительно ускорить работы по созданию нового препарата.

Преимущества такого подхода заключаются в том, что ИИ может анализировать миллионы молекулярных комбинаций и пытаться определить, какие из них будут наиболее эффективны при лечении ОКР. В результате, сокращение сроков разработки новых препаратов позволит сэкономить миллиарды долларов.

Искусственный интелект создал новый искусственный интеллект умнее себя

Сфера искусственного интеллекта стремительно развивается и уже существует искусственный интеллект, способный разрабатывать собственный искусственный интеллект.

Такой ИИ создан компанией Google и носит название AutoML. Он создал другой ИИ, как будто родил своего ребенка. Однако, этот новый искусственный интеллект оказался умнее, чем искусственный интеллекты, которые создавали люди. Он умеет обучаться, тестировать новые навыки и сдавая отчеты "родителю" о проделанной работе. Родительский ИИ находит пути улучшения и строит улучшенную версию нейронной сети, которая переходит к "ребенку". Напоминает процес воспитания, не правда ли? Такой метод получил название "усиленное обучение". 

Этот интеллектуальный ребенок, зовется NASNet и умеет распознавать различные объекты: людей, предметы (сумочки, рюкзаки, а также автомобили) или цвета дорожного освещения. И делает он это на 4% эффективнее своих предшественников. Причем он не просто распознает объекты, а умеет их идентифицировать. Такой искусственный интеллект уже сейчас может применяться для создания систем автопилотирования в автомобилях и в медицине для лечения слабовидящих и слепых людей. И еще во многих сферах.

А теперь представьте, какие огромные возможности открывает способность искусственного интеллекта создавать искусственный интеллект, еще более умный...

Искусственный интеллект оказался неразрешимой задачей

Математики доказали, что алгоритмы машинного обучения упираются в проблему теории множеств, не имеющую решения по фундаментальным причинам

Амир Йегудайоф из университета Тель-Авива и его коллеги занимались прикладной математической задачей — алгоритмами машинного обучения. Неожиданно оказалось, однако, что эта проблема упирается в фундаментальный математический парадокс, обнаруженный великими математиками XIX-ХХ веков Георгом Кантором и Куртом Гёделем. А именно, вопрос о том, достигает ли успеха алгоритм машинного обучения, оказался фундаментально неразрешимым. Об этом сказано в статье, опубликованной 7 января в Nature Machine Intelligence, сообщает Forbes.ru.

Предыстория вопроса: знаменитые парадоксы ХХ века

Наглядный пример парадокса, обнаруженного математиком Бертраном Расселом ещё столетие назад, даёт задача о двух каталогах. Согласно её условиям, в библиотеке все книги должны быть внесены в один из двух каталогов: в первый вносятся те книги, где есть ссылка на самих себя, а во второй — те, в которых ссылка на себя отсутствует. Поскольку эти каталоги сами представляют собой книги, их также нужно внести в один из каталогов. Однако сложность в том, что если в первый каталог можно записать ссылку на сам этот каталог (а можно и не записывать — все равно условие будет выполнено), то второй каталог нельзя записать никуда. Но и не записывать его тоже нельзя: условие задачи будет нарушено в любом случае.

Размышления о расселовском парадоксе привели Курта Гёделя к формулировке его знаменитой «теоремы о неполноте». Рассуждал он так: возьмем некую систему математических аксиом и составим полный список всех возможных математических утверждений, которые следуют из этих аксиом (нечто вроде библиотечного каталога). Тогда, как доказал Гёдель, можно сконструировать истинное математическое утверждение, которого точно не будет в этом списке («второй каталог» в вышеприведенном примере). Таким образом, любая система аксиом, даже бесконечная, обязательно окажется неполной: некоторое истинное утверждение будет невозможно вывести из нее математически. Оно будет, как выражаются математики, «неразрешимым» (undecidable). Но даже если назвать это утверждение «аксиомой» и добавить к списку, новая система аксиом снова окажется неполной: для нее также можно будет сконструировать недоказуемое и неопровержимое утверждение.

Один из примеров гёделевского неразрешимого утверждения — «проблема континуума», сформулированная Георгом Кантором. Немецкий математик сравнивал разные бесконечные множества и обнаружил, что они отличаются друг от друга по «мощности». В частности, множества натуральных, рациональных и действительных чисел бесконечны. Однако если натуральные и рациональные числа можно поставить в соответствие друг другу (мощность этих множеств равна), то с действительными числами это не работает: его элементы расположены гораздо «гуще».

Кантор задал вопрос: а есть ли множества, мощность которых больше, чем у множества натуральных чисел, но меньше, чем у действительных? Ответ на этот вопрос он дать не смог, а в 1940 году Гёдель доказал, что это как раз и есть пример неразрешимого утверждения в рамках теории множеств. Можно сказать, что множеств промежуточной мощности не существует — и это утверждение станет частью непротиворечивой математической системы. Но можно утверждать и обратное, и в результате опять получится непротиворечивая система утверждений, хотя и отличная от первой.

Английский математик Алан Тьюринг развил идею Гёделя в применении к вычислительным алгоритмам. Он доказал, что в списке «всех возможных алгоритмов, приводящих к решению задачи» будет заведомо отсутствовать алгоритм, устанавливающий, приведёт ли к решению некий произвольный алгоритм. На этом основании современный британский математик Роджер Пенроуз выдвинул аргументированную гипотезу, согласно которой человеческое мышление принципиально неалгоритмизируемо. Из этой гипотезы следует, что «искусственный интеллект» в точном смысле этого слова невозможен: определённый класс задач, решаемых человеческим мозгом, возможно, представляет собой неразрешимые тьюринговские алгоритмы.

Суть проблемы: парадокс машинного обучения

В ХХ веке казалось, что гёделевские неразрешимые утверждения носят довольно абстрактный характер и не имеют отношения к прикладным задачам. Несколько лет назад, впрочем, группа физиков-теоретиков во главе с Тони Кьюбиттом доказала, что гёделевская неразрешимость возникает в физической задаче «квантового гэпа»: невозможно вычислить теоретически, окажется ли произвольно большая пластина некоего материала сверхпроводником.

Авторы статьи в Nature занимались ещё более прикладной проблемой — машинным обучением. Обычно подобные задачи выглядят так: алгоритму предъявляют «обучающие» конечные наборы данных, в которых требуется, к примеру, научиться распознавать изображение котенка. Задача обучения считается решённой, если алгоритм будет способен безошибочно «находить котят» в произвольно большом, то есть бесконечном, наборе данных.

Йегудайоф и его коллеги изучали взаимосвязь между обучаемостью и «сжатием» данных. Они обнаружили, что вопрос о сжимаемости информации тесно связан с проблемой континуума Кантора — которая, как сказано выше, математически неразрешима. Существует бесконечно много способов выбрать из бесконечно большого набора данных меньший набор. Однако «мощность» этой бесконечности оставалась неизвестной. Авторы показали, что эта «мощность» как раз и характеризуется неразрешимостью в рамках проблемы континуума. А именно, если принять гипотезу Кантора, то всегда найдется малый набор обучающих данных, на основании которого алгоритм научится делать предсказания — «искать котенка» — в произвольно большой выборке. Но если принять обратное утверждение, то есть допустить существование множеств промежуточной мощности, никакая выборка данных не даст гарантии успеха.

По мнению авторов работы, обнаруженный парадокс очень важен для понимания принципов сжатия данных, лежащих в основах машинного обучения. В то же время его практическая значимость остается под вопросом: бесконечные наборы данных представляют собой математическую абстракцию. Тем не менее подобные исследования, указывающие на фундаментальные границы алгоритмического «мышления», очень важны для понимания перспектив разработки систем искусственного интеллекта, а в конечном итоге — для понимания феномена человеческого разума.

Искусственный мозг впервые подумал

Ученые Калифорнийского университета в Сан-Диего зафиксировали нейронную активность в искусственно выращенном ими мозге. Об этом говорится в научной статье Stem Cell.

По словам исследователей, синхронные импульсы искусственного мозга были сходны с электроэнцефалограммой недоношенных детей.

Искусственный человеческий орган был создан из стволовых клеток взрослого человека. Ученые сумели заставить их превратиться в небольшой участок коры головного мозга.

Ранее сообщалось, что ученым Клиники Мэйо удалось взломать механизм старения мозга. Биологи смогли предотвратить появление сенесцентных клеток и остановить гибель нейронов, связанную с развитием деменции.

В октябре 2018 года ученые Вашингтонского университета и Университета Карнеги-Меллона создали интерфейс BrainNet, который позволяет подключить мозги нескольких людей в единую сеть для коллективного решения задач.

Искусственный интеллект научили превращать мысли в слова

В середине прошлого века фантасты писали, что в будущем люди научатся читать мысли. Так вот, будущее уже наступило: ученые создали искусственный интеллект, который способен превращать мысли в слова. TengriMIX делится с вами подробностями. 

Ученые из Колумбийского университета создали нейросеть для распознавания отдельных слов по активности в головном мозге.  Сначала они провели эксперименты с пятью добровольцами, которые были направлены на хирургическую операцию из-за тяжелых приступов эпилепсии. Специалисты поместили в кору мозга массив микроэлектродов, регистрировавших активность нейронов в течение получаса, пока человеку зачитывали короткие тексты. Собранные данные и были использованы для обучения искусственного интеллекта.

Затем тем же добровольцам ученые проигрывали записи счета от нуля до девяти, и нейросеть анализировала связанную с этим активность мозга и произносила исходное слово через синтезатор голоса. По словам главы исследования профессора Нима Месгарани, результативность воспроизведения составила целых 75 процентов. Такой показатель в разы выше, чем те, что удавались до сих пор.

В планах разработчиков расширить функциональность искусственного интеллекта, научив его распознавать более сложные слова и сочетания. 

Американский психолог призвала не лишать роботов детства

Психолог из Калифорнийского университета Элисон Гопник предлагает обучать роботов сложному поведению, которое свойственно для человека в детстве. Об этом сообщает портал WIRED.

Роботы хорошо работают по строго заданным программам, однако, если требуется решение нерегламентированных задач, то им будет необходима способность действовать нешаблонно.

Человек приобретает такие способности в детстве через игру. Таким образом, он исследует мир и приспосабливается к его сложности. Гопник предлагает, прежде чем выпускать роботов в реальный мир, помещать их в условия, которые подобны детскому саду, где о них бы заботились, предлагали для решения те или иные задачи и даже играли.

В настоящее время роботов учат двумя способами: робот копирует действия человека, либо робота поощряют или наказывают за правильные или неправильные шаги. Ни один из вариантов не может научить действовать гибко. Дети же в игре быстро находят решения для нетривиальных проблем, не имея для этого никаких особых побудительных причин, а лишь только из интереса. Предоставление роботам чувства любопытства, игры без реальной цели может помочь им также справиться с задачей действовать при неизвестных заранее обстоятельствах, считает психолог. В своей лаборатории психолог изучает механизмы игры детей с тем, чтобы однажды научить играть роботов.

Роботов научили распознавать «свои» и «чужие» вещи

Создана система алгоритмов, способных обучить искусственный интеллект распознавать предметы по принципу «свой — чужой». Об этом говорится в отчете исследователей из Йельского университета (США), опубликованном на портале Arxiv.org.

Отмечается, что для обучения робота социальным нормам, связанным с правом собственности, команда ученых разработала четыре основных правила. Первое правило касается утверждений человека о праве собственности на какой-либо предмет, второе — основывалось на обратном утверждении (человек подчеркивал, что вещь ему не принадлежит).

Вносить коррективы в полученные данные и адаптироваться к изменениям без обновления программного обеспечения роботу позволяет третье и четвертое правило. Сообщается, что искусственный интеллект при помощи внедренных алгоритмов «научился» понимать, какие предметы робот может брать, а какие трогать нельзя.

0 комментариев
Архив