Международная команда ученых считала предпочтения людей и сгенерировала внешность, которую они считают симпатичной. 80% из них прошли «испытание на привлекательность».
Команда исследователей разработала искусственный интеллект (ИИ) для чтения мыслей. Он считывает личные предпочтения человека и может создать портрет с внешностью, которая будет привлекать пользователя. Система использует предпочтения человека для создания портретов симпатичных людей, которых на самом деле не существует.
Об этом заявили ученые из Университета Хельсинки и Копенгагена. Они опубликовали статью с подробным описанием системы, с помощью которой интерфейс компьютер-мозг используется для передачи данных в систему ИИ. Затем она интерпретирует данные и использует их для обучения генератора изображений.
После того, как предпочтения пользователя были интерпретированы, машина генерировала новую серию изображений, настроенную таким образом, чтобы быть более привлекательными для пользователя. После анализа исследователи обнаружили, что 80% персонализированных изображений, генерируемых машиной, выдержали испытание на привлекательность.
Первоначально исследователи поставили перед генеративной нейронной сетью (GAN) задачу создания сотен искусственных портретов. Изображения показали 30 добровольцам, которых просили обратить внимание на лица, которые они считают привлекательными, в то время как их ответы мозга были записаны с помощью ЭЭГ.
Затем исследователи проанализировали данные ЭЭГ с помощью машинных методов обучения, соединяя отдельные данные через мозговой компьютер-интерфейс (BCI) с генеративной нейронной сетью.
Исследователи отмечают, что в руках корпораций этот инструмент может стать «пугающим». Некоторые компании могут сознательно генерировать изображения и настроить более релевантную таргетированную рекламу или политические кампании.
В России создали ИИ, способный считывать и анализировать эмоции студентов на занятиях
В России создали ИИ, способный считывать и анализировать эмоции студентов во время занятий. По словам разработчиков алгоритма из Дальневосточного федерального университета (ДВФУ), цель технологии — не слежка, а определение заинтересованности учащихся в предмете. Об этом пишет ТАСС со ссылкой на пресс-службу ДВФУ.
Искусственный интеллект создан в качестве эксперимента: его тестирование будет проведено во время режима дистанционного обучения студентов и школьников, который Минобрнауки ввело с 16 марта.
Машинное обучение, которое лежит в основе системы, по мимике способно определить, какие эмоции студент испытывает в реальном времени: счастье (активность), грусть (скуку) и нейтральное состояние. Кроме того, ИИ оценивает тембр голоса — эта функция введена из-за того, что многие учащиеся во время дистанционного обучения не включают видео.
Сейчас эксперимент проводится с участием студентов ДВФУ на ограниченном количестве занятий. В будущем система может быть распространена на весь университет и позволит облегчить процесс обучения для преподавателей и сделать его более качественным, добавили в пресс-службе вуза.
Ранее группа ученых из Дальневосточного федерального университета (ДВФУ) вместе с коллегами из Казахстана и Бразилии создала способ строительства дорожного основания из опасных промышленных отходов.
Искусственному интеллекту впервые понадобился сон
У искусственной нейронной сети, имитирующей работу мозга, неожиданно обнаружилась потребность во сне. Состояние, аналогичное медленному сну человека, восстановило её работоспособность.
Вести.Ru подробно рассказывали об искусственных нейронных сетях (ИНС). Напомним, что они в самых общих чертах имитируют работу нейронных сетей мозга человека. В частности, они тоже состоят из своеобразных нейронов, соединённых контактами (синапсами). Обучение сети происходит благодаря изменению проводимости этих синапсов.
Часто на этом сходство с мозгом и заканчивается. Обычно специалисты по искусственному интеллекту не ставят себе целью максимально точно воспроизвести работу нервной системы. Ведь самолёту необязательно копировать полёт птицы, хотя он тоже использует подъёмную силу крыла. Так и ИНС не обязана быть по-настоящему похожей на мозг, чтобы успешно решать поставленные перед ней задачи.
Однако некоторые учёные интересуются именно принципами работы мозга и возможностью смоделировать их с помощью ИНС.
"Мы изучаем импульсные нейронные сети. Это системы, обучающиеся так же, как и живой мозг", – говорит соавтор нового исследования Ицзин Уоткинс (Yijing Watkins) из Национальной лаборатории Лос-Аламоса, США.
Уоткинс и её соавторы создали нейронную сеть, которая не просто обучается видеть, но делает это примерно так же, как человеческий младенец или детёныш животного.
(Поясним, что полноценное зрение выстраивается благодаря практике. Известен эксперимент, в котором котята так и не научились видеть горизонтальные линии, потому что не видели их в первые пять месяцев после рождения).
Уоткинс и её коллеги обнаружили, что после долгого периода обучения нейронная сеть начала работать нестабильно. Учёные перепробовали много способов исправить ситуацию. Но эффективное решение нашлось лишь тогда, когда на входы нейронной сети был на продолжительное время подан слабый гауссовский шум. После этого система восстановила работоспособность.
Исследователи предполагают, что именно такой сигнал получают зрительные нейроны во время медленного сна.
"Было похоже на то, что мы [таким образом] подарили нейронным сетям эквивалент спокойного ночного отдыха", – рассказывает Уоткинс.
Авторы новой работы подчёркивают, что потребность во "сне" возникла у системы из-за того, что её обучение весьма напоминает деятельность мозга.
Подавляющее большинство ИНС используют другие алгоритмы обучения, имеющие лишь отдалённое сходство с работой нервной системы, и не сталкиваются с такими проблемами.
Теперь учёные намерены проверить свои выводы на нейроморфном чипе Loihi (том самом, который недавно научился распознавать запахи и сыграл роль "кирпичика" для нейрокомпьютера, превосходящего мозг мыши). Исследователи подключат к нему искусственный глаз и будут обучать обрабатывать зрительную информацию. Они надеются, что, позволяя чипу время от времени "спать", они смогут улучшать его работоспособность.
Результаты исследования представлены на конференции "Женщины в компьютерном зрении" (Women in Computer Vision), которая состоится 14 июня в Сиэтле, США.
Новый ИИ оживляет старые фотографии умерших близких
В Twitter набирает популярность сервис Deep Nostalgia, основанный на искусственном интеллекте. Он «оживляет» неподвижные ретрофотографии. Об этом сообщает The Verge.
Услуга Deep Nostalgia, предлагаемая онлайн-генеалогической компанией MyHeritage, использует ИИ с лицензией D-ID для создания эффекта движения анимированных фотографии. Это похоже на функцию iOS Live Photos.
Но Deep Nostalgia может делать фотографии с любой камеры и «оживать» их. Программа использует базу данных предварительно записанных видеороликов с движениями лица. Анализируя каждое фото, система применяет то, которое лучше всего подходит для рассматриваемого неподвижного изображения. Цель — дать людям возможность увидеть, как «оживают» на фотографиях умершие близкие.
Пользователи должны зарегистрировать бесплатную учетную запись на MyHeritage, а затем загрузить фотографию. Далее процесс автоматизирован; сайт улучшает изображение перед его анимацией и созданием гифки. В часто задаваемых вопросах сайта говорится, что он не предоставляет фотографии третьим лицам, а на его главной странице написано: «Фотографии, загруженные без завершения регистрации, автоматически удаляются для защиты вашей конфиденциальности».
Бесплатно можно загрузить пять фотографий на сайт MyHeritage для использования Deep Nostalgia, после чего необходимо зарегистрировать платную учетную запись.
Построена первая машина, которая переводит мозговые волны в предложения
Ученые создали первую машину, которая переводит мозговые волны в предложения. Исследование специалистов по машинному обучению из Университета Калифорнии опубликовано в журнале Nature.
В своем исследовании ученые отмечают, что сейчас существует большое количество аналогичных устройств, однако большая часть из них неэффективна — они могут декодировать только фрагменты произнесенных слов, а их точность равняется нескольким процентам.
Специалист по машинному обучению, доктор Джозеф Макин из Университета Калифорнии (UCSF) и его коллеги попытались улучшить точность таких машин при помощи искусственного интеллекта. Они обучили алгоритмы для преобразования паттернов мозга в предложения в режиме реального времени с частотой ошибок в словах всего 3%.
В рамках испытаний устройства четыре добровольца читали предложения вслух, тогда как электроды регистрировали их мозговую активность. После этого данные поступали в вычислительную систему, которая создавала графики регулярно встречающихся сигналов в этой информации.
Эти повторяющиеся паттерны связаны с повторяющимися характеристиками речи, такими как гласные, согласные или команды к разным частям рта, отмечают ученые. Другая часть системы расшифровывала эти данные обратно в предложения.
Пока искусственный интеллект может расшифровать только речь длиной не более 30-50 предложений с низким количеством ошибок. Однако, интерфейс устройства уже позволяет декодировать отдельные слова, а не просто предложения — это значит, что в будущем устройство можно научить распознавать слова, которые никогда не встречались в обучающих системах.
ИИ научился управлять машиной напересеченной местности
ИИ научился управлять машиной на пересеченной местности. В будущем эту систему можно будет внедрить в беспилотные автомобили.
Исследователи из Университета Макгилла разработали систему обучения дистанционно управляемого мини-внедорожника по пересеченной местности. При этом она обучается при помощи аэрофотосъемки и снимков от первого лица. Гибридный подход учитывает неровности рельефа и препятствия, используя бортовые датчики, что позволяет обобщить среду вокруг с растительностью, скалами и песком.
Эту работу в будущем можно будет использовать для обучения автономных автомобилей, таких как Wayve, Tesla, Mobileye и Comma.ai. Сейчас они полагаются на видеокамеры для обучения своего навигационного ИИ.
Исследователи использовали внедорожник с электрическим моторчиком и механическим тормозом, который подключается к компьютеру Intel i7 NUC с открытым исходным кодом. Устройство оснащено короткодиапазонным датчиком LIDAR и фронтовой камерой в сочетании с микроконтроллером, который передает всю информацию с датчика на компьютер.
Перед развертыванием устройства на трассе команда сделала снимки трассы с высоты 80 м. Затем они извлекли данные из этих кадров, чтобы соориентировать и отцентровать маршрут. Снимки были сделаны с разрешением 0,01 м на пиксель и выровнены в пределах 0,1 м, используя четыре визуальных ориентира.
Учитывая данные с изображений ИИ может интерпретировать их как «препятствие», «гладкая дорога», «шероховатая дорога», которая прогнозирует вероятность столкновений на пути.