ИИ научился считывать мысли человека и визуализировать внешность, которая ему нравится
ИИ научился считывать мысли человека и визуализировать внешность, которая ему нравится
3 года назад 1815 hightech.fm

Международная команда ученых считала предпочтения людей и сгенерировала внешность, которую они считают симпатичной. 80% из них прошли «испытание на привлекательность».

Команда исследователей разработала искусственный интеллект (ИИ) для чтения мыслей. Он считывает личные предпочтения человека и может создать портрет с внешностью, которая будет привлекать пользователя. Система использует предпочтения человека для создания портретов симпатичных людей, которых на самом деле не существует.

Об этом заявили ученые из Университета Хельсинки и Копенгагена. Они опубликовали статью с подробным описанием системы, с помощью которой интерфейс компьютер-мозг используется для передачи данных в систему ИИ. Затем она интерпретирует данные и использует их для обучения генератора изображений.

После того, как предпочтения пользователя были интерпретированы, машина генерировала новую серию изображений, настроенную таким образом, чтобы быть более привлекательными для пользователя. После анализа исследователи обнаружили, что 80% персонализированных изображений, генерируемых машиной, выдержали испытание на привлекательность.

Первоначально исследователи поставили перед генеративной нейронной сетью (GAN) задачу создания сотен искусственных портретов. Изображения показали 30 добровольцам, которых просили обратить внимание на лица, которые они считают привлекательными, в то время как их ответы мозга были записаны с помощью ЭЭГ.

Затем исследователи проанализировали данные ЭЭГ с помощью машинных методов обучения, соединяя отдельные данные через мозговой компьютер-интерфейс (BCI) с генеративной нейронной сетью.

Исследователи отмечают, что в руках корпораций этот инструмент может стать «пугающим». Некоторые компании могут сознательно генерировать изображения и настроить более релевантную таргетированную рекламу или политические кампании. 

В России создали ИИ, способный считывать и анализировать эмоции студентов на занятиях

В России создали ИИ, способный считывать и анализировать эмоции студентов во время занятий. По словам разработчиков алгоритма из Дальневосточного федерального университета (ДВФУ), цель технологии — не слежка, а определение заинтересованности учащихся в предмете. Об этом пишет ТАСС со ссылкой на пресс-службу ДВФУ.

Новый ИИ оживляет старые фотографии умерших близких

В Twitter набирает популярность сервис Deep Nostalgia, основанный на искусственном интеллекте. Он «оживляет» неподвижные ретрофотографии. Об этом сообщает The Verge.

Услуга Deep Nostalgia, предлагаемая онлайн-генеалогической компанией MyHeritage, использует ИИ с лицензией D-ID для создания эффекта движения анимированных фотографии. Это похоже на функцию iOS Live Photos.

Но Deep Nostalgia может делать фотографии с любой камеры и «оживать» их. Программа использует базу данных предварительно записанных видеороликов с движениями лица. Анализируя каждое фото, система применяет то, которое лучше всего подходит для рассматриваемого неподвижного изображения. Цель — дать людям возможность увидеть, как «оживают» на фотографиях умершие близкие.

Пользователи должны зарегистрировать бесплатную учетную запись на MyHeritage, а затем загрузить фотографию. Далее процесс автоматизирован; сайт улучшает изображение перед его анимацией и созданием гифки. В часто задаваемых вопросах сайта говорится, что он не предоставляет фотографии третьим лицам, а на его главной странице написано: «Фотографии, загруженные без завершения регистрации, автоматически удаляются для защиты вашей конфиденциальности».

Бесплатно можно загрузить пять фотографий на сайт MyHeritage для использования Deep Nostalgia, после чего необходимо зарегистрировать платную учетную запись.

Построена первая машина, которая переводит мозговые волны в предложения

Ученые создали первую машину, которая переводит мозговые волны в предложения. Исследование специалистов по машинному обучению из Университета Калифорнии опубликовано в журнале Nature.

В своем исследовании ученые отмечают, что сейчас существует большое количество аналогичных устройств, однако большая часть из них неэффективна — они могут декодировать только фрагменты произнесенных слов, а их точность равняется нескольким процентам.

Специалист по машинному обучению, доктор Джозеф Макин из Университета Калифорнии (UCSF) и его коллеги попытались улучшить точность таких машин при помощи искусственного интеллекта. Они обучили алгоритмы для преобразования паттернов мозга в предложения в режиме реального времени с частотой ошибок в словах всего 3%.

В рамках испытаний устройства четыре добровольца читали предложения вслух, тогда как электроды регистрировали их мозговую активность. После этого данные поступали в вычислительную систему, которая создавала графики регулярно встречающихся сигналов в этой информации.

Эти повторяющиеся паттерны связаны с повторяющимися характеристиками речи, такими как гласные, согласные или команды к разным частям рта, отмечают ученые. Другая часть системы расшифровывала эти данные обратно в предложения.

Пока искусственный интеллект может расшифровать только речь длиной не более 30-50 предложений с низким количеством ошибок. Однако, интерфейс устройства уже позволяет декодировать отдельные слова, а не просто предложения — это значит, что в будущем устройство можно научить распознавать слова, которые никогда не встречались в обучающих системах.

ИИ научился управлять машиной напересеченной местности

ИИ научился управлять машиной на пересеченной местности. В будущем эту систему можно будет внедрить в беспилотные автомобили.

Исследователи из Университета Макгилла разработали систему обучения дистанционно управляемого мини-внедорожника по пересеченной местности. При этом она обучается при помощи аэрофотосъемки и снимков от первого лица. Гибридный подход учитывает неровности рельефа и препятствия, используя бортовые датчики, что позволяет обобщить среду вокруг с растительностью, скалами и песком.

Эту работу в будущем можно будет использовать для обучения автономных автомобилей, таких как Wayve, Tesla, Mobileye и Comma.ai. Сейчас они полагаются на видеокамеры для обучения своего навигационного ИИ.

Исследователи использовали внедорожник с электрическим моторчиком и механическим тормозом, который подключается к компьютеру Intel i7 NUC с открытым исходным кодом. Устройство оснащено короткодиапазонным датчиком LIDAR и фронтовой камерой в сочетании с микроконтроллером, который передает всю информацию с датчика на компьютер.

Перед развертыванием устройства на трассе команда сделала снимки трассы с высоты 80 м. Затем они извлекли данные из этих кадров, чтобы соориентировать и отцентровать маршрут. Снимки были сделаны с разрешением 0,01 м на пиксель и выровнены в пределах 0,1 м, используя четыре визуальных ориентира.

Учитывая данные с изображений ИИ может интерпретировать их как «препятствие», «гладкая дорога», «шероховатая дорога», которая прогнозирует вероятность столкновений на пути.

0 комментариев
Архив