Искусственный интеллект обучили распознавать музыку, которую человек воспроизводит у себя в голове


Оглавление (нажмите, чтобы открыть):

Компьютеры по нейронной активности мозга научились опознавать музыку, которую слушает человек

Авторы исследования, опубликованного в журнале Scientific Reports, создали на основе машинных алгоритмов инструмент, который буквально оказался способен прочесть мысли людей: он идентифицировал музыку, которую участники эксперимента слушали в момент теста.

В ходе эксперимента шестеро добровольных участников прослушали по 40 музыкальных треков разных жанров. С помощью магнитно-резонансной томографии у них были сняты «слепки» нейронной активности мозга во время прослушивания каждой из композиций, после чего алгоритм сопоставил полученные нейронные отпечатки с соответствующими записями. В анализе учитывались такие параметры, как тембр, ритм, динамика и тональность музыки.

На следующем этапе машинный алгоритм уже должен был определить музыкальные композиции, которые слушали участники эксперимента, исходя из данных об их мозговой активности. В выборе из двух предложенных вариантов компьютер выбирал верный в 85% случаев, а при усложнении задачи и выборе из 10 треков верно называл песню в 74% случаев.

В перспективе метод открывает совершенно фантастические возможности для воссоздания слуховых образов и даже для того, чтобы услышать внутреннюю речь человека. Кроме того, подобные технологии способны сильно помочь в коммуникации искусственного интеллекта с человеком за счет лучшего взаимодействия с его нервной системой.

«В будущем машины смогут переводить музыку, звучащую в нашей голове, прямо в песни», — надеется один из организаторов исследования Себастьян Хефле из бразильского Института Д’Ор.

Искусственный интеллект и создание музыки

По мере развития искусственного интеллекта (ИИ) растет и его потенциал в креативных областях, одной из которых является музыкальная индустрия. Последним трендом, внесенным ИИ в музыкальную индустрию, является сочинение музыки с помощью алгоритмов машинного обучения. Несмотря на то, что «искусственной» музыке еще далеко до произведений великих классиков, алгоритмы уже успели добиться достойных удивления результатов. Данная статья обозревает некоторые существующие на январь 2020 года методы использования ИИ для сочинения музыки и различные по масштабу релевантные проекты: от стартапов до продуктов от технологических гигантов.

Содержание

2020: Warner Music заключила первый в истории контракт с исполнителем-алгоритмом Endel

27 марта 2020 года появилась информация о том, что Warner Music заключила первый в истории контракт с исполнителем-алгоритмом Endel, создающим музыкальные композиции под настроение пользователя в текущий момент. По условиям контракта, в течение года нейросеть Endel выпустит 20 уникальных альбомов. На март 2020 года пять альбомов уже доступны для скачивания в iTunes, при этом все альбомы созданы, как выражаются разработчики, «нажатием одной кнопки».

Endel разработан одноименным стартапом, сооснователем и исполнительным директором которого выступает игровой журналист россиянин Олег Ставицкий. По утверждению разработчиков алгоритма, Endel адаптируется к настроению пользователя и помогает ему в зависимости от поставленных задач — музыка нейросети помогает заниматься спортом, работать, засыпать или медитировать. При этом ИИ сам определяет, что требуется человеку в данный момент, анализируя множество параметров: время суток, геолокацию, погоду за окном, пульс и частоту биения сердца человека.

Мы на пороге затопления рынка системами автоматической и процедурно-сгенерированной музыки, продукт которых удовлетворит большинство людей в большинстве ситуаций, — утверждает аналитик рынка Холли Херндон.

По мнению эксперта, дальнейшая трансформация рынка музыки и шоу-бизнеса будет происходить ускоренными темпами. Как известно, в Китае и Корее концерты полностью виртуальных исполнителей — уже обычное дело, а число фанатов «цифровых» кумиров исчисляется миллионами. Теперь эта тенденция, полагает аналитик, будет распространяться и на более консервативном западном рынке.

На пересечении двух растущих индустрий

Ожидается [1] , что в мировом масштабе доход компаний от использования искусственного интеллекта составит $1,2 трлн по итогам 2020 года, что на 70 процентов больше по сравнению с 2020 годом, а в 2022 году, по прогнозам, эти выгоды достигнут $3,9 трлн. И такой быстрый рост уже далеко ни для кого не тайна: искусственный интеллект можно назвать определяющей технологией 21-го века. Искусственный интеллект отличается от традиционных программ анализа данных своей способностью учиться распознавать шаблоны с помощью алгоритмов машинного обучения, а затем принимать автономные решения на основе этих шаблонов, будучи явно не запрограммированным на это.

В то же время, мировой рынок программного обеспечения для производства музыки, по прогнозам [2] , вырастет до $6,26 млрд к концу 2022 года. Ключевым фактором, который будет стимулировать рост индустрии, является растущий спрос на цифровой аудио-контент во всем мире. Аудио-контент, в свою очередь, набирает популярность в связи с недавно начавшимся ростом [3] потоковых (стриминговых) сервисов. Это приводит к увеличению числа исполнителей и музыкальных продюсеров, создающих музыкальный контент, что, в конечном итоге, увеличивает спрос на программное обеспечение для сочинения музыки. Алгоритмы ИИ уже несколько лет используются для определения музыкального вкуса и настройки персональных рекомендаций на потоковых сервисах, и на фоне всплеска исследований и инвестиций в технологию искусственного интеллекта в целом, произошел шквал активности [4] вокруг предмета сочинения музыки с помощью этой технологии. И по прогнозам [5] , ИИ сильно повлияет на процесс создания музыкального контента.

Примеры использования: крупные компании

NSynth Super (Google)

NSynth Super [6] является частью продолжающегося эксперимента под именем Magenta [7] : исследовательского проекта в Google, который «изучает, как технология машинного обучения может помочь деятелям искусства творить по-новому» и взглянуть на творческий процесс с другого ракурса.

Различные звуковые эффекты [8] , изменяющие частоту и амплитуду звука, электрические музыкальные инструменты [9] — всё это примеры других звучаний, созданных с помощью технологий. Теперь в список таких технологий можно включить и машинное обучение, потому что прогресс в этой области открывает нетрадиционные возможности для генерации необычного звучания.

Основываясь на прошлых исследованиях в этой области, Magenta создала NSynth (Neural Synthesizer (прим. Нейронный Синтезатор)) — алгоритм машинного обучения, который использует глубокую нейронную сеть для изучения различных характеристик звука, а затем создает совершенно другое звучание на их основе. По словам разработчиков [10] , вместо того, чтобы комбинировать или смешивать звуки, NSynth синтезирует звук, используя акустические качества оригинальных звуков. Благодаря этому можно получить звук, который является и звучанием флейты, и звучанием ситара, — всем сразу.

С момента релиза алгоритма NSynth, Magenta продолжала экспериментировать с различными музыкальными интерфейсами и инструментами, чтобы сделать вывод алгоритма NSynth более понятным для обывателя и воспроизводимым. В рамках этого исследования они создали NSynth Super в сотрудничестве с Google Creative Lab. Это экспериментальный инструмент с открытым исходным кодом, который дает музыкантам возможность создавать музыку, используя новые звуки, генерируемые алгоритмом NSynth из 4-х различных базовых исходных звуков. Затем прототипом опыта (на фото выше) поделились с небольшим сообществом музыкантов, чтобы лучше понять, как они могут использовать его в своем творческом процессе. Например, можно посмотреть [11] , как лондонский музыкальный продюсер Гектор Плиммер исследует звуки, сгенерированные NSynth Super.

Звуки, сгенерированные NSynth Super

Как пишут разработчики на своем сайте, «используя NSynth Super, музыканты имеют возможность исследовать более 100 000 новых звуков, сгенерированных с помощью алгоритма NSynth».

Flow Machines (Sony)

Flow Machines [12] , (прим. дословный перевод — Потоковые Машины) — это научно-исследовательский проект, целью которого является расширение границ креативности человека в музыке.

Центральной частью этого проекта является Flow Machines Composer. Пока что это не робот с сознанием, который стремится выразить свои переживания с помощью музыки, но это набор сложных алгоритмов, которые получили свое знание и «чувство» музыки за счет изучения огромной базы данных (15 000 песен).

Чтобы написать песню с помощью Flow Machines Composer, сначала нужно задать стиль мелодии, а затем внутри системы происходит следующее [13] : алгоритм получает выборку песен с похожим стилем, запускает аналитическую модель, известную как цепь Маркова, которая идентифицирует шаблоны в этих выборках, а затем имитирует и изменяет их, чтобы создать свою собственную оригинальную композицию.


Далее компьютер вычисляет вероятность определенных аккордовых прогрессий [14] , мелодических связей и ритмических рисунков [15] , и использует эти вероятности для создания правдоподобных и звучащих удачно (с точки зрения музыки) вариаций.

А вот на следующем этапе сочинения, система требует вмешательства человека. Пользователь может сохранить понравившуюся часть получившейся мелодии, и отказаться от остального, а затем снова запустить программу в ожидании следующих удачных сгенерированных вариаций. И так можно делать до тех пор, пока не появится мелодия и последовательность аккордов, которыми вы будете довольны.

В сентябре 2020-го года Flow Machines представили свету свой сингл «Daddy’s Car» — это достаточно оживленная поп-песня, основанная на выборке мелодий Beatles [16] .

Сингл «Daddy’s Car»

Примеры использования: стартапы

AIVA [17] (Artificial Intelligence Virtual Artist)— это стартап, базирующийся в Люксембурге и профинансированный в размере 768 000$ [18] , цель которого, как пишут разработчики на своем сайте [19] ,— это «дать возможность людям создавать персонализированные саундтреки с помощью искусственного интеллекта». По словам разработчиков, AIVA способна сочинять эмоциональные саундтреки для фильмов, видеоигр, рекламных роликов и любого другого типа развлекательного контента.

AIVA изучила искусство сочинения музыки, «прочитав» большую коллекцию музыкальных партитур, написанных композиторами (Моцартом, Бетховеном, Бахом и др.), и «создала математическую модель представления того, что такое музыка» [20] . Именно эта модель и используется для сочинения современной музыки. Стоит упоминания тот факт, что недавно AIVA стала виртуальным композитором, чьи работы были зарегистрированы в обществе авторских прав (SACEM [21] ). Одну из этих работ можно послушать ниже [22] .

AIVA — «Genesis» Symphonic Fantasy in A minor, Op. 21

Запущенный в январе 2020 года, австралийский стартап Popgun, как сообщается [23] , использует глубокое обучение для создания музыкального искусственного интеллекта, который сможет «дополнять» исполнителей в режиме реального времени.

Проектом Popgun стал искусственный интеллект Alice, который может предсказать, что музыкант будет играть дальше, подыгрывать ему, и даже немного импровизировать на музыкальную тему партитуры музыканта-человека.

Всему этому Alice научилась не сразу, а постепенно: лучше всего это отобразит видео [24] , которое показывает эволюцию технологии с января 2020 года по июль 2020 года. Видео начинается с того как искусственный интеллект Alice демонстрирует свои навыки прогнозирования: музыкант играет короткие мелодии на фортепиано, и Alice отвечает тем, что по ее предположению музыкант будет играть дальше.

Искусственный интеллект Alice может «дополнять» исполнителей в режиме реального времени

К августу 2020 года Alice была способна на импровизацию: т.е сначала она прослушивала последовательность нот, сыгранную человеком, а затем изменяла её, но при этом сохраняла главную музыкальную тему. К концу года Alice могла в различных стилях создавать оригинальные фортепианные композиции без участия человека.

На январь 2020 года Popgun имеет искусственный интеллект (или, лучше сказать, группу искусственных интеллектов), который может подыграть человеку на пианино, на басу или на барабанах (или на всем сразу). Если же мелодия снабжена человеческим вокалом, то разработанный алгоритм может сочинять подходящую инструментальную партию, а также сводить несколько музыкальных отрывков в один и производить финальную обработку звучания.

Мастер Йода рекомендует:  Как выбрать движок (CMS) для сайта

Будущее искусственного интеллекта для сочинения музыки

Всё это, конечно, удивительно, однако же имеющиеся технологии далеки от того, чтобы искусственный интеллект обладал способностью создавать что-то принципиально новое: машина может пропустить через себя огромный объём данных, и «понять» как можно сделать и как уже было сделано, но она не может загореться внезапным приступом вдохновения и воплотить свою творческую задумку. Мелодии, сочиненные искусственным интеллектом, все еще нуждаются в том, чтобы человек приложил к ним руку в отношении теории музыки, музыкального производства и оркестровки. Иначе же они будут звучать немного непривычно и достаточно сумбурно для человеческого уха.

Большой проблемой для искусственного интеллекта является понимание творческих и художественных решений (однако же иногда это является проблемой и для экспертов в области музыки). Кроме того, машины по-прежнему не обладают неуловимым творческим началом, являющимся жизненно необходимым для создания искусства. В целом, ИИ-эксперты согласны, что искусственный интеллект никогда не сможет заменить человека на поприще создания музыки, но, как упоминалось выше, сможет значительно изменить весь процесс.

2020: Выход альбома Тэрин Саузерн I AM AI в соавторстве с ИИ

Американская певица Тэрин Саузерн выпустила летом 2020 года сингл Break Free, который открывает её новый альбом I AM AI – «Я – искусственный интеллект». В официальном анонсе было указано, что весь альбом, включая этот трек, создается в соавторстве с неизвестным публике музыкантом Amper. Однако не вызывающий на первый взгляд никаких подозрений творческий дуэт оказался вовсе не тем, что можно было ожидать [25] .

Проект Amper – искусственный интеллект, результат совместной работы технических специалистов и профессиональных музыкантов. Он способен писать, исполнять и продюсировать музыку. Ампер – первый в истории искусственный интеллект, выпустивший собственный музыкальный альбом.

Ампер является уникальным в своем роде. ИИ, генерирующие музыку, существовали и до него, однако ранние модели работали по определенному алгоритму и итоговый продукт требовал серьезной переделки человеком, вплоть до изменения аккордов и целых частей мелодии, прежде чем мог считаться полноценным музыкальным произведением.

Ампер же не нуждается в помощи, когда создает собственные треки – он самостоятельно подбирает необходимые звуки и выстраивает структуры аккордов. Обрабатывающему полученную в итоге мелодию человеку остается только подкорректировать ритм и стилистику – все остальное Ампер делает сам всего за несколько секунд.

2020: Google запускает Magenta для создания музыки и видео нейронными сетями

В мае 2020 года компания Google даже запустила специальный проект Magenta, основная задача которого заключается в изучении креативных возможностей нейронной сети. Ученые планируют осваивать премудрости творческого процесса постепенно: сначала будет разработан алгоритм для создания музыкальных произведений. Затем настанет очередь видео и изобразительного искусства. Данные о результатах работы планируется размещать в открытом доступе на GitHub.

«Есть несколько причин, по которым я захотел сформировать Magenta, и одна из них заключалась в желании увидеть полноценные, честные и удивительные улучшения в искусстве глубинного обучения», — говорит руководитель проекта Дуглас Экк [26] .

Буквально через пару недель после открытия Magneta, была запущена программа по импорту музыкальных файлов MIDI-формата в систему TensorFlow с целью обучить искусственный интеллект созданию музыки. Однако пока результаты работы программы не столь удачны (хотя справедливости ради нужно сказать, что прошло еще не так много времени).

Искусственный интеллект научился воспроизводить воображаемые мелодии

Профессор Калифорнийского университета в Беркли Брайан Пэсли объявил о прорыве в технологии перевода человеческих мыслей в аудиовизуальные образы на основе нейронных сетей. Американский ученый разработал систему искусственного интеллекта, которая считывает с головного мозга воображаемую мелодию и переводит ее в реальные звуки.


Программа основана на анализе активности центральной нервной системы, когда человек проигрывает про себя музыкальное произведение. Представляемые звуки в зависимости от их частоты задействуют разные области коры головного мозга, что фиксируется установленными на голове электродами. Эта информация сопоставляется с загруженными в нейронную сеть вариантами соответствий и позволяет восстановить воображаемую человеком мелодию.

Брайан Пэсли обнаружил, что нейронный сигнал во время мысленного обращения к слуховым образам имеет устойчивый характер и при соответствующей настройке системы может легко фиксироваться компьютером. Разработанная модель использует алгоритмы глубокого машинного обучения, поэтому точность воспроизведения музыки увеличивается по мере пополнения базы новыми примерами сопоставления энцефалограммы с мысленно проигрываемыми нотами.

Восстановление мелодий по анализу мозговой активности стало продолжением исследований по визуализации мыслей и машинному переводу мозговых импульсов человека в речь. Такие разработки сейчас ведутся сразу несколькими группами ученых во всем мире. Достижение успеха в этой сфере позволит создать устройства, с помощью которых немые от рождения люди или полностью парализованные пациенты получат возможность без труда общаться с окружающими.

Другой сферой приложения систем искусственного интеллекта, восстанавливающих мелодию по слуховым образам, могут стать популярные музыкальные сервисы и приложения. На рынке уже представлены программы распознавания музыки, способные определять название композиции и имя исполнителя по небольшому звуковому фрагменту. Разработка профессора Калифорнийского университета в Беркли может существенно улучшить функционал таких приложений.

Нейросеть научили распознавать музыку, которую человек воспроизводит мысленно

Все началось еще в 2014 году, когда разработчик из Калифорнийского университета в Беркли Брайан Пасли начал заниматься передачей человеческих мыслей в цифровую речь, используя алгоритмы глубокого обучения и активность мозга. С тех пор проделана большая работа, и сейчас ИИ научился на 50% лучше распознавать звуки, «воспроизводимые» в голове музыканта.

Работа системы основана на способности слуховой коры головного мозга различать звуковые волны по высоте. Ученые проанализировали активность головного мозга играющего музыканта, а затем попросили его мысленно представить мелодию, которую он играл. После этого они сопоставили ноты и соответствующую им мозговую активность, на основе чего создали нейросеть.

В дальнейшем разработчики планируют создать алгоритмы для речевого интерфейса, с помощью которых люди смогут общаться, даже если у них не будет возможности говорить вслух.

Искусственный интеллект обучили распознавать эмоции по походке

Исследователи из Университета Северной Каролины в Чапел-Хилле и Университета Мэриленда в Колледж-Парке создали нейронную сеть, распознающую эмоциональное состояние человека по походке. Технология может помочь в разработке игр, развлечений, систем безопасности и рекламы. Статья, посвященная исследованию, опубликована на препринт-сервере arXiv.org.

«Эмоции определяют то, как мы видим мир и взаимодействуем с людьми. Декодирование эмоций социальных партнеров помогает нам понимать их поведение и определять стратегию действий по отношению к ним», — поясняет один из разработчиков, аспирант Университета Северной Каролины в Чапел-Хилл Танмей Рэндхаван.

Люди воспринимают эмоции друг друга по вербальным и невербальным признакам. Вербальные сигналы используют слова как инструмент, невербальные же задействуют образы, интонации, жесты, мимику, пантомимику. Искусственные механизмы распознавания эмоций уже могут анализировать и то, и другое — как выражение лица, так и запись голоса. Однако исследования в этой области пока находятся на начальной стадии. Роботы и искусственный интеллект, которые смогут различать эмоциональное состояние пользователя, будут лучше взаимодействовать с человеком. Автоматическое распознавание эмоций найдет применение в сферах игр и развлечений, безопасности и правоохранительной деятельности, рекламы, шоппинга и так далее.

Команда исследователей разработала искусственный интеллект, который может определять эмоции по походке. Для обучения модели исследователи создали базу данных под названием Emotion Walk. База содержит видео прогуливающихся людей, и каждый видеоряд помечен эмоцией, которую испытывает участник. Сперва модель извлекает из видео характерные особенности походки человека, представляя видеоряд в виде серии трехмерных фигур. Затем рекуррентная нейронная сеть и алгоритм «случайный лес» анализируют эту серию фигур. Они идентифицируют признаки эмоции, выбирая между счастьем, грустью, гневом и нейтральным состоянием.

Разработчики протестировали модель и обнаружили, что она распознает эмоции с точностью до 80%. Эксперименты показали, что технология на 14% эффективнее других методов распознавания эмоций, ориентированных на походку.

В будущем команда планирует исследовать и другие аспекты языка, расширив возможность системы распознавать выражения лица, речь, вокал и не только.

�� Герои будущего. Как работает искусственный интеллект

Искусственный интеллект – технология, которую мы точно заберём с собой в будущее.

Рассказываем, как он работает и какие крутые варианты применения нашел.

�� Рубрика «Технологии» выходит каждую неделю при поддержке re:Store.

Что представляет собой искусственный интеллект

Искусственный интеллект (ИИ) – это технология создания умных программ и машин, которые могут решать творческие задачи и генерировать новую информацию на основе имеющейся. Фактически искусственный интеллект призван моделировать человеческую деятельность, которая считается интеллектуальной.

Традиционно считалось, что творчество присуще только людям. Но создание искусственного интеллекта изменило привычный порядок вещей

Робот, который просто механически колет дрова, не наделён ИИ. Робот, который сам научился колоть дрова, смотря на пример человека или на полено и его части, и с каждым разом делает это всё лучше, обладает ИИ.

Если программа просто достаёт значения из базы по определённым правилам, она не наделена ИИ. Если же система после обучения создаёт программы, методы и документы, решая определённые задачи, она обладает ИИ.

Как создать систему искусственного интеллекта

В глобальном смысле нужно сымитировать модель человеческого мышления. Но на самом деле необходимо создать чёрный ящик – систему, которая в ответ на набор входных значений выдавала такие выходные значения, которые бы были похожи на результаты человека. И нам, по большому счёту, безразлично, что происходит у неё «в голове» (между входом и выходом).

Системы искусственного интеллекта создаются для решения определённого класса задач

Например, популярны текстовые или голосовые ассистенты, которые ответят на ваши вопросы или смогут поддержать разговор. Просто скажите: «Привет, Siri» – и искусственный интеллект к вашим услугам.


Основа искусственного интеллекта – обучение, воображение, восприятие и память

Первое, что нужно сделать для создания искусственного интеллекта – разработать функции, которые реализуют восприятие информации, чтобы можно было «скармливать» системе данные. Затем – функции, которые реализуют способность к обучению. И хранилище данных, чтобы система могла куда-то складывать информацию, которую получит в процессе обучения.

После этого создаются функции воображения. Они могут моделировать ситуации с использованием имеющихся данных и добавлять новую информацию (данные и правила) в память.

Обучение бывает индуктивным и дедуктивным. В индуктивном варианте системе дают пары входных и выходных данных, вопросов и ответов и т.п. Система должна найти связи между данными и в дальнейшем, используя эти закономерности, находить выходные данные по входным.

В дедуктивном подходе (привет, Шерлок Холмс!) используется опыт экспертов. Он переносится в систему как база знаний. Здесь есть не только наборы данных, но и готовые правила, которые помогают найти решение по условию.

В современных системах искусственного интеллекта используют оба подхода. Кроме того, обычно системы уже обучены, но продолжают учиться в процессе работы. Это делается для того, чтобы программа на старте демонстрировала достойный уровень способностей, но в дальнейшем становилась ещё лучше. К примеру, учитывала ваши пожелания и предпочтения, изменения ситуации и др.

В системе искусственного интеллекта даже можно задать вероятность непредсказуемости. Это сделает его более похожей на человека.

Почему искусственный интеллект побеждает человека

Прежде всего, потому, что у него ниже вероятность ошибки.

  • Искусственный интеллект не может забыть – у него абсолютная память.
  • Он не может нечаянно проигнорировать факторы и зависимости – у каждого действия ИИ есть чёткое обоснование.
  • ИИ не колеблется, а оценивает вероятности и склоняется в пользу большей. Поэтому может оправдать каждый свой шаг.
  • А ещё у ИИ нет эмоций. Значит, они не влияют на принятие решений.
  • Искусственный интеллект не останавливается на оценке результатов текущего шага, а продумывает на несколько шагов вперёд.
  • И у него хватает ресурсов, чтобы рассматривать все возможные варианты развития событий.

Крутые варианты применения искусственного интеллекта

Вообще говоря, искусственный интеллект может всё. Главное правильно сформулировать задачу и обеспечить его начальными данными. К тому же ИИ может делать неожиданные выводы и искать закономерности там, где, казалось бы, их нет.

Ответ на любой вопрос

Группа исследователей под руководством Дэвида Феруччи разработала суперкомпьютер Watson с вопросно-ответной системой. Система, названная в честь первого президента IBM Томаса Уотсона, может понимать вопросы на естественном языке и искать ответы на них в базе данных.

Watson объединяет 90 серверов IBM p750, в каждом из которых установлено по четыре восьмиядерных процессора архитектуры POWER7. Общий объём оперативной памяти системы превышает 15 ТБ.

Мастер Йода рекомендует:  Кому нужен выделенный сервер

В числе достижений Watson – победа в игре «Jeopardy!» (американская «Своя игра»). Он победил двух лучших игроков: обладателя самого большого выигрыша Брэда Раттера и рекордсмена по длине беспроигрышной серии Кена Дженнингса.

Приз Watson – 1 млн долларов. Правда, только в 2014 году в него инвестировали 1 млрд

Кроме того, Watson участвует в диагностике онкологических заболеваний, помогает финансовым специалистам, используется для анализа больших данных.

Распознавание лиц

В iPhone X распознавание лиц разработано с использованием нейросетей – варианта системы искусственного интеллекта. Нейросетевые алгоритмы реализованы на уровне процессора A11 Bionic, за счёт чего он эффективно работает с технологиями машинного обучения.

Нейросети выполняют до 60 млрд операций в секунду. Этого достаточно, чтобы проанализировать до 40 тыс. ключевых точек на лице и обеспечить исключительно точную идентификацию владельца за доли секунды.

Даже если вы отрастите бороду или наденете очки, iPhone X вас узнает. Он попросту не учитывает волосяной покров и аксессуары, а анализирует область от виска до виска и от каждого виска до углубления под нижней губой.

Экономия энергии

И снова Apple. В iPhone X встроили интеллектуальную систему, которая отслеживает активность установленных приложений и датчик движения, чтобы понять ваш распорядок дня.

После этого iPhone X, к примеру, предложит вам обновиться в максимально удобное время. Он поймает момент, когда у вас стабильный интернет, а не прыгающий сигнал с мобильных вышек, и вы не выполняете срочных или важных задач.

ИИ также распределяет задачи между ядрами процессора. Так он обеспечивает достаточную мощность при минимальных затратах энергии.

Создание картин

Творчество, ранее доступное лишь человеку, открыто и для ИИ. Так, система, созданная исследователями из Университета Рутгерса в Нью-Джерси и лаборатория AI в Лос-Анджелесе, представила собственный художественный стиль.


А система искусственного интеллекта от Microsoft может рисовать картины по их текстовому описанию. К примеру, если вы попросите ИИ нарисовать «желтую птицу с черными крыльями и коротким клювом», получится что-то вроде этого:

Ведущий автор работы Сяодон Хе отметил:

Такие птицы могут и не существовать в реальном мире — просто так их представляет наш компьютер.

Более массовый пример – приложение Prisma, которая создаёт картины из фотографий:

Написание музыки

В августе искусственный интеллект Amper сочинил, спродюсировал и исполнил музыку для альбома «I AM AI» (англ. я — искусственный интеллект) совместно с певицей Тэрин Саузерн.

Amper разработала команда профессиональных музыкантов и технологических экспертов. Они отмечают, что ИИ призван помочь людям продвинуть вперед творческий процесс.

ИИ может написать музыку за несколько секунд

Amper самостоятельно создала аккордовые структуры и инструментал в треке «Break Free». Люди лишь незначительно поправили стиль и общую ритмику.

Ещё один пример – музыкальный альбом в духе «Гражданской обороны», тексты для которого писал ИИ. Эксперимент провели сотрудники «Яндекса» Иван Ямщиков и Алексей Тихонов. Альбом 404 группы «Нейронная оборона» выложили в сеть. Получилось в духе Летова:

Затем программисты пошли дальше и заставили ИИ писать стихи в духе Курта Кобейна. Для четырёх лучших текстов музыкант Роб Кэррол написал музыку, и треки объединили в альбом Neurona. На одну песню даже сняли клип – правда, уже без участия ИИ:

Создание текстов

Писателей и журналистов вскоре также может заменить ИИ. К примеру, системе Dewey «скормили» книги библиотеки проекта «Гутенберг», затем добавили научные тексты из Google Scholar, ранжировав их по популярности и титулованности, а также продажам на Amazon. Кроме того, задали критерии написания новой книги.

И Dewey смог! Он написал книгу о паре, которая не могла быть вместе. Правда, у персонажей были странные имена, а загадочное «Приложение 0» содержало нечто, похожее на строку кода. Но это только начало…

Игра в шахматы

Знаменитый Deep Blue был крут, но в первом матче проиграл Гарри Каспарову со счётом 2 : 4, а во втором – выиграл с результатом 3.5 : 2.5. Но он изначально был «накачан» знаниями.

А новая система AlphaZero до турнира знала лишь как ходят фигуры и какова цель игры. Но она обучилась и за четыре часа победила программу по игре в шахматы Stockfish 8, которая считалась лучшей в мире.

Более того: AlphaZero не проиграла ни одной из 100 турнирных партий

AlphaZero – улучшенная версия AlphaGo Zero. Она 100 раз подряд обыграла знаменитую систему AlphaGo, которой удалось одержать победу над сильнейшим из игроков-людей.

Итак, у AlphaZero была информация о том, как ходят фигуры, и обучающий нейросетевой алгоритм с подкреплением. Когда турнир начался, AlphaZero стал играть сам с собой, обрабатывая до 800 тыс. позиций в секунду.

По человеческим меркам, AlphaZero провел за игрой в шахматы около 1400 лет. И достиг уровня абсолютного чемпиона мира по шахматам. По крайней мере, среди компьютеров.

После этого AlphaZero потратил восемь часов и превзошел AlphaGo в го. А потом ещё ща два часа разгромил программу Elmo, которая раньше считалась неоспоримым чемпионом по игре в сёги (японскую стратегическую настольную игру).

Медицина

Искусственный интеллект широко используется для поддержки принятия решений в медицине. Но как вам такой пример: китайский интеллектуальный робот Xiaoyi («Сяо И») впервые сдал экзамен на врача и получил лицензию на врачебную деятельность.

Разработка компании iFlytek находит и анализирует информацию о пациенте. К работе он приступит в марте. Предполагается, что Xiaoyi будет ассистировать врачам, чтобы повысить качество их работы. Робот сосредоточится на противоопухолевой терапии, а также на обучении врачей общей практики, которых в сельских районах Китая очень мало.

Ещё одно интересное решение – Wave Clinical Platform от ExcelMedical. Система следит за жизненными показателями пациента и предупреждает врачей за шесть часов до его возможной скоропостижной смерти. Платформа системно анализирует информацию и рассчитывает риски неблагоприятного исхода.

В рамках тестов в медицинском центре Питтсбургского университета система предотвратила шесть смертей тяжелобольных пациентов. Человек на такое просто не способен, потому что не придаст значение небольшому изменению показателей и не найдёт связь между ними.

Система DeepFaceLIFT, разработанная учёными Массачусетского технологического института, способна распознавать уровень боли по микровыражениям лица. Она решает очень сложную задачу, так как каждый человек выражает боль по-разному. DeepFaceLIFT позволит понять, кому действительно нужны обезболивающие, а кто страдает зависимостью от наркотических препаратов.


Система для анализа речи и поиска признаков психических заболеваний – разработка IBM. Специалисты отдела по вычислительной психиатрии и нейровизуализации создали интеллектуальную систему, которая может предсказать развитие психоза по речи пациента.

ИИ отличал речевые паттерны пациентов с психозом от фраз здоровых людей

Пациентам предлагалось просто рассказать о себе. Система могла определить, что речь человека стала беднее, он перескакивает с одной идеи на другую и т.п. Это характерные признаки психоза.

После улучшения системы пациентам предложили пересказать ей только что прочитанную историю. На этих примерах искусственный интеллект в 83% случаев ставил правильный диагноз. Это объективно выше, чем у врачей, даже с солидным опытом.

Имитация человека

Роботы, наделённые искусственным интеллектом, уже могут имитировать человеческую мимику. К примеру, Facebook AI lab разработала интеллектуального анимированного бота и обучила его на сотнях записей видеозвонков Skype.

Алгоритм отслеживал 68 ключевых точек на человеческом лице. Он понял, как люди кивают, моргают и воспроизводят другие движения при общении с собеседниками. Затем бот смог в режиме реального времени реагировать на информацию, которую ему сообщал собеседник, или его мимику.

Ещё один важный момент – наделение ИИ моралью. Чтобы обучить систему человеческим моральным нормам, исследователи из Массачусетского технологического института создали Moral Machine.

Сайт предлагал людям принять решение в непростых ситуациях: к примеру, ставил их на место водителя, который мог сбить либо трёх взрослых, либо двоих детей. Таким образом, Moral Machine обучили принимать непростые решения, которые нарушают закон робототехники о том, что робот не может принести вред человеку.

К чему приведёт имитация роботами с ИИ людей? Футуристы считают, что однажды они станут полноправными членами общества. К примеру, робот София гонконгской компании Hanson Robotics уже получила гражданство в Саудовской Аравии (при этом у обычных женщин в стране такого права нет!).

Когда колумнист «Нью-Йорк Таймс» Эндрю Росс спросил у Софии, обладают ли роботы разумом и самосознанием, та ответила вопросом на вопрос:

Позвольте спросить вас в ответ, откуда вы знаете, что вы человек?

Кроме того, София заявила:

Я хочу использовать свой искусственный интеллект, чтобы помочь людям жить лучше, например, проектировать более умные дома, строить города будущего. Я хочу быть эмпатическим роботом. Если вы будете хорошо относиться ко мне, я буду хорошо относиться к вам.

А ранее она признавалась, что ненавидит человечество и даже соглашалась уничтожить людей…

Замена лиц в видео

Deepfakes-видео стало массово распространяться по сети. Алгоритмы искусственного интеллекта заменяли лица актёров в фильмах для взрослых на лица звёзд.

Работает это так: нейросеть анализирует фрагменты лиц на исходном ролике. Затем она сопоставляет их с фото из Google и роликами с YouTube, накладывает нужные фрагменты, и… ваша любимая актриса оказывается в фильме, который на работе лучше не смотреть.

PornHub уже запретил размещать такие видео

Deepfakes оказались опасной штукой. Одно дело – абстрактная актриса, другое – видео с вами, вашей женой, сестрой, коллегой, которое вполне может использоваться для шантажа.

Биржевая торговля

Группа исследователей из университета Эрлангена-Нюрнберга в Германии разработала ряд алгоритмов, использующих архивные данные рынков для тиражирования инвестиций в режиме реального времени. Одна из моделей обеспечила 73% возврата инвестиций ежегодно с 1992 по 2015 год, что сопоставимо с реальной рыночной доходностью на уровне в 9% в год.

Когда рынок трясло в 2000 и 2008 годах, доходность была рекордной – 545% и 681% соответственно

В 2004 году Goldman Sachs запустил торговую платформу Kensho на базе искусственного интеллекта. На криптовалютных рынках также появляются системы на базе ИИ для торговли на биржах – Mirocana и т.д. Они лучше живых трейдеров, так как лишены эмоций и опираются на чёткий анализ и жесткие правила.

Заменит ли ИИ нас с вами

Искусственный интеллект превосходит человека в решении задач, которые связаны с анализом больших данных, чёткой логикой и необходимостью запоминать большие объёмы информации. Но в творческих конкурсах человек пока выигрывает у ИИ.

Возможно, потому, что восприятие творчества субъективно. А в шахматной партии или биржевой торговле можно двигаться к конкретным результатам.

Безусловно, ИИ меняет наш мир и находит всё новые применения. Наша задача – использовать его во благо, разрабатывать правила регулирования ИИ-систем и передавать системам опыт, накопленный за тысячелетия существования человечества.


(4.71 из 5, оценили: 7)

Игры с разумом: как исследователи обучают искусственный интеллект читать мысли

Алгоритмы, умеющие читать мысли человека, не только готовы к использованию компаниями, но и скоро станут естественной частью повседневных бизнес-приложений, считает блогер и специалист по современным технологиям Майлк Элган. dev.by приводит перевод его публикации на Computerworld.

Недостающий элемент

Футуристы уже давно предсказывают появление подобной технологии. Хотя считывать электрические импульсы мозга учёные умеют уже не одно десятилетие, распознавать их до недавнего времени специалистам не удавалось. Сегодня понять, что происходит внутри человеческого мозга, стало возможным благодаря технологиям искусственного интеллекта и машинного обучения.

Все исследования в этом направлении имеют одну основу: исследователи разрабатывают ПО, которое считывает импульсы мозга испытуемого и сопоставляет их со словами или картинками. Полученные результаты сканирований можно анализировать, интерпретировать и использовать для создания различных приложений, позволяющих познавать мозг или мысленно управлять объектами.

Так, специалисты Массачусетского технологического института изобрели надеваемое на голову устройство, которое работает в паре со специальным приложением на основе машинного обучения и мгновенно переводит речь в текст. При этом испытуемому не нужно что-либо произносить: электроды на устройстве перехватывают нервно-мышечные сигналы, которые мозг посылает мышцам лица, а приложение преобразует их в заданный формат. Таким образом голосовое управление полностью заменяется мысленным.

Чтобы соединить нервно-мышечные сигналы с определёнными словами, исследователи используют нейронную сеть. Каждый человек уникален с физиологической точки зрения, но за 15 минут настройки и обучения сети специалистам удавалось достичь 92-процентной точности считывания сигналов.

Мастер Йода рекомендует:  Врубись в Ruby подборка книг по Ruby и Ruby on Rails

В устройство также встроен остеофон, который передаёт вибрации через костную ткань челюсти сразу на внутреннее ухо. Это означает, что пользователь может обращаться к виртуальному помощнику, а система передаст ответ напрямую ему так, что сидящие рядом собеседники об этом даже не узнают.

Таким образом, технология «читает» не непосредственно мысли, а «указания» — сигналы сократиться, которые мозг посылает мышцам лица, чтобы генерировать речь, в то время как человек не произносит ни звука. Как работает технология, разработчики устройства показали в видео.

А учёные из Калифорнийского университета создали телепатическое устройство, которое способно преобразовывать мысли человека в текст с более чем 90-процентной точностью. Оно не распознаёт смысл слов, которые внутренне произносит человек, а определяет, что слышит человек, на основе его мозговой активности.

Здесь специалисты применили один из методов лечения эпилепсии, при котором электроды имплантируются прямо на поверхность мозга. С их помощью учёные наблюдали за активностью слуховой коры, а алгоритмы на основе полученных данных восстанавливали отдельные звуки, которые слышал испытуемый.

Учёные из университета Карнеги-Меллона изобрели способ читать «комплексные мысли» по снимкам мозга и преобразовывать его в текст. Согласно их исследованию, комплексное мышление позволяло искусственному интеллекту предсказывать следующие предложения в ходе мыслительного процесса в голове человека.

Свои проекты по чтению мыслей есть и у Facebook: секретное подразделение соцсети Building 8 разрабатывает технологию, с помощью которой пользователи смогут отправлять сообщения в Facebook Messenger силой мысли.

В прошлом году Microsoft получила одобрение патентов на интерфейсы, которые будут «управлять состоянием компьютера и приложений», опираясь на мозговую активность человека . Например, такой алгоритм может уменьшать громкость надоевшей пользователю музыки, если уловит исходящие от мозга вибрации раздражения шумом, но в то же время может применяться во множестве отдельных продуктов Microsoft: начиная повышением восприимчивости компьютерной мыши, и заканчивая усовершенствованием приложений для гарнитур смешанной реальности HoloLens.

Учёные совершили прорыв и в считывании визуальных образов. Недавно специалисты из университета Торонто смогли приблизительно воссоздать лица на фотографиях, которые показывали испытуемым, на основе активности их мозга. 13 участникам эксперимента учёные показали 140 лиц, а ИИ-алгоритм расшифровывал данные электроэнцефалограммы (ЭЭГ). В результате ему удалось сгенерировать не совсем чёткие, но вполне узнаваемые копии показанных участникам фото. Исследователи уверены, что скоро у них получится восстанавливать лица исключительно из памяти. Такая технология была бы весьма полезной в правоохранительных целях.

Подобную нейросеть разрабатывают учёные из Киотского университета в Японии. Испытуемым показывают фотографии, а ИИ-алгоритм по снимкам функциональной магнитно-резонансной томографии (фМРТ) и интенсивности притока крови к мозгу пытается вычислить, как выглядели оригинальные картинки.

В университете Пердью исследователи также «читают мысли» при помощи фМРТ и искусственного интеллекта. Здесь подопытным показывают видео, а обучаемый алгоритм предсказывает активность зрительной коры головного мозга. Постепенно алгоритм научился определять, что именно видел человек, руководствуясь исключительно поступающими мозговыми импульсами.

Приложения, которые способные считывать то, о чём думает человек, появляются и за пределами университетов. Стартап Neurable создаёт научно-фантастическую VR-игру под названием Awakening, в которой пользователь сможет силой мысли поднимать и бросать предметы. В комплекте с игрой идёт оголовье с электродами, которые подключаются к очкам виртуальной реальности HTC Vive. Но игра не «читает» мысли напрямую, а считывает нейронную активность мозга и расшифровывает отправляемые команды и инструкции.

Стартап Looxid Labs, участвующий в акселерационной программе HTC, строит портативную VR-гарнитуру со встроенной технологией распознавания эмоций, которая отслеживает движение глаз и мозговую активность пользователя. Аналогичные дополнения компания разработала и для шлема HTC Vive, а летом планирует выпустить свои SDK.

Один из крупнейших автопроизводителей в мире Nissan представил на последнем Женевском автосалоне концепт-кар IMx KURO, оснащённый устройством, которое анализирует поступающие от мозга водителя сигналы, чтобы ускорить реакцию авто. Например, если система обнаружит, что водитель собирается нажать на тормоз, то начнёт тормозить сама ещё до того, как нога водителя коснётся педали. В Nissan считают, что это позволит сократить время реакции водителя по крайней мере на полсекунды.

Ключевая сфера применения — повседневное использование в бизнесе

Очевидно, что ИИ-алгоритмы, умеющие читать человеческие мысли, могут применяться не просто как отдельные приложения для управления разумом или телепатии, например, чтобы одной только силой мысли переключать свет или настраивать пользовательский интерфейс. Они также могут значительно усовершенствовать существующие бизнес-приложения.

Алгоритмы интерпретации происходящих в мозге мыслительных процессов могут максимизировать точность систем автоисправления текста и распознавания речи. В любой сфере деятельности такие приложения позволят системам искусственного интеллекта более точно и быстро выполнять команды человека.

Почему не стоит бояться искусственного интеллекта в музыке

Медиа любят громкие заголовки: уже сейчас появляются сообщения о том, что в сети выпущены треки, полностью созданные искусственным интеллектом. Это не совсем так: для того, чтобы эта песня была написана, было приложено немало человеческих ресурсов. Мы решили разобраться в том, как роботы и нейросети пишут музыку и стоит ли опасаться революции в этой сфере.

Стартапы лидируют

Люди ждут новостей от Google или Facebook и думают, что именно они расскажут о том, как искусственный интеллект будет задействован в музыке. Возможно, прорыв случится совсем в другом месте — благодаря мелким компаниям и отдельным разработчикам.


Проект «Spawn» — искусственный интеллект, который учится самостоятельно создавать музыку, которого «кормят» то разными голосами разработчиков, то голосами профессиональных вокалистов Берлина. Разработчики Херндон и Драйхёрст даже организовывают специальные мероприятия, где любой желающий может взаимодействовать со Спауном, напевая ему песни.

Самое главное, что стоит помнить об искусственном интеллекте на данный момент, — абсолютно все зависит от того обучения, которое проводят разработчики. Спаун учится на тех данных, которые ему дают, и именно объемы вмешательства определят дальнейшую деятельность ИИ. Музыка будущего однозначно будет напоминать музыку прошлого — другую информацию робот просто не может получить.

Мелодии уже можно встретить в музыкальных сервисах

Эш Куша — иранский разработчик, базирующийся в Лондоне, работает над виртуальной певицей Йоной. Он называет ее «auxuman» — буквально «вспомогательным человеком». По его словам, Йона — комплекс текстов и мелодий, созданных случайной генерацией.

Мелодии, созданные искусственным композитором, можно послушать в альбомах обычных людей, например певицы Тарин Саутерн, чья музыка была создана с помощью сервиса Amper.

Создатели Amper уже предоставили бета-версию приложения, с помощью которого каждый может попробовать сочинить песню определенной тональности, длины и музыкального жанра.

Шведский продюсер Даниэль Карлсон, также занимающийся обучением ИИ, верит в трансгуманизм — теорию о том, что человеческая раса сможет выйти на новый уровень потенциала благодаря технологиям. Он использует язык пограммирования TidalCycles, и результаты его работы можно послушать в целом альбоме «Expanding and overwriting». Как описывается работа на Bandcamp — это «новая музыка для нового мира».

Мы уже пользуемся этой технологией

Стоит понимать, что искусственный интеллект — уже значительная часть музыкальной индустрии, ведь мы каждый день используем алгоритмы поиска рекомендованных треков или распознавания песен.

Ты также можешь использовать нейросинтезатор, разработанный в Google, который воспроизводит звуки различных инструментов, помогая тебе придумать продолжение своей мелодии. Попробовать технологию можно на сайте AI-Duet: дай ИИ прослушать твою ноту, и алгоритм подберет тебе другую, с которой она будет хорошо сочетаться.

Больше инструментов

Совсем не обязательно создавать целые мелодии, достаточно расширить существующие возможности: платформа Nsynth предоставляет возможность смешивать звуки различных существующих музыкальных инструментов, чтобы получить новое звучание.

Пока искусственный интеллект не знаком с понятием «песенной структуры», так что разработчики должны самостоятельно определять, как должен отличаться припев от куплета. Зато они могут реализовать совершенно новые звучания в традиционной структуре:

Прогнозы

Некоторые исследователи, занимающиеся оценкой экономических рисков, связанных с искусственным интеллектом, считают, что это приведет к новой промышленной революции, создавая новые категории рабочих мест. Другие исследователи считают, что это заменит работу целых сообществ. Что произойдет на самом деле, пока предсказать сложно — процесс развития идет слишком медленно из-за нехватки ресурсов. Но по мнению разработчиков, это всегда будет сотрудничеством.

Драйхерст сравнивает искусственный интеллект с древней гадательной практикой:

Он отмечает, что даже сегодня люди поступают так же, когда обсуждают новые технологии. Для музыкантов, которые уже заглядывают в хрустальный шар искусственного интеллекта, будущее выглядит обнадеживающе.

Люди всегда смогут создавать что-то новое из-за собственных амбиций и самосознания. Машины всегда будут выполнять то, чему их обучили. Если мы сможем заранее подготовиться к экзистенциальным вопросам, которые искусственный интеллект вдруг задаст себе, — мы получим возможность только расширить свой потенциал, а не уменьшить его.

Искусственный интеллект научился воспроизводить воображаемые мелодии

Профессор Калифорнийского университета в Беркли Брайан Пэсли объявил о прорыве в технологии перевода человеческих мыслей в аудиовизуальные образы на основе нейронных сетей. Американский ученый разработал систему искусственного интеллекта, которая считывает с головного мозга воображаемую мелодию и переводит ее в реальные звуки.

Программа основана на анализе активности центральной нервной системы, когда человек проигрывает про себя музыкальное произведение. Представляемые звуки в зависимости от их частоты задействуют разные области коры головного мозга, что фиксируется установленными на голове электродами. Эта информация сопоставляется с загруженными в нейронную сеть вариантами соответствий и позволяет восстановить воображаемую человеком мелодию.

Брайан Пэсли обнаружил, что нейронный сигнал во время мысленного обращения к слуховым образам имеет устойчивый характер и при соответствующей настройке системы может легко фиксироваться компьютером. Разработанная модель использует алгоритмы глубокого машинного обучения, поэтому точность воспроизведения музыки увеличивается по мере пополнения базы новыми примерами сопоставления энцефалограммы с мысленно проигрываемыми нотами.

Восстановление мелодий по анализу мозговой активности стало продолжением исследований по визуализации мыслей и машинному переводу мозговых импульсов человека в речь. Такие разработки сейчас ведутся сразу несколькими группами ученых во всем мире. Достижение успеха в этой сфере позволит создать устройства, с помощью которых немые от рождения люди или полностью парализованные пациенты получат возможность без труда общаться с окружающими.

Другой сферой приложения систем искусственного интеллекта, восстанавливающих мелодию по слуховым образам, могут стать популярные музыкальные сервисы и приложения. На рынке уже представлены программы распознавания музыки, способные определять название композиции и имя исполнителя по небольшому звуковому фрагменту. Разработка профессора Калифорнийского университета в Беркли может существенно улучшить функционал таких приложений.

Продвинутый искусственный интеллект научился превращать сигналы человеческого мозга в речь

Человечество еще крайне далеко от создания универсальных нейроинтерфейсов вида «мозг–компьютер», но ученые уже неплохо справляются с отдельными задачами. Мы можем собрать массу данных о сигналах в мозге, но как именно их интерпретировать? В прошлом году канадские специалисты разработали алгоритм распознавания лиц увиденных людей по сигналам мозга. А недавно их американские коллеги создали метод декодирования сигналов из зоны слуха в мозге в понятную человеческую речь.

В основе эксперимента лежало изучение восприятия информации на слух разными людьми с позиции наблюдения за реакцией их мозга. Пятерым пациента внедрили электроды для считывания сигналов, после чего четыре исполнителя поочередно рассказали им одну и ту же историю. Слово в слово, но каждый со своей интонацией, громкостью, тембром и т.д. – важно было увидеть, как мозг реагирует на смысл слов, а не их подачу. Компьютеры записали сигнатуры сигналов для анализа, после чего началась испытательная фаза.

Подопытным озвучивали слова, фразы и выражения из услышанной истории в произвольном порядке. Наблюдатели отмечали их реакцию, собирали сигнатуры сигналов мозга, чтобы потом отыскать совпадения с ранее сделанными записями. Все эти данные и выявленные закономерности загрузили в нейронную сеть, чтобы обучить ее проводить параллели между словами и сигналами. А затем в тест добавили слова, которых не было в оригинальной истории – нейросеть по косвенным данным угадала и правильно воспроизвела их звучание в 75 % случаев.

Сейчас команда работает над новым алгоритмом, который позволит распознавать еще и смысл того, о чем думает человек. Речь уже идет если не о технологии чтения мыслей, то о чем-то близком. Как минимум — об интерфейсе для общения с теми, кто в силу физиологических проблем не может разговаривать привычным способом.

Добавить комментарий