10 рецептов машинного обучения от разработчиков Google


Оглавление (нажмите, чтобы открыть):

10 рецептов машинного обучения от разработчиков Google

Искусственный интеллект перестает быть чудом из научной фантастики и постепенно становится частью нашей повседневной жизни. Это может быть программа, способная обыграть профессионала в го, или автоответчик в Inbox от Gmail. Однако многие до сих пор не до конца понимают, что такое машинное обучение и почему оно так важно. Например, знаете ли вы, что нужно сделать компьютеру, чтобы распознать собаку на фотографии? В этой статье Майя Гупта из отдела машинного обучения Google ответит на самые распространенные вопросы об этой технологии.

Для начала – что такое машинное обучение?

Машинное обучение – это процесс, в ходе которого система обрабатывает большое число примеров, выявляет закономерности и использует их, чтобы прогнозировать характеристики новых данных.

Рассмотрим автоматические рекомендации. Предположим, есть миллиард пользователей и каждый из них сообщил системе названия десяти любимых фильмов. Это – группа примеров. Компьютер проанализирует ее и определит, что объединяет эти фильмы. Затем он найдет закономерность в выборе пользователей. Допустим, любителям фильмов ужасов не нравятся мелодрамы, зато люди часто предпочитают кино со знакомыми актерами. Теперь, если компьютер узнает, что вам нравится «Сияние» с Джеком Николсоном, он сделает вывод, что вам стоит предложить комедию «Любовь по правилам и без», в которой также снимался Джек Николсон, и сможет рекомендовать другие видео на YouTube.

Звучит просто. Но как это работает?

Процесс поиска закономерностей очень сложен. Система ищет их даже на уровне пикселей. Например, что нужно сделать Google Фото, чтобы найти фотографии по запросу «собака»? Во-первых, обработать огромное количество фотографий собак из Интернета, столько же изображений с ярлыком «кошка» и миллионом других ярлыков.

Во-вторых, нужно найти последовательности пикселей и сочетания цветов, характерные для картинок с собаками, кошками и другими объектами. Сначала система только предполагает, какие наборы данных могут быть изображениями собак. Затем она соотносит свои догадки с фотографией собаки. Если окажется, что система по ошибке приняла собаку за кошку, она исправит закономерности, которые использует для поиска картинок с собаками и кошками. Это повторяется около миллиарда раз: анализ образца – проверка ответа – корректировка закономерностей.

В конце концов закономерности сформируют модель – глубокую нейронную сеть, – которая в большинстве случаев сможет правильно распознавать на изображениях собак, кошек, людей и не только.

Невероятно! В каких ещё сервисах Google используется машинное обучение?

Мы используем алгоритмы машинного обучения во многих продуктах. Именно благодаря такому алгоритму Google Переводчик может найти слова на вывеске или в меню и моментально перевести их на другой язык.

Также машинное обучение включается при распознавании речи – функции, которая есть не только в Google Переводчике, но и в других сервисах, например YouTube и приложении Google.

Искусственный интеллект и машинное обучение – это одно и то же?

Искусственный интеллект и машинное обучение все понимают по-разному. В целом, программы, которые решают простые для человека задачи, можно назвать искусственным интеллектом. Известно, что людям легче понять что-то, если объяснить это на примере. Машинное обучение позволяет компьютерам также учиться на примерах.

Мы можем научить программу обрабатывать большое количество данных. В результате она будет решать сложные задачи, например играть в настольные игры, прокладывать на карте множество маршрутов одновременно, оптимизировать расход энергии по всей стране и, конечно же, искать в Google информацию, которая нужна вам в данный момент.

Почему Google придает машинному обучению такое большое значение?

Машинное обучение – дисциплина, которая зародилась ещё в XVIII веке как часть теории статистики. Но сегодня она актуальна как никогда.

Мы постоянно улучшаем свои сервисы, поэтому нам нужно научить их делать более точные прогнозы и выполнять те задачи, которые не вызывают трудностей у человека. Интернет ‒ это практически неисчерпаемый источник данных, необходимых для машинного обучения. Взять те же фотографии собак. Только представьте, сколько их опубликовано онлайн!

Но имея один только доступ к базе примеров, компьютер ничему не научится. Ему нужна обучающая программа. За последние несколько лет различным ИТ-компаниям, включая Google, удалось создать невероятно сложные и мощные программы машинного обучения.

Впрочем, они пока неидеальны, как и компьютеры в целом, поэтому нам ещё предстоит внести в их работу множество изменений. Это потребует огромной вычислительной мощности и специальных ресурсов для параллельной работы программ. К счастью, нам помогают последние достижения в области программного и аппаратного обеспечения.

Есть ли какая-то невыполнимая на данный момент задача, с которой компьютеры научатся справляться в ближайшем будущем?


Ещё недавно программы с функцией распознавания речи с трудом различали цифры. Сегодня приложение Google без труда понимает любые голосовые запросы. И это далеко не предел. Технологии машинного обучения стремительно развиваются.

Возможно, однажды машинное обучение облегчит нам шопинг! Я, например, терпеть не могу примерять одежду. Если джинсы какого-то производителя хорошо на мне сидят, я куплю пять пар, чтобы не мучиться с примеркой. Конечно, одежда – это не совсем по части Google, но можно создать сервис, который будет рекомендовать подходящие бренды, как наши сервисы рекомендуют фильмы, музыку и другой контент.

Каким будет машинное обучение через 10 лет?

Сейчас многие ИТ-компании ищут ответ на вопрос, как повысить скорость обучения компьютеров, сократив объем данных, необходимых для анализа. Для решения этой проблемы мы используем такой подход, как регуляризация. Он заключается в том, чтобы наделить компьютеры здравым смыслом.

Но что такое здравый смысл для машины? Говоря простым языком, если на фотографии изображена собака в ковбойской шляпе, компьютер должен по-прежнему считать эту картинку изображением собаки, а не ковбоя.

Поэтому мы стремимся к тому, чтобы программы машинного обучения не учитывали такие незначительные детали. Самое сложное при этом – научить систему понимать, какие элементы являются важными, а какие нет. Над этим ещё придется поломать голову.

Что побудило вас заняться машинным обучением?

Я выросла в Сиэтле, где много узнала об исследованиях американского Запада, в частности экспедиции Льюиса и Кларка. Работая в сфере машинного обучения, я тоже чувствую себя исследователем: мы совершаем технологические открытия и прокладываем путь к лучшему будущему.

Мастер Йода рекомендует:  Заработок в онлайн играх совмещаем полезное с приятным

Какой девиз подходит отделу машинного обучения Google?

Не получилось с первого раза – попробуйте ещё миллиард.

Страница поста от канала Библиотека программиста

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме

Пожаловаться

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме

10 рецептов машинного обучения от разработчиков Google

69’510 подписчиков
14’726 просмотров на пост

Полезные материалы по всему, что может быть интересно программисту.

Детальная рекламная статистика будет доступна после прохождения простой процедуры регистрации

  • Детальная аналитика 70’046 каналов
  • Доступ к 28’004’146 рекламных постов

  • Поиск по 112’332’059 постам
  • Отдача с каждой купленной рекламы
  • Графики динамики изменения показателей канала
  • Где и как размещался канал
  • Детальная статистика по подпискам и отпискам

Найдено 1677 постов

TOП-50 Python-проектов в 2020: самые востребованные инструменты

Визуализация алгоритма Косарайю (Kosaraju’s Algorithm)

ТОП-6 возможностей console, о которых вы не знали

JWT простым языком: что такое JSON токены и зачем они нужны

Хватит говорить об Agile. Почему нельзя просто работать?

Простое симпатичное CLI приложение для Node.JS

Сколько постов вы хотите видеть на нашем канале ежедневно?

▪️ 23% (759) Больше трёх
������

▫️ 15% (493) Мне всё равно
����
�� 3240 — всего голосов

Как использовать Xdebug для отладки PHP-кода

Правильный код: правила хорошего тона начинающего программиста

Использование сетки в Bootstrap 4: принципы работы и адаптивность

Вычисления без потребления электроэнергии. Что? Да!


Как найти ментора в IT-сфере и откуда начать поиски?

Разбираемся, как работают операционные системы

Асинхронное программирование: концепция, реализация, примеры

Лучшие актуальные шпаргалки по C# на все случаи жизни

Как обмануть мозг и эффективно учиться программированию

​​Прокачай себя в финтехе и попади на форум в Сочи!

Ты студент, аспирант или недавний выпускник? Заполни заявку на участие, пройди отборочный конкурс и попади на сочинский Молодежный день Fintech 17-19 октября в рамках форума FINOPOLIS 2020.

Победителей конкурса Молодежного дня ждут:
— Реальные задачи и фидбек от лидеров рынка.
— Возможность познакомиться с топ-менеджерами ведущих российских банков и IT-компаний.
— Награды и призы от оргкомитета и партнеров FINOPOLIS 2020.
— Перелёт и проживание оплачиваются организаторами.

Сравнение облачных GPU для машинного обучения

Результаты тестов популярных GPU для машинного обучения: Amazon AWS, Google Cloud Engine, Hetzner, Leader GPU, IBM, Paperspace.

Тестируемые GPU платформы

В этот тест включены: Amazon Web Services AWS EC2, Google Cloud Engine GCE, IBM Softlayer, Hetzner, Paperspace and LeaderGPU.

Поскольку многие современные задачи машинного обучения используют графические процессоры, понимание компромиссов по стоимости и производительности различных поставщиков GPU становится решающим.

Я хотел бы поблагодарить провайдеров GPU для машинного обучения за любезное предоставление нам тестовых кредитов и отличную поддержку в течение всего моего тестирования. Каждая платформа имеет свои собственные плюсы и минусы, а рынок GPUaaS — очень интересное и оживленное пространство.

Отмечу что, единственный крупный провайдер, который не отвечал, на самом деле у нас не было ответа даже по официальным каналам поддержки, был Microsoft Azure. Сделайте свои собственные выводы.

Мы рассмотрим два типа графических процессоров на основе цен инстансов на каждой платформе — « low-end» и « high-end» (см. Таблицу 1). Цель состоит в том, чтобы показать, стоят ли дорогие инстансы своих денег.

Настройка Benchmark для машинного обучения

Постановка задачи

В RARE Technologies, мы часто занимаемся проблемами обработки естественного языка (NLP), поэтому я остановился на задаче классификации настроений для бенчмарка. Двунаправленная сеть долгой краткосрочной памяти (LSTM) обучается выполнять двоичную категоризацию твитов. Выбор алгоритма не очень важен; моим единственным истинным требованием для этого бенчмарка является то, что он должен загружать GPU. Чтобы обеспечить максимальное использование графического процессора, я воспользовался быстрой реализацией LSTM Keras (v2.1.3), поддерживаемой CuDNN — слоем CuDNNLSM.

Набор данных

В качестве набора данных мы взяли Twitter Sentiment Analysis Dataset, содержащий 1 578 627 классифицированных твитов, каждая строка помечена 1 для положительной тональности и 0 для отрицательной тональности. Модель обучается в течение 4 эпох на 90% перемешанных данных, а оставшиеся удерживаемые 10% используются для оценки модели.


Docker

В целях воспроизводимости я создал Nvidia Docker image, который содержит все зависимости и данные, необходимые для повторного запуска этого бенчмарка . Dockerfile и весь необходимый код можно найти в этом архиве Github.

Мы публикуем настройки и код в полном объеме, не только для того, чтобы каждый мог воспроизвести эти результаты, но так же чтобы вы могли подключить свою собственную HW платформу или другой алгоритм выбора, чтобы сделать свой собственный бенчмарк.

Результаты

* Это multiple GPU инстансы, в которых модели прошли обучение на всех графических процессорах с использованием функции multi_gpu_model, которая позже была признана не оптимальной при использовании нескольких графических процессоров.

** Это multiple GPU инстансы, в которых модели прошли обучение с использованием только одного из своих графических процессоров из-за вышеуказанных причин.

+ Hetzner предоставляет выделенные серверы ежемесячно. Цифры здесь отражают почасовые пропорциональные затраты.

Простота заказа, настройки и удобство пользования

Заказать инстанс на LeaderGPU и Paperspace было проще простого без каких-либо сложных настроек. Время предоставления ресурсов для Paperspace и LeaderGPU было порядка пары минут, по сравнению с AWS или GCE, которые предоставили в течение нескольких секунд.

LeaderGPU, Amazon и Paperspace предлагают в свободном доступе Deep Learning Machine Images, которые идут в комплекте с предустановленными драйверами Nvidia вместе со средой разработки Python, и Nvidia-Docker необходим полностью для немедленного начала экспериментов. Для облегчения жизни, особенно для начинающих пользователей, которые просто хотят экспериментировать с моделями машинного обучения, я настроил все с нуля (за исключением LeaderGPU) по старым правилам, чтобы оценить легкость настройки экземпляра по индивидуальным потребностям. В этом процессе я столкнулся с несколькими проблемами, присущими всем платформам, такими как несовместимость драйвера NVIDIA с установленной версией gcc или использование GPU, достигающее 100% после установки драйвера без каких-либо доказательств текущего процесса. Неожиданно, запуск моего Docker на low-end инстансе Paperspace (P6000) привел к ошибке. Эта проблема была вызвана тем, что Tensorflow on Docker строился из источника с оптимизацией ЦП (MSSE, MAVX, MFMA), который Paperspace инстанс не поддерживал. Запуск Docker без этих оптимизаций исправил ошибку.

Что касается стабильности, я не сталкивался с какой-либо проблемой с любой из платформ.

Стоимость

Неудивительно, что выделенные серверы — лучший вариант, чтобы держать расходы под контролем. Это объясняется тем, что Hetzner ежемесячно взимает плату, что приводит к чрезвычайно низким почасовым ценам. На рисунке показаны пропорциональные затраты. Конечно, это справедливо только в том случае, если у вас необходимое количество задач, чтобы сервер был достаточно занят. Среди поставщиков виртуальных инстансов Paperspace является явным победителем. В два раза дешевле обучать модель на Paperspace, чем на AWS в сегменте низкопроизводительных графических процессоров. Кроме того, Paperspace демонстрирует аналогичную экономическую эффективность в классе высокопроизводительных графических процессоров.

Мастер Йода рекомендует:  Кто такие Junior, Middle и Senior специалисты, и чем они отличаются

Рисунок 1: Стоимость обучения двунаправленной LSTM по задаче классификации настроений в twitter (

1,5 миллиона твитов, 4 эпохи) на разных аппаратных платформах GPU

Между AWS и GCE, похоже, происходит изменение тенденции при переходе с графических процессоров с низким уровнем производительности к высокому уровню. GCE значительно дешевле, чем AWS в классе графических процессоров с низким уровнем, и он немного дороже, чем AWS в классе графических процессоров с высокой производительностью. Это говорит о том, что дорогостоящие графические процессоры AWS могут стоить дополнительных затрат.

IBM Softlayer и LeaderGPU кажутся дорогими, в основном из-за недостаточного использования инстансов с несколькими GPU. Benchmark был выполнен с использованием фреймворка Keras, реализация которого на нескольких GPU была неожиданно неэффективной, иногда хуже, чем работа одного графического процессора на том же компьютере. Но ни одна из этих платформ не предлагает single GPU инстанс. Бенчмарк проводимый на Softlayer использовал все доступные графические процессоры, использующие multi_gpu_model, тогда как на LeaderGPU использовался только один из доступных графических процессоров. Это привело к значительным дополнительным расходам для недостаточно используемых ресурсов. Кроме того, LeaderGPU предоставляет более мощные графические процессоры, GTX 1080 Ti & Tesla V100, по тем же ценам за минуту, что и GTX 1080 и Tesla P100 соответственно. Запуск на этих серверах определенно снизил бы общие затраты. Принимая во внимание все это, стоимость low-end LeaderGPU вполне разумна. Имейте это в виду, особенно если вы планируете использовать не Keras фреймворк, который лучше использует несколько графических процессоров.

Также существует другая общая тенденция: более дешевые графические процессоры обеспечивают лучшее соотношение цена / производительность, чем более дорогие графические процессоры, что указывает на то, что сокращение времени обучения не компенсирует увеличение общей стоимости.

Замечание по подготовке обучающих мульти-графических моделей с использованием Keras

Огромному количеству людей в академических кругах и промышленности очень удобно использовать высокоуровневые API, такие как Keras для моделей глубокого обучения. Благодаря одной из наиболее приемлемых и активно разработанных систем глубокого обучения пользователи ожидают ускорения при переключении на многопроцессорную модель без какой-либо дополнительной обработки. Но это, конечно, не так, как видно из графика ниже. Ускорение довольно непредсказуемо. На графике видно, что на сервере «dual GTX 1080» скорость обучения выше, в то время как обучение с multi-GPU заняло больше времени, по сравнению с обучением на single-GPU на сервере «Dual P100». Такое же мнение отражено в других статьях и вопросах на Github , с которыми я столкнулся, исследуя стоимостью.


Рисунок 2: Время обучения, проведенное с помощью multi-GPU и обучения с single-GPU на идентичных машинах с использованием Keras

Точность модели

Для проверки работоспособности мы проверили окончательную точность модели в конце обучения. Как видно из таблицы 1, существенных различий не было, что подтверждает, что базовое оборудование / платформа не влияет на качество обучения и что бенчмарк был правильно настроен.

Стоимость

Цены на графические процессоры часто меняются, но на данный момент AWS предоставляет графические процессоры K80, начиная с $0,9 в час, которые выставляются с шагом в одну секунду, тогда как более мощные и эффективные графические процессоры Tesla V100 стоят от $3,06 в час. Дополнительные услуги, такие как передача данных, Elastic IP адреса и оптимизированные инстансы EBS, предоставляются за дополнительную плату. GCE — экономичная альтернатива, которая предоставляет Tesla K80 и P100 по запросу, начиная с $0,45 в час и $1,46 в час. Они тарифицируются с шагом в одну секунду и предлагают значительные льготы через скидки на их использование.

Paperspace конкурирует с GCE в низкой ценовой категории со ставками для выделенных графических процессоров, начиная с Quadro M4000 по цене $0,4 в час до Tesla V100 по цене $2,3 в час. Помимо обычных почасовых сборов, они также взимают ежемесячную абонентскую плату в размере $5, включающая в себя хранение и обслуживание. Paperspace предоставляет дополнительные услуги за дополнительную плату. Hetzner предлагает только один выделенный сервер с GTX 1080 ежемесячно с дополнительной одноразовой настройкой.

IBM Softlayer — одна из немногих платформ на рынке, которая предоставляет bare metal GPU сервера на ежемесячной и ежечасной основе. IBM Softlayer предлагает 3 GPU сервера с Tesla M60s & K80s, начиная с $2,8 в час. Эти серверы имеют статическую конфигурацию, что означает, что их возможности настройки ограничены по сравнению с другими облачными провайдерами. Стоимость Softlayer с почасовыми надбавками будет финансово невыгодно и может оказаться более дорогостоящим для краткосрочных задач.

LeaderGPU, относительно новый участник на рынке, предоставляет выделенные серверы с широким спектром графических процессоров (P100, V100, GTX 1080, GTX 1080Ti). Пользователи могут воспользоваться ежемесячной, ежечасной или ежеминутной оплатой, которая рассчитывается по секундам. Серверы имеют от 2 до 8 графических процессоров, со стоимостью от 0,02 € до 0,08 € в минуту.

Некоторые из платформ предоставляют значительные скидки (50% -90%) на их запасную вычислительную мощность (AWS spot instances and GCE’s preemptive instances), хотя скидки могут неожиданно закончиться или вновь появиться. Это приводит к крайне непредсказуемому времени обучения, так как нет никакой гарантии, когда инстанс снова появится. Это нормально для приложений, которые могут обрабатывать такие завершения, но многие задачи, например, time-bound projects будут плохо выполняться в таком случае, особенно если вы считаете потраченное рабочее время. Выполнение задач на Spot/Preemptive Instances требует дополнительного кода для корректного завершения и повторного запуска инстансов. (проверка / сохранение данных на постоянный диск и т.д.).

Кроме того, колебания спотовых цен (в случае AWS) могут привести к тому, что затраты будут в значительной степени зависеть от спроса на предложение мощности во время контрольного прогона. Нам потребуется несколько прогонов, чтобы усреднить затраты.

Поэтому, вы можете сэкономить деньги с помощью spot/preemptive инстансов, если вы будете осторожны. Что касается меня, то я не стал включать их в этот бенчмарк из-за этих осложнений.

Бесплатные курсы ИИ и машинному обучению от Google

Машинное обучение, нейросети и ИИ — одни из самых главных тем в сегодняшнем мире IT. Google хочет, чтобы как можно больше людей разбирались в этой области и занимались работой в ней. Поэтому компания запустила курсы по обучению ИИ — совершенно бесплатно.

Google уже какое-то время продвигает образование в области ИИ, как при помощи продвинутых инициатив вроде TensorFlow, так и забавными проектами, демонстрирующими практическую сторону ИИ. Новый сайт должен стать репозиторием, посвященным всему, что связано с машинным обучением и ИИ. Хабом для тех, кто только изучает концепции, для тех, кто уже разрабатывает или оттачивает свои навыки, а также для реальных применений. Неважно, новичок вы или продвинутый пользователь — тут будет что почитать и узнать.

Более того, на сайте доступен бесплатный курс Machine Learning Crash Course, разработанный Google для своих же сотрудников, чтобы представить им фундаментальные особенности технологии. В общей сложности он занимает около 15 часов с интерактивными уроками, лекциями и заданиями.

Google представила миникомпьютер для машинного обучения за $150

Устройства на данный момент не были анонсированы официально, журналисты нашли миникомпьютер нового бренда «Google Coral». Пока что он находится в бета-версии, но уже включает в себя: так называемую «плату для разработки», по цене $150; USB-ускоритель за $75; камеру с разрешением 5-мегапикселей за $25.

Мастер Йода рекомендует:  Как с помощью Google Analytics определить ROI для социальных медиа

USB-ускоритель и плата разработчика работают на чипах Google Edge TPU, представляющие собой процессоры ASIC, чей размер не больше ногтя. Предназначены они для работы с искусственным интеллектом, не затрачивая особых усилий. Ну а камера является неким дополнением к «плате» разработчика.

Ознакомление с новыми алгоритмами функцию машинного обучения, крайне тяжелая задача, требующая чтобы были использованы графические процессоры, а так же облачные вычисления. К сожалению ни один из вышеуказанных продуктов Google Coral не способствует развитию машинного обучения. При этом Google Coral подойдут для работы алгоритмов машинного обучения после того, как систему уже обучили.

Специально для этих целей плата разработчика и USB-ускоритель поддерживают TensorFlow Lite, что представляет собой ни что иное, как облегченную версию интегрированной ИИ-инфраструктуры от Google.

USB-ускоритель будет служить для ускорения вывода информации на любой компьютер на Linux. Ну а наличие различных портов на плате разработчика делает её идеальным устройством, для создания аппаратного обеспечения и прочих подобных программ.


Google — далеко не первая компания, выпускающая продукт подобного типа для разработчиков. К примеру пару лет назад Intel выпустила свой USB-ускоритель — Neural Compute Stick. Такие продукты помогают компаниям контактировать с сообществом разработчиков, что способствует внедрению различных AI-сервисов.

Задать вопросы по разработке и одноплатникам можно в Telegram чате @proARM

Канал про про одноплатные компьютеры ARMLab

Система машинного обучения Google создала более эффективный ИИ, чем сотрудники компании

В мае Google представила проект AutoML — искусственный интеллект, призванный помогать в создании других ИИ-систем. Теперь компания объявила, что AutoML обогнал разработчиков искусственного интеллекта: ИИ создал программное обеспечение машинного обучения более эффективное и мощное, нежели системы, созданные людьми.

Недавно AutoML побил рекорд в категоризации изображений по их содержимому, достигнув показателя 82 %. Это относительно простая задача, однако ИИ также удалось обогнать созданную человеком систему в более сложной работе, связанной с автономными роботами и дополненной реальностью. Речь идёт о маркировке расположения нескольких объектов на изображении: здесь AutoML достиг показателя 43 %, в то время как человеческая система остановилась на 39 %.

Эти результаты важны, поскольку даже в Google лишь небольшое количество сотрудников имеет достаточно опыта для создания ИИ-систем нового поколения. Для полноценной автоматизации этой сферы нужны редкие навыки, но в итоге это может изменить индустрию до неузнаваемости.

«Сегодня они (продвинутые системы искусственного интеллекта — прим.) вручную создаются учёными из области машинного обучения, и буквально всего несколько тысяч из них во всём мире могут с этим справиться, — говорит генеральный директор Google Сундар Пичаи (Sundar Pichai). — Мы хотим дать возможность делать это сотням тысяч разработчиков».

Сейчас проще настроить существующую систему под новые нужды, чем создать нейронную сеть с нуля. Тем не менее, исследователи предполагают, что это временно. Если ИИ научится достаточно эффективно создавать новые системы, то у людей появится больше времени на их тестирование и тонкую настройку.

Google представила чип ASIC для ускорения машинного обучения

Google представила Edge TPU — ускоритель AI, который будет выполнять задачи машинного обучения на устройствах IoT. Он представляет собой специально разработанный чип ASIC, предназначенный для запуска моделей на движке TensorFlow Lite. Серверные TPU Google оптимизированы для обучения, а новые Edge TPU будут ускорять вывод — ту часть машинного обучения, где алгоритм выполняет задание, например, распознавание объекта на изображении.

Edge TPU разработаны для дополнения Cloud TPU, поэтому помогут ускорить тренировку ML в облаке. Теперь можно будет хранить свои данные в Google Cloud, тренировать алгоритмы с помощью TPU, а затем выполнять вывод на устройстве в реальном времени с использованием новых Edge TPU.

Микропроцессор будет доступен и в составе готовых комплектов для разработчиков Edge TPU Dev Board и Edge TPU Accelerator , которые предназначены для работы с TensorFlow Lite, и поддерживают интеграцию с системами Linux и Android Things.

Google: технология машинного обучения. Продолжение развития

Google не планирует останавливаться, и в очередной раз расширила ассортимент услуг и продуктов, которые используют искусственный интеллект. Компания представила три новых устройства.

Устройства на данный момент не были анонсированы официально, но уже ясно, что они являются частью нового бренда «Google Coral». Пока что он находится в бета-версии, но уже включает в себя: так называемую «плату для разработки», цена которой 149 долларов; USB-ускоритель за 74 доллара; камеру с разрешением 5-мегапикселей за 24 доллара.

USB-ускоритель и плата разработчика работают на чипах Google Edge TPU, представляющие собой процессоры ASIC, чей размер не больше ногтя. Предназначены они для работы с искусственным интеллектом, не затрачивая особых усилий. Ну а камера является неким дополнением к «плате» разработчика.

Ознакомление с новыми алгоритмами машинного обучения, это крайне тяжелая задача, которая требует того, чтобы были использованы графические процессоры, а так же облачные вычисления. К сожалению ни один из вышеуказанных продуктов Google Coral не способствует развитию машинного обучения.

Однако они выполняют другую полезную функцию — делают «умозаключение» ИИ менее ресурсо-затратным и более быстрым. Специально для этих целей плата разработчика и USB-ускоритель поддерживают TensorFlow Lite, что представляет собой ни что иное, как облегченную версию интегрированной ИИ-инфраструктуры от Google.

Естественно, можно запустить модели AI на абсолютно любом старом процессоре, однако результат будет медленными и разочаровывающим. Специально разработанные для этих целей микросхемы, как например процессор «Google TPU», способны выполнить данную работу гораздо эффективнее.

USB-ускоритель будет служить для ускорения вывода информации на любой компьютер на Linux. Ну а наличие различных портов на плате разработчика делает её идеальным устройством, для создания аппаратного обеспечения и прочих подобных программ.

Google — далеко не первая компания, выпускающая продукт подобного типа для разработчиков. К примеру пару лет назад Intel выпустила свой USB-ускоритель — Neural Compute Stick. Такие продукты помогают компаниям контактировать с сообществом разработчиков, что способствует внедрению различных AI-сервисов.

Google открыл доступ к своим инструментам машинного обучения

После нескольких месяцев тестирования компания запустила свой новый проект Cloud Machine Learning, благодаря которому любой желающий сможет подключить к своему проекту систему машинного обучения.

Инструмент позволяет значительно ускорить обучение самообучающихся систем, которые сегодня используются во многих инновационных проектах, начиная от приложений для набора текста и заканчивая медицинскими исследованиями болезни Альцгеймера. В блоге Google сообщается, что проект уже помог, например, компании Airbus решить многолетнюю проблему, связанную с захватом спутниковых изображений.

Помимо этого, в целях большей популяризации нейросетей Google запустил платформу для решения сложных задач, объединяющую бизнесменов, заинтересованных в продукте, и инженеров компании, которые занимаются машинным обучением, а также программу обучения для начинающих пользователей продукта, сообщает Engadget.

Но и на этом усилия Google по продвижению искусственного интеллекта не заканчиваются. Компания также запустила собственную программу сертификации для людей, интересующихся тем, как разрабатывать, обучать и устанавливать высокоэффективные модели машинного обучения. Программа курса основана на внутренних методиках обучения компании и будет преподаваться сотрудниками Google.

Робот-каменщик теперь может выкладывать 1000 кирпичей в час

Ранее на этой неделе Google уже начал использовать нейросети для улучшения качества машинного перевода с китайского на английский язык, для лучшего сжатия изображений, а также в таких популярных сервисах, как Google Документы, Google Диск и Google Календарь.

Добавить комментарий