Википедия создаёт свой собственный поисковый движок, чтобы конкурировать с Google


Оглавление (нажмите, чтобы открыть):

История создания и развития компании Google

Даже 20 лет назад еще сложно было представить, что компьютеры так прочно закрепятся в повседневной жизни каждого человека.

Работать, отдыхать, общаться – все это можно делать, пользуясь устройством с доступом к интернету. А находиться во Всемирной паутине и не знать, что такое Google – это то же самое, что жить в Париже и пропускать мимо глаз Эйфелеву башню.

Передовые технологии поиска и огромное количество полезных сервисов сделали эту компанию истинным королём интернета.

Кем нужно быть, чтобы покорить мир? Кому-то для этого понадобится армия хорошо обученных солдат, а кому-то красота. Но в наше время всё больше людей завоевывают признание и уважения своим умом.

Во многих биографиях известных личностей присутствует описание простых парней, которые начинали творить в собственном гараже. Всё, что у них было изначально – мозги со светлыми идеями.

История Google начиналась именно с таких молодых людей, готовых упорно трудиться ради воплощения своих планов в жизнь:

Путь от нуля к миллиардам

В становлении и развитии Google прослеживается глубокий отечественный след. Талантливый математик Сергей Брин , эмигрировавший в США в пятилетнем возрасте, стоял у самых истоков компании и управляет ей до сих пор:

Чтобы осознать удивительное превращение из « ничего » в гиганта, находящегося на передовой современных технологий, необходимо отметить самые важные этапы в развитии компании Google .

  • 1995 год. Сергей Брин вызвался провести экскурсию по Стэндфордскому университету для студентов, одним из которых был Ларри Пейдж . Студент и « экскурсовод » сразу начали спорить обо всём на свете, что и стало основанием для дальнейшей крепкой дружбы и такого же сотрудничества;
  • 1996 год. Разработка поисковой системы, действие которой основывалось на технологии PageRank , сутью которой является ранжирование сайтов в зависимости от ссылочного веса, получаемого с помощью обратных ссылок. Эта технология стала настоящей революцией, поскольку до этого главным критерием у поисковиков было количество ключевых слов на странице ресурса;
  • 1997 год. Google обрёл свое название. Информации во Всемирной паутине просто невозможно вообразить как много, поэтому Сергей и Ларри решили выбрать в качестве названия число, которое ближе всех находится к « невозможно вообразить как много ». Гугол – это если к единице приписать сто нулей. Написание слова чуть подправили для благозвучности;
  • Август 1998 года. Единственным вопросом Энди Бехтольштайма ( одного из основателей компании Sun ) было: « На чье имя выписать чек ?». Сто тысяч долларов отправились на счет еще не появившегося на свет Google Inc ;
  • Сентябрь 1998 года. Компания переезжает в свой первый офис – гараж. В штате числится уже 3 сотрудника.
  • Февраль 1999 года. В компании уже 8 человек, и она арендует офис в Пало-Альто.
  • Сентябрь 1999 года. Переезд в собственное здание, расположенное в Маунтин-Вью.
  • 2000 год. Google подписывает соглашение с Yahoo , став главным поставщиком услуг поиска информации и крупнейшем поисковиком мира.
  • 2001 год. Компания расширила свое влияние на территории Южной Америки. В индекс поисковика попадает 3 миллиарда документов.
  • 2002 год. В Сиднее начинает работать новый офис.
  • 2003 год. Google покупает Pyra Labs , самой известной технологией которой был Blogger .
  • 2004 год. Главный офис переезжает в новое здание, количество работников увеличилось до 800 человек. Google впервые выходит на биржу, предлагая свои акции в NASDAQ. Ларри Пейдж и Сергей Брин становятся миллиардерами.

В дальнейшем, дела у Google шли всё лучше и лучше, и сегодня уже невозможно представить пользование интернетом без популярных сервисов, которые разработала компания.

Услуги, без которых нам не жить

На протяжении всего своего существования, Google не терял времени даром. Компания разработала огромное количество полезных сервисов, наиболее популярные из которых следует хотя бы перечислить:

  • Google+ – социальная сеть, запущенная в 2011 году. Отличительной особенностью выступает система кругов Google Circles :
  • Google Docs – сервис, позволяющий создавать текстовые документы, таблицы и презентации. Данные можно сохранить в облачном хранилище;
  • Google Drive – виртуальный диск, на котором можно хранить до 15 Гб собственной информации и получать к ней доступ из любой точки земного шара:
  • AdSense – контекстная реклама, которая автоматически размещается согласно тематике страницы;
  • Analytics – инструмент для разработчиков и SEO-оптимизаторов. Предоставляет подробную статистику по работе веб-ресурса:
  • Gmail – электронная почта;
  • Maps – географические карты, с помощью которых можно легко просчитать маршрут до пункта назначения:
  • News – новости, формируемые из заголовков популярнейших изданий мира. Состав категорий отображается согласно предпочтениям пользователя;
  • Play – магазин игровых приложений;
  • Picasa – сервис, позволяющий работать с изображениями.

Свой личный браузер

Одним из выдающихся достижений компании стало создание браузера Google Chrome , который сразу же оказался конкурентоспособен на рынке, где, казалось бы, никакого соперничества быть не может:

В сентябре 2008 года компания анонсировала выход собственного веб-браузера, что стало большой неожиданностью, ведь до этого в Google всячески отрицали подобную возможность, ссылаясь на нецелесообразность.

Бета-версия была выпущена только для Windows , но уже к декабрю, благодаря упорному труду разработчиков, браузер занимал один процент рынка, что за такое короткое время – колоссальный результат.

До 2013 года Chrome основывался на технологии WebKit , но впоследствии перешел на инновационный движок Blink .

В 2009 году Хром стал постоянным браузером 9% пользователей, а через год – уже 15%. На сегодняшний день, около 40 процентов людей, имеющих доступ к интернету, отдают предпочтение именно Google Chrome .

Таким образом, история создания компании Google похожа на одну из сказок о двух мечтателях, сумевших воплотить в жизнь свои идеи. Нет никаких предпосылок для регресса этой компании, и в дальнейшем она будет только развиваться.

Ahrefs хочет платить пользователям за контент и конкурировать с Google в поиске

Сервис Ahrefs думает над тем, чтобы стать конкурентом Google. В данный момент сервисом пользуются те, кто занимается продвижением проектов в сети. Но планы у компании шире, недели быть просто сервисом для вебмастеров. Об этом сообщает Searchengines.

Основатель компании в свою очередь написал об этом в Twitter.

Дмитрий Герасименко считает, что у компании есть шансы, хотя это будет непросто. В первую очередь, потому что у многих есть претензии к Google по вопросам конфиденциальности. Во-вторых, потому что Google зарабатывает более 100 миллиардов долларов в год на поиске, но ни с кем не делится прибылью.

Владелец Ahrefs считает, что справедливой будет схема, когда поисковая система работает по принципу 90/10, то есть, отдаёт 90% прибыли издателям и людям генерирующим контент, 10% оставляя на покрытие своих расходов и прибыль.

Уже сейчас компания открыла вакансии разработчиков, сообщая, что все желающие помочь в этом начинании, могут подать свои заявки на соответствующие должности.

По роду деятельности Ahrefs уже имеет достаточно опыта и понимания того, как устроен современный интернет и работают алгоритмы поиска данных в нём.

Некоторые пользователи, даже несмотря на то, что сообщение было оставлено в социальной сети ещё в марте, засомневались, что в современном мире возможна такая схема ведения бизнеса, на всякий случай уточнили, не первоапрельская ли это шутка. На что получили ответ, что намерения у компании самые серьёзные.

Если вам интересны новости мира ИТ также сильно, как нам, подписывайтесь на наш Telegram-канал. Там все материалы появляются максимально оперативно. Или, может быть, вам удобнее «Вконтакте»? Мы есть даже в Яндекс.Дзене.

Понравилась статья?

Тогда можно поддержать её лайком в соцсетях. На новости сайта вы ведь уже подписались выше? 😉

Или закинуть денег на зарплату авторам.

Или хотя бы оставить довольный комментарий, чтобы мы знали, какие темы наиболее интересны читателям. Кроме того, нас это вдохновляет. Форма комментариев ниже.

Создание собственного поискового движка для сайта на php

Хочу создать поисковый движок для блога. Проблема заключается в большом количестве информации, которую нужно хранить.

На мой взгляд, оптимальный вариант — хранить статьи в XML файлах, а в базе данных хранить ключевые слова(то есть саму статью, заголовок и комментарии, в которых убраны поторяющиеся слова) и ссылку на файл. Все вроде ничего, но при поиске по базе данных только в 1 000 000 записей, время поиска составляет 3.7 секунды, что уже много !

Есть другой вариант: хранить только слова с ссылкой на другую базу данных или файл, где собственно и перечислены статьи, в которых встречаются эти слова. Тесты не проводил, но, на мой взгляд, время поиска не сократится.

Какой есть выход из этой ситуации ? Каким образом современные поисковые движки находят информацию за доли секунды ?

1 ответ 1

Это будет не полноценный ответ, а пояснение на примере ElasticSearch, но, прочитав его, поймете, почему здесь нет полной инструкции (и почему проще использовать тот же ElasticSearch).

В вопросе не указаны конкретные требования к движку, поэтому формализуем их так: поиск по документам с произвольными полями (строки, булевы значения, числа, даты, айпи-адреса, геоточки), как точный, так и неточный, количество документов — несчетно много, точный поиск должен выполняться за миллисекунды, неточный — за сотни миллисекунд при поступлении сотен и десятков запросов в секунду соответственно, движок должен предоставлять возможности для линейного горизонтального масштабирования, т.е. увеличению производительности пропорционально размеру кластера. Предполагается, что у каждого документа есть первичный ключ, по которому он может быть уникально идентифицирован.

Для того, чтобы производить поиск по какому-то атрибуту документа, движок должен построить карту соответствий , чтобы при нахождении соответствии по атрибуту находить вслед за ним и сам соответствующий документ.

Такая структура называется инвертированным индексом, и с ней есть некоторое количество проблем. Во-первых, он стремится быть большим. Чем больше документов, тем больше он разрастается, и его становится все больше и больше, поэтому нельзя надеяться, что он поместится в оперативку. Да и, в экстремальных случаях, в один файл на одной машине. Во-вторых, его нельзя частично перестроить во время добавления нового документа. Эта структура данных должна быть максимально оптимизирована для поиска, для этого нужно эффективно располагать ее в памяти, это (как минимум) убивает запрет на ссылки, а, следовательно, чтобы добавить новый документ в индекс, нужно перестроить все, что будет идти за его позицией. Потенциально это гигабайты данных и не очень быстрая операция даже при размещении всего в оперативке, и в момент каждого перестроения индекс был бы недоступен. Поэтому де-факто эффективный поиск ведется по неизменяемым структурам данных, которые регулярно заменяются на более свежие версии.
Примерно такая теория лежит за индексами, позволяющими искать документы по их атрибутам. Здесь есть огромное поле для оптимизаций (например, для того, чтобы не оперировать гигантскими индексами, ElasticSearch бьет их на сегменты и добивается таким образом near-realtime поиска, когда документы появляются в индексе в течение секунды после добавления).

Но сам движок индексов, конечно, умеет искать документы только по конкретному индексу и совпадению, а поисковый движок должен уметь работать сразу с несколькими атрибутами. Поэтому здесь встает две проблемы: работа с дополнительным слоем абстракции (запросами к движку) и непосредственно объединение запросов. Язык запросов может быть любым (хоть SQL), а вот с объединением все немного сложней. Я боюсь сейчас наврать, но, насколько знаю, в момент выполнения запроса движок создает битсеты для каждого отдельного подзапроса, после чего объединяет их, чтобы получить общий набор документов, удовлетворяющих условию. Про все вот это вот можно почитать по запросу boolean model (я не читал, каюсь).

После этого всего вступает еще одно требование к поисковому движку, без которого он практически бесполезен — результаты требуется ранжировать. Здесь в дело вступает еще одна модель, tf/idf, которая позволяет относительно дешевыми методами получить общую значимость совпадений в документе относительно других совпадений. Если представить, что мы производим поиск по словам «главный» и «распределитель», то, очевидно, документы, у которых десять совпадений слова «главный» и одно слова «распределитель» должны быть менее релевантны, чем документы с десятью совпадениями «распределитель» и одним «главный». Используя модель tf/idf, движок нормализует количество совпадений запроса с документом относительно совпадений запроса со всеми документами вообще; если слово «главный» встречается в каждом втором документе, то его влияние на релевантность запроса минимально, и при расчете «веса» совпадения движок просто поделит реальный вес на (грубо говоря) количество совпадающих документов вообще.
Все вышеописанное не является обязательным, но применяется по умолчанию в движке ElasticSearch.

После всей этой теории можно наконец коснуться более сложных частей движка — например, поиска по тексту (пока что еще даже не нечеткого поиска). ПРоблема с текстом в том, что для поиска документа нужен обратный индекс, а обратный индекс из всей строки целиком не построишь (в этом случае у десятикилобайтового текста был бы индекс, совпадающий исключительно с этим же десятикилобайтовом текстом). Поэтому текст надо разбить на составляющие (обычно — слова), по которым будет построен индекс и впоследствии будет вестись поиск. Это просто невероятно отвратительный момент, который в любом случае отдается на откуп пользователю (т.к. только он знает, по каким совпадениям ему нужен поиск), однако сам движок должен предоставлять функционал для нарезки текста на составляющие. и здесь нужно предоставить следующий функционал:

  • Возможность убирания окончания
  • Возможность включать цифры, скобки, прочие символы в нарезанный результат
  • Разделять или не разделять слова по дефису
  • Заранее избавляться от слишком частоупотребимых слов (вычистить все предлоги)
  • Превратить Ä в А
  • Превратить какой-то входной поток данных в фонетический аналог («здесь» превратить в «сдесь», чтобы даже неуч смог найти что-то этим движком)

И, конечно, все это должно работать для какого-то разумного набора разных языков (в нашем случае — как минимум русского и английского).
После того, как текстовый документ превратился в набор токенов и по ним построился индекс, для корректного поиска по нему нужно еще и проделывать каждый раз для входной поисковой строки — чтобы вводящий «что-то здесь не курится» пользователь искал документы, совпадающие в индексе с «сдесь» и «курица» (кстати, обратите внимание на последний пример — в этом случае запрос очень просто превратился в невалидный, пользователь рискует получить документы по домашнему хозяйству, это еще один балл в корзину «сложность реализации поисковой машины»).

И, наконец, нечеткий поиск. После всего вышеописанного здесь относительно простая схема: берется каждый токен в индексе, сравнивается с преобразованным запросом, вычисляется расстояние Левенштейна, в процессе все несовпадающие токены (и документы вместе с ними) выкидываются в тот момент, когда превышают максимальное допустимое расстояние Левенштейна. Впрочем, не стоит забывать и про то, что пользователь движка наверняка захочет подсветить совпадения и исправления, а это еще очень много боли по внедрению.

После того, как эта машина построена и вроде бы работает, встает еще одна проблема — проблема масштабирования движка. Здесь начинается очень специфичная боль:

  • Все данные не умещаются на одной физической машине
  • При распределении данных по машинам для получения результатов надо выполнить запрос на всех машинах и объединить результаты
  • В результате польза от масштабирования равна нулю, потому что каждый запрос уходит на все машины, и по факту любая машина обслуживает столько же запросов
  • Теперь осталось приплюсовать сюда желание пользователя агрегировать результаты (аналог GROUP BY) и пагинацию результатов, чтобы получить полнейший ад

ElasticSearch использует для этого хак, который при правильном использовании облегчает жизнь. Он изначально делит хранилище документов на шарды — отдельные юниты исполнения — после чего распределяет эти шарды по кластеру. Шарды, как правило, дублируются, поэтому просто при случайном распределении запросов по кластеру можно добиться некоторого снижения нагрузки на каждый отдельный узел. Однако ElasticSearch позволяет хранить и искать на определенном шарде, используя для этого один из атрибутов документа: например, если вы храните географические названия, и вам нужн оискать улицы, то вы в качестве такого атрибута можете использовать идентификатор города, в котором расположена улица, и ElasticSearch потревожит только тот шард, на котором хранятся данные по этому городу.

Эволюция поисковых алгоритмов Яндекс и Google в одной статье

Время чтения: 8 минут

Эволюция поисковых алгоритмов Яндекс и Google в одной статье

Время чтения: 8 минут

Нет времени читать статью?
Но вам требуется продвижение сайта или создание сайта-лидера, идеального для SEO? Тогда вы можете оставить
заявку на продвижение или заявку на создание сайта. Если вы собираетесь продвигать сайт самостоятельно — продолжайте чтение!

Лучшие статьи

Видео

руководство по созданию
SEO текстов

Создание SEO магазинов

Все мы не понаслышке знаем о существующих алгоритмах поисковых систем Яндекс и Google. Именно для соблюдения их «постоянно обновляемых» правил все оптимизаторы ломают свой мозг все новыми и новыми способами попасть в ТОП выдачи поиска. Из последних новшеств, которые ощутили на себе владельцы сайтов со стороны ПС — это требования к мобильности интернет-ресурсов и понижение в поиске тех площадок, которые не умеют покупать ссылки. Какие алгоритмы до этого времени, внедренные в поиск, существенно повлияли на ранжирование сайтов? На самом деле, не все оптимизаторы знают, какие технологии, когда и зачем были созданы, чтобы максимально справедливо дать позицию каждому сайту в поиске и очистить выдачу от «хлама». Историю создания и развития поисковых алгоритмов мы и рассмотрим в этой статье.

Яндекс: виды алгоритмов с зачатия до сегодня

Алгоритмы не создавались все в один день, и каждый из них проходил много этапов доработки и преобразования. Основная масса названий алгоритмов Яндекса состоит из названий городов. Каждый из них имеет свои принципы работы, точки взаимодействия и уникальные функциональные особенности, гармонично дополняющие друг друга. Какие алгоритмы есть у Яндекса и как они влияют на сайты, рассмотрим далее.

Помимо информации о поисковых алгоритмах полезной будет и статья про новые фишки в Яндекс Директ. Советы по созданию качественного SEO-контента подходящего для поисковиков Гугл и Яндекс я предлагаю вам прочесть по этой ссылке.

Магадан

Алгоритм «Магадан» распознает аббревиатуры и отожествляет существительные с глаголами. Был впервые запущен в тестовом режиме в апреле 2008, а вторая постоянная версия вышла в свет в мае того же года.

Особенности

«Магадан» выдает пользователю, который написал аббревиатуру, сайты и с расшифровками. Например, если в поисковой строке вбили запрос МВД, то кроме площадок с таким ключевым словом в списке будут присутствовать и те, у кого аббревиатуры нет, но есть расшифровка «Министерство внутренних дел». Распознавание транслитерации дало пользователям возможность не думать на каком языке правильно писать названия, к примеру, Mercedes или Мерседес. Ко всему этому Яндекс включил в список индексирования почти миллиард зарубежных сайтов. Распознавание частей речи и признание их равноценными поисковыми запросами выпустили в один поиск сайты с разными ключевыми фразами. То есть теперь по ключевику «оптимизация сайтов» в выдаче выводятся и площадки с вхождением словосочетания «оптимизировать сайт».

Результаты

После запуска алгоритма «Магадан» стало труднее, в основном, малоавторитетным сайтам. В ранжировании понизились позиции по релевантным запросам малопосещаемые и молодые ресурсы, а на первые места выдвинулись авторитетные, даже с некачественным контентом, учитывая при этом морфологию и разбавленность ключевиков. Из-за учета транслитерации в ТОП Рунета вышли и зарубежные ресурсы. То есть оптимизированный текст по теме мог оказать на второй странице, только потому, что, якобы, по этой же тематике есть более посещаемый сайт или аналогичный зарубежный. Из-за этого резко возросла конкуренция по низкочастотным ключевикам и иностранным фразам. Подорожала и реклама — ставки возросли, потому что ранее сайты конкурировали только по одному конкретному запросу, а теперь и с «коллегами» с морфологическими фразами, транслитерацией, переходящими в другую часть речи словами.

Находка

Алгоритм «Находка » — расширенный тезаурус и внимательное отношение к стоп-словам. Выпущен «на ринг» сразу после «Магадана». Ранжирует основную выдачу с сентября 2008.

Особенности

Это инновационный подход к машинному обучению — ранжирование стало четче и корректней. Расширенный словарь связей и внимательность к стоп-словам в алгоритме «Находка» очень сильно повлияли на поисковую выдачу. К примеру, запрос «СЕО оптимизация» теперь ассоциировался и с ключем «сеооптимизация», а коммерческие сайты разбавлялись информационными порталами, в том числе в списке появились развернутые сниппеты с ответами, по особенному отображалась Википедия.

Результаты

Коммерческие сайты сделали больший акцент на продажные запросы, так как конкуренция увеличилась по информационным не конкретным фразам в несколько раз. В свою очередь, информационные площадки смогли расширить свою монетизацию с помощью страниц рекомендаций, участвуя в партнерских программах. Топовые инфосайты, продвинутые по коммерческим запросам стали продавать ссылки на заказ. Конкуренция ужесточилась.

Арзамас

Алгоритм «Арзамас» — внедрена лексическая статистика поисковых запросов и создана географическая привязка сайта. Первая версия «Арзамаса» (апрель 2009) без геозависимости выпущена сразу в основную выдачу, а «Арзамас 2» с классификатором по привязке сайта к региону анонсирован в августе 2009.

Особенности

Снятие привязки к омонимам облегчила пользователю жизнь, ведь теперь по фразе «американский пирог» выдавались только сайты на тему фильмов, без всяких там рецептов десертов, как могло быть раньше. Привязка к региону совершила прорыв, сместив ключевые фразы с добавкой города на несколько пунктов вниз. Теперь пользователь мог просто ввести слово «рестораны» и увидеть в лидерах только сайты из города его местонахождения. Если помните, раньше нужно было бы ввести более конкретную фразу, например «Рестораны в Санкт-Петербурге», иначе Яндекс мог выдать ответ «уточните запрос — найдено слишком много вариантов». Геонезависимые ключевые слова выдавали только релевантные запросу сайты из любых регионов, без привязки.

Результаты

Ура! Наконец-то сайты из небольших регионов перестали конкурировать с крупными мегаполисами. Выйти в ТОП по своему региону теперь намного проще. Именно в этот период времени была предложена услуга «региональное продвижение». Алгоритм «Армазас» дал возможность мелким компаниям быстрее развиваться в своей местности, но подвох все равно остался. Яндекс не мог определить геолокацию у всех площадок. И как вы сами понимаете — без привязки ресурсы оставались, мягко говоря, в одном не очень приятном месте. Рассмотрение заявки на геозависимость могло длиться несколько месяцев, а молодые сайты без трафика и ссылочной массы (было ограничение по ТИЦ), вообще, не могли подать запрос на присвоение им региональности. Палка о двух концах.

Снежинск

Алгоритм «Снежинск» — усиление геозависимости и уточнение релевантности запросов к выдаче с помощью технологии машинного обучения «Матрикснет». Анонс состоялся в ноябре 2009, а улучшенная модель под именем «Конаково» заработала в декабре того же года.

Особенности

Поисковая выдача стала более точной к вводимым вопросам. Особую роль теперь играет привязка по геолокации — коммерческие сайты не ассоциировались у алгоритма «Снежинск» с регионами, поэтому выпадали из выдачи. Ключевые слова, не привязанные к местности, отожествляются с информационными ресурсами. Сложная архитектура подсчета релевантности сильно усложнила жизнь оптимизаторов, которые заметили, что при малейшем изменении одного из показателей, позиция сайта в выдаче моментально изменялась.

Мастер Йода рекомендует:  Введение в JadePHP

Результаты


На тот момент было отмечено, что закупка внешних ссылок на молодые сайты влияла на показатели новых ресурсов слишком вяло, если сравнить аналогичную закупку на площадку, давненько находящуюся на интернет-рынке. Новые методы определения релевантности контента к поисковым запросам выбрасывали из выдачи сайты, тексты которых были перенасыщены ключевыми фразами. Началась новая эра качественного текста, где во всем должна была быть мера, без нее площадка могла просто попасть под санкции за спам. Коммерческие ресурсы забили панику, потому что выйти по геонезависимым ключевым словам в ТОП (а они были самые высокочастотные) было практически нереально. В связи с этим на блоге Яндекса была опубликована запись, что в идеале хотелось бы видеть на первых страницах коммерческие организации, которые не пишут красиво, а выполняют свою работу хорошо, но для этого придется научить алгоритмы оценивать качество предлагаемых услуг. Так как на данный момент это оказалось непосильной задачей, репутация коммерческих интернет-ресурсов играла ключевую роль в выдаче, как в онлайне так и в оффлайне.

Обнинск

Алгоритм «Обнинск» — улучшение ранжирования и расширения базы географической принадлежности интернет-площадок и снижение влияния на показатели сайта искусственных СЕО-ссылок. Запущен в сентябре 2010.

Особенности

Падает популярность закупки ссылочных масс, появляется понятие «ссылочного взрыва», которого теперь боялись все. Конкуренты могли навредить друг другу возможностью введения алгоритма в заблуждение, закупив на «коллегу» огромное количество ссылок с «плохих источников». После этого конкурент выпадал из поисковой выдачи и долго не мог туда попасть. Геозависимые слова чаще добавляются на разные страницы коммерческих сайтов, чтобы обратить внимание робота на работу с этим регионом.

Результаты

Коммерческие сайты теперь тщательней относятся к своей репутации, что не может не радовать, но многие все равно прибегали к грязным методам (искусственно завышали посещаемость и покупали отзывы). После выпуска алгоритма «Обнинск» более популярной стала закупка вечных ссылок и статей, обычная покупка ссылок уже так не влияла на ранжирование, как раньше, а в случае попадания источника бэклинка под санкции могла потянуть за собой цепную реакцию. Качественные СЕО-тексты — обязательный атрибут любого ресурса. Молодой сайт с уникальным и правильно оптимизированным контентом мог попасть в ТОП.

Краснодар

Алгоритм «Краснодар» — внедрение технологии «Спектр» для разбавления поисковой выдачи, расширения сниппетов и индексация социальных сетей. Запуск состоялся в декабре 2010 года.

Особенности

Технология «Спектр» была создана для классификации запросов по категориям и использовалась в случаях ввода не конкретизированных ключевых фраз. «Краснодар» разбавлял поисковую выдачу, предлагая такому пользователю больше разнообразных вариантов. Например, при фразе «фото Москвы» в поиске можно было увидеть не только общие пейзажи, но и фотографии по категориям типа «достопримечательности», «карты», «рестораны». Был сделан акцент на уникальные названия чего-либо (сайтов, моделей, товаров) — конкретика стала выделяться. Расширенные сниппеты дали возможность сразу в поисковой выдаче показывать пользователям контакты и другие данные организаций.

Результаты

Сильно изменилось ранжирование коммерческих сайтов, особое внимание уделяется деталям (карточкам товаров, разделением короткого описания от общего). Социальная сеть в ВК начала индексироваться и профили участников равноценно теперь видны прямо в поисковой выдаче. Сообщения в форумах могли занимать первые позиции, если имели более расширенный ответ на вопрос пользователя, чем другие сайты.

Рейкьявик

Алгоритм «Рейкьявик» — создана персонализация поисковой выдачи и добавлена технологи «Колдунщики» для отображения предварительных итогов запроса. Улучшена формула подсказок при вводе. Алгоритм запущен в августе 2011 года.

Особенности

Девизом персонализированного поискового результата — «Каждому пользователю — своя выдача». Система запоминания интересов ищущих работала через куки, поэтому если запросы пользователя чаще были связаны, например, с зарубежными ресурсами, в следующий раз в лидерах поисковой выдачи отображались именно они. Подсказки в поисковой строке обновляются каждый час, тем самым расширяя возможности конкретизированного поиска. Конкуренция по высокочастотным запросам возрастает с неимоверной силой.

Результаты

Авторитетные новостные сайты чаще попадают в ТОП из-за расширенного семантического ядра (наличие огромного количества разных низкочастотных ключевых запросов). Увеличение количества страниц под конкретные поисковые запросы на информационных сайтах стала играть одну из главных ролей после выпуска алгоритма «Рейкьвик». Каждая площадка пыталась попасть в закладки пользователя, чтобы стать частью системы персонализации, для этого использовались методы подписки на RSS ленту, всплывающие баннеры-подсказки для занесения сайта в закладки. Интернет-ресурсы начали больше уделять внимания индивидуальному подходу, а не давить на массы.

Калининград

Алгоритм «Калининград» — глобальная персонализация поиска и поисковой строки, упор на поведенческие факторы. Запуск «Калининграда» в декабре 2012 существенно повысил стоимость seo услуг.

Особенности

Интересы пользователя перевернули с ног на голову всю поисковую выдачу — владельцы сайтов, ранее не заботившиеся о комфорте пребывания посетителя на сайте, стали терять трафик с молниеносной скоростью. Теперь Яндекс делил интересы на краткосрочные и долговременные, обновляя свои шпионские базы раз в сутки. Это означало, что сегодня и завтра по одному и тому же запросу одному и тому же пользователю могла показываться совершенно иная выдача. Интересы теперь играют особую роль и пользователю, который ранее интересовался поездками, вбивая фразу такси — показываются услуги такси, а тому, кто постоянно смотрит фильмы — получит в результатах поиска все о кинокомедии «Такси». В поисковой строке каждого «страждущего найти информацию» теперь на первых позициях отображаются подсказки по предыдущим интересам.

Результаты

Оптимизаторы стали охватывать все больше способов задержать пользователя: улучшалось юзабилити, дизайн, контент создается более разнообразный и качественный. При выходе могли всплывать окна типа «вы уверены, что хотите покинуть страницу» и в пользователя впивалась грустная рожица какого-то существа. Хорошо продуманная перелинковка страниц и всегда доступное меню улучшали показатели активности пользователей, чем повышали позиции сайтов в поисковой выдаче. Малопонятные широкому кругу интернет-пользователей сайты сначала просто понижались в позициях, а после и вообще болтались в конце списка предложенных результатов.

Дублин

Алгоритм «Дублин» — улучшена персонализация с помощью определения текущих целей. Это модернизированная версия «Калининграда» вышла в мир в мае 2013.

Особенности

В технологию внедрена функция слежения за изменчивыми интересами пользователей. То есть при наличии двух совершенно разных поисковых взглядов за определенный период времени, алгоритм предпочтет последний и включит его в поисковую выдачу.

Результаты

Для сайтов практически ничего не изменилось. Продолжается борьба не просто за трафик, а за улучшение поведенческих показателей. Старые макеты сайтов начинают забрасываться, потому что проще делать новый, чем пытаться исправить что-то на старом. Предложение услуг шаблонов сайтов увеличивается, начинается конкуренция за удобные и красивые макеты вебресурсов.

Острова

Алгоритм «Острова» — внедрена технология показа интерактивных блоков в поисковой выдаче, позволяя взаимодействовать пользователю с сайтом прямо на странице Яндекс поиска. Алгоритм был запущен в июле 2013 года, с предложением к вебмастерам активно поддержать бета-версию и использовать шаблоны создания интерактивных «островов». Сейчас технология тестируется в закрытом режиме.

Особенности

Теперь пользователю при поиске информации, которую можно узнать сразу из поиска предлагались «острова» — формы и другие элементы, с которыми можно работать, не посещая сайт. Например, вы ищете конкретный фильм или ресторан. По фильму в поиске и справа от него отобразятся блоки с обложкой фильма, его названием, составом актеров, часами прохождения сеансов в кинотеатрах в вашем городе и формой покупки билетов. По ресторану будет показано его фото, адрес, телефоны, форма бронирования столика.

Результаты

Ничего существенного в ранжировании сайтов сначала не изменилось. Единственное, что стало заметным — это появление вебресурсов с интерактивными блоками на первом месте и справа от поисковой выдачи. Если бы количество площадок, принимавших участие в бета-тестировании было значительным, они могли бы вытеснить обычные сайты за счет своей привлекательности и броскости для пользователей. Оптимизаторы задумались об улучшении видимости своего контента в поисковых результатах, добавляя больше фото, видео, рейтинги и отзывы. Лучше живется интернет-магазинам — корректно настроенные карточки товара могут быть отличным интерактивным «островком».

Минусинск

Алгоритм «Минусинск» — при определении SEO-ссылок как таковых, которые были куплены для искажения результатов ранжирования поиска, на сайт ложился фильтр, который существенно портил позиции сайта. Анонсирован «Минусинск» в апреле 2015, полностью вступил в свои права в мае этого же года. Именно с этим алгоритмом и связана знаменитая Санта Барбара Яндекс.

Особенности

Перед выходом «Минусинска» Яндекс в 2014 для тестирования отключил влияние SEO-ссылок по множеству коммерческих ключей в Москве и проанализировал результаты. Итог оказался предсказуемым — покупная ссылочная масса все еще используется, а для поисковой системы — это спам. Выпуск «Минусинска» знаменовался днем, когда владельцы сайтов должны были почистить свои ссылочные профили, а бюджет, который тратится на ссылочное продвижение, использовать для улучшения качества своего интернет-ресурса.

Результаты

«Авторитетные» сайты, которые добились ТОПа благодаря массовой закупке ссылок, вылетели из первых страниц, а некоторые получили санкции за нарушения правил. Качественные и молодые площадки, не наглеющие по бэклинкам, внезапно оказались в ТОП 10. «Попавшие под раздачу» вебсайты, нежелающие долго ждать, создавали новые площадки, перенося контент и ставя заглушку на старые, либо хитро шаманили с редиректом. Примерно через 3 месяца нашли дыру в алгоритме, позволяющую почти моментально снимать данный фильтр.

Массово начинает дорабатываться юзабилити и улучшаться контент. Ссылки закупаются с еще большей осторожностью, а контроль за бэклинками становится одной из функциональных обязанностей оптимизатора.

По данным на сегодня — при неумелой закупке ссылок — даже за 100 ссылок можно получить фильтр. Но если ссылочную массу правильно разбавлять, то смело можно покупать тысячи ссылок как и в старые добрые. То-есть, по сути — сильно выросли ссылочные бюджеты на это самое разбавление, в роли которого выступил крауд и упоминания.

Владивосток

Алгоритм «Владивосток» — внедрение в поиск технологии проверки сайта на полную совместимость с мобильными устройствами. Полный старт проекта произошел в феврале 2020 года.

Особенности

Яндекс сделал очередной шаг навстречу к мобильным пользователям. Специально для них был разработан алгоритм «Владивосток». Теперь для лучшего ранжирования в мобильном поиске сайт обязан соответствовать требованиям мобилопригодности. Чтобы опередить своих конкурентов в поисковой выдаче интернет-ресурс должен корректно отображаться на любом web-устройстве, включая планшеты и смартфоны. «Владивосток» проверяет отсутствие java и flash плагинов, адаптивность контента к расширению экрана (вместимость текста по ширине дисплея), удобство чтения текста и возможность комфортно нажимать на ссылки и кнопки.

Результаты

К запуску алгоритма «Владивосток» мобилопригодными оказались всего 18% сайтов — остальным пришлось быстренько избавляться от «тяжести» на страницах, которая не отображается или мешает корректно отображаться контенту на смартфонах и планшетах. Основным фактором, который влияет на понижение вебсайта в мобильной выдаче — это поведение мобильного пользователя. Во всяком случае, пока. Ведь идеально мобилопригодных сайтов не так уж много, поэтому свободные места в поиске занимают те, кто способен предоставить пользователю максимально комфортные условия, пусть даже не полностью. Из мобильного поиска неадаптированные к мобильным устройствам сайты не выбрасываются, а просто ранжируются ниже тех, кто достиг в улучшении качества предоставления услуг для смартпользователей лучших результатов. На данный момент самый популярный вид заказов макетов сайтов — адаптивные, а не мобильные, как можно было подумать. Прошедшие все требования алгоритма сайты получают максимальное количество мобильного трафика в своей нише.

Google: история создания и развития алгоритмов

Алгоритмы и фильтры Гугла и до сей поры не совсем поняты русскоязычным оптимизаторам. Для компании Google всегда важным моментом являлось скрытие подробностей по методам ранжирования, объясняя это тем, что «порядочным» сайтам боятся нечего, а «непорядочным» лучше не знать, что их ожидает. Поэтому про алгоритмы Гугла до сих слагают легенды и множество информации было получено только после того, как задавались вопросы поддержке, когда сайт проседал в поисковой выдаче. Мелких доработок у Google было столько, что и не перечесть, а на вопросы, что именно изменилось, зарубежная ПС просто отмалчивалась. Рассмотрим основные алгоритмы, которые влияли на позиции сайтов существенно.

Кофеин

Алгоритм «Кофеин» — на первой странице поиска может находиться сразу несколько страниц одного и того же сайта по бренду, появляется возможность пред просмотра. Запуск произошел в июне 2010 года.

Особенности

Выделение сайтов компаний, в случае поиска по бренду. Возле строки с выдачей появляется «лупа» для предосмотра. Ключевые слова по бренду дают положительную тенденцию роста на позициях интернет-ресурса в целом. Обновился индекс Page Rank, при этом PR повысился на известных и посещаемых площадках.

Результаты

Оптимизаторы стали больше уделять внимания брендированию вебсайтов, включая цветовые схемы, логотипы, названия. Ключевые слова на бренд по-особенному выделяли страницы сайта в поиске, а при переходе с такой фразы посетителя на главный page, его позиции в выдаче росли (если до этого ресурс был не лидером). СЕО-оптимизаторы стали закупать больше ссылок для повышения «цитированности». молодым и малоузнаваемым брендам практически невозможно было пробиться в ТОП выдачи.

Panda (Панда)

Алгоритм «Панда» — технология проверки сайта на качество и полезность контента, включая множество СЕО факторов. Сайты с «черным» SEO исключаются из поиска. Анонсирована «Panda» в январе 2012 года.

Особенности

«Панда» вышла в поиск и почистила его от мусора. Именно так можно сказать после того, как множество не релевантных ключевым запросам web-сайты исчезли из выдачи Google. Алгоритм обращает внимание на: переспам ключевыми словами и неравномерное их использование, уникальность контента, постоянство публикаций и обновления, активность пользователя и взаимодействие его с сайтом. Пролистывание посетителя страницы до конца со скоростью чтения считалось положительным фактором.

Результаты

После включения «Панды» огромное количество сайтов поддались санкциям с боку поисковой системы Google и поначалу все думали, что это связано с участием в ссылочных пирамидах и закупкой ссылочных масс. В итоге, СЕОоптимизаторы провели процесс тестирования алгоритма и проанализировали влияние. Вывод экспериментов заключался в том, что «Панда» все-таки проверяет качество сайта на ценность для посетителей. Интернет-ресурсы перестали копипастить и активно принялись за копирайтинг. Поведенческие факторы улучшались за счет преобразования структуры сайта в более удобные варианты, а перелинковка внутри статей с помощью особых выделений стала важной частью оптимизации. Популярность SEO как услуги стремительно возросла. Замечено, что сайты, не соответствующие правилам «Панды», исчезали из поиска очень быстро.

Page Layout (Пейдж Лайот)

Алгоритм «Пейдж Лайот» — технология по борьбе с поисковым спамом, подсчитывающая на страницах web-сайтов соотношение полезного контента к спамному. Запущен в январе 2012 и обновлялся до 2014 включительно.

Особенности

«Page Layout» был создан после многочисленных жалоб пользователей на недобросовестных владельцев сайтов, у которых на страницах подходящего контента было совсем мало или искомые данные оказывались труднодоступными, а иногда вообще отсутствовали. Алгоритм рассчитывал в процентном соотношении нахождение на странице по входящему запросу релевантного контента и спама. На несоответствующие требованиям площадки накладывались санкции и сайт выбрасывался из поиска. К несоблюдению правил размещения документов также относилось забитая рекламой шапка сайта, когда для просмотра текста требовалось перейти на второй экран.

Результаты

Слишком заспамленные рекламой сайты слетели со своих позиций, даже при том, что контент на страницах был оптимизирован под ключевые слова в меру. Нерелевантные запросам страницы были понижены в поисковой выдаче. Но площадок нагло не соблюдая правила и не беспокоясь о комфортности посетителей оказалось не так уже и много. За три обновления алгоритма приблизительное количество ресурсов, попавших под фильтр, оказалось не более 3%.

(Венеция)

Алгоритм «Венеция» — геопривязка сайта к определенному региону, учитывая при этом наличие названий городов на страницах сайта. Запущен в феврале 2012 года.

Особенности

«Венеция» требовала от вебмастеров наличие на их сайтах страницы «О нас», с указанием адреса местоположения, не обращая при этом внимания, что фактического расположения у компании могло и не быть. В контексте алгоритм искал названия городов, чтобы вывести отдельную страницу по указанному в нем региону. Начала использоваться разметка schema-creator.org, чтобы пояснить поисковому роботу свою географическую привязанность.

Результаты

Сайты выпали в поисковой выдаче по тем регионам, о которых они не упоминают на своих страницах, не учитывая геонезависимые запросы. Оптимизаторы активно включают геозависимые ключевые слова и пытаются создавать микроразметку. Контент на каждой странице персонализируется под каждый конкретный город или регион в целом. Активно стал использоваться локализированный линкбилдинг, чтобы повышать позиции по выбранному региону.

(Пингвин)

Алгоритм «Пингвин» — умная технология определения веса сайтов и качества обратных ссылок. Система редактирования накрученных показателей авторитетности интернет-ресурсов. Запущена в поиск в апреле 2012.

Особенности

«Пингвин» нацелен на войну с закупкой обратных ссылок, неестественным, то есть искусственным, набором авторитетности сайта. Алгоритм формирует свою базу значимых ресурсов, исходя от качества бэклинков. Побуждением на запуск «Пингвина» являлось появление ссылочных оптимизаторов, когда любая ссылка на вебресурс имела одинаковый вес и подымала такой сайт в поисковой выдаче. Кроме этого, в поиске начали ранжироваться наравне со стандартными интернет-ресурсами обычные профили пользователей социальных сетей, что еще больше популяризовало раскрутку обычных сайтов с помощью социальных сигналов. Одновременно с этими возможностями алгоритма система стала бороться с нерелевантными вставками поисковых запросов в keywords и в названия доменов.

Результаты

Пингвин «попустил» множество сайтов в поисковой выдаче за неестественный рост обратных ссылок и нерелевантность контента к запросам пользователей. Значимость каталогов и площадок по продаже ссылок быстро снижалось к минимуму, а авторитетных ресурсов (новостных сайтов, тематических и околотематических площадок) росло на глазах. Из-за введения алгоритма «Пингвин» у, практически, всех публичных сайтов был пересчитан PR. Популярность массовой закупки бэклинков резко упала. Сайты максимально начали подгонять ключевые фразы к контенту на страницах площадок. Началась «мания релевантности». Установка социальных кнопок на страницах в виде модулей имела массовый характер за счет быстрой индексации аккаунтов социальных сетей в поиске.

Pirate (Пират)

Алгоритм «Пират» — технология реагирования на жалобы пользователей и выявления фактов нарушения авторских прав. Старт системы произошел в августе 2012 года.

Особенности

«Пират» принимал жалобы авторов на нарушение их авторских прав владельцами сайтов. Кроме текстов и картинок, основной удар на себя приняли площадки с видео-контентом, которые размещали пиратские съемки фильмов из кинотеатров. Описания и рецензии к видео тоже подверглись фильттрованию — теперь не разрешалось копипастить под страхом наложения санкций. За большое количество жалоб на сайт за нарушения, такая площадка выкидывалась из поисковой выдачи.

Результаты

По результатам первого месяца работы «Пирата» от Google на практически всех сайтах, включая видехостинги и онлайн-кинотеатры, были заблокированы к просмотру миллионы видео-файлов, нарушающих права правообладателей. Вебсайты, имеющие только пиратский контент, оказались под санкцией и выпали из поиска. Массовая зачистка от «ворованного» контента продолжается до сих пор.

HummingBird (Колибри)

Алгоритм «Колибри» — внедрение технологии понимания пользователя, когда запросы не соответствуют точным вхождениям. Запущена система «определения точных желаний» в сентябре 2013 года.

Особенности

Теперь пользователь не изменял фразу, чтобы конкретней найти нужную информацию. Алгоритм «Колибри» давал возможность не искать по прямым точным вхождениям, а выдавал результаты из базы «расшифровки пожеланий». Например, пользователь вбивал в поисковую строку фразу «места для отдыха», а «Колибри» ранжировала в поиске сайты с данными о санаториях, отелях, СПА-центрах, бассейнах, клубах. То есть в алгоритме были сгруппирована стандартная база с человеческими фразами об их описании. Понимающая система изменила поисковую выдачу существенно.

Результаты

С помощью технологии «Колибри» сеооптимизаторы смогли расширить свое семантическое ядро и получить больше пользователей на сайт за счет морфологических ключей. Ранжирование площадок уточнилось, потому что теперь учитывались не только вхождения прямых ключевых фраз и релевантных тексту запросов, но и околотематические пожелания пользователей. Появилось понятие LSI-копирайтинг — написание текста, учитывающего латентное семантическое индексирование. То есть теперь статьи писались не только со вставкой ключевых слов, но и максимально включая синонимы и околотематические фразы.

(Голубь)

Алгоритм «Голубь» — система локализации пользователей и привязки поисковой выдачи к месту нахождения. Технология запущена в июле 2014 года.

Особенности

Месторасположение пользователя теперь играло ключевую роль для выдачи результатов. Органический поиск превратился в сплошную геолокацию. Привязка сайтов к Гугл-картам сыграла особую роль. Теперь при запросе пользователя, алгоритм сначала искал ближайшие по местоположению сайты или таргетированный контент, далее шел на удаление от посетителя. Органическая выдача видоизменилась существенно.

Результаты

Локальные сайты быстро возвысились в поиске и получили местный трафик. Интернет-площадки без геозависимости упали в позициях. Снова началась борьба за каждый город и количественно возросли ситуации, когда начали плодить одинаковые сайты с отрерайченным контентом и привязкой к разной местности. До получения точной информации о внедрении алгоритма «Голубь» в русскоязычном интернет-поиске, многие вебмастера думали, что попали под санкции «Пингвина».


(Дружелюбный к мобильным устройствам)

Алгоритм Mobile-Friendly — внедрение технологии проверки сайтов на адаптивность к мобильным устройствам. Система запущена в апреле 2015 года и успела «обозваться» в интернете как: «Мобильный Армагеддон» (mobilegeddon), «Мобильный Апокалипсис» (mobilepocalyse, mobocalypse, mopocalypse).

Особенности

Mobile-Friendly запустил новую эру для мобильных пользователей, рекомендуя оптимизаторам в срочном порядке обеспечить комфортное пребывание мобильных посетителей на их сайтах. Адаптивность площадок к мобильным устройствам стала одним из важнейших показателей заботы владельцев сайтов о своих посетителях. Неадаптивным веб-площадкам пришлось в кратчайшие сроки исправлять недоработки: избавляться от плагинов, не поддерживающихся на планшетах и смартфонах, корректировать размер текста под расширение разных экранов, убирать модули, мешающие пребыванию посетителей с маленьким экранчиком перемещаться по сайту. Кто-то просто верстал отдельную мобильную версию своего интернет-ресурса.

Результаты

Заранее готовые к такому повороту ресурсы получили особое выделение среди других интернет-площадок в поисковой выдаче, а трафик из разнообразных не декстопных устройств на такие вебсайты повысился более чем на 25%. Совсем неадаптивные сайты были понижены в мобильном поиске. Направленность на мобильность сыграла свою роль — на ресурсах свели к минимуму наличие тяжелых скриптов, рекламы и страницы, естественно, начали грузиться быстрее, учитывая, что большинство пользователей с планшетами/смартфонами используют мобильный интернет, который в разы медленнее, чем стандартный.

Резюме

Теперь вам известно, как по годам развивался поиск как для обычных пользователей, так и для «попавших по раздачу» сайтов. Каждый из вышеперечисленных алгоритмов поиска периодически модернизируется. Но это не значит, что оптимизаторам и вебмастерам стоит чего-то бояться (если конечно вы не используете черное СЕО), но держать ухо востро все же стоит, чтобы неожиданно не просесть в поиске из-за очередного нового фильтра.

Как мы продвигали сайт в «зарубежном» Google

Кейс продвижения в Google Европа от команды «Иващенко и Низамов», всю жизнь работавших в Рунете.

Проект, о котором мы расскажем сегодня, стал одним из немногих, где упор делается на продвижение в Google. Это англоязычная площадка (есть еще и немецкая версия, но ее продвижением занимаются коллеги из Германии).

Часть работ по оптимизации для обеих поисковых систем одинакова, например, базовые технические настройки. Но есть и такие, где подход существенно иной. О них в основном мы и будем говорить в этом кейсе.

Сбор семантики

На момент старта сотрудничества у клиента уже имелось первичное семантическое ядро. Мы его дополнили и получили в итоге около 300 запросов. Не так много, как хотелось бы, но ограничение накладывает тематика – производство высокотехнологичного лабораторного оборудования.

Кроме того, интент многих запросов смешанный (в выдаче есть и коммерческие, и информационные ресурсы), поэтому конкурировать приходится не только с другими производителями, но и с сайтами условной «Википедии».

В целом, сбор семантики происходит так же, как и в случае с проектами под «Яндекс», однако вместо WordStat используется Google Keyword Planner. На наш взгляд, этот инструмент уступает в удобстве отечественному продукту, к тому же, если в аккаунте нет активной рекламной кампании, значения по популярности поисковых фраз отображаются в формате диапазонов.

Так что для получения более точных данных по запросам придется запустить рекламную кампанию.

Написание текстов

Задействовать привычный пул исполнителей оказалось невозможно. У нас есть авторы, выдающие тексты на английском, редакторский состав в состоянии оценить и обработать материал. Но в повседневной практике объемы таких задач минимальны.

Здесь же требовался контент экспертного уровня и строго от носителя языка. Некоторый «харьковский акцент» присутствовал в пробных текстах каждого из четырех копирайтеров, которых мы пробовали (два штатных и два фрилансера).

Мы прибегли к услугам зарубежной Freelancer.com. В нижнем ценовом сегменте (до 15$ за тысячу знаков) – предложений огромное количество. Как правило, они исходят от жителей Пакистана и Индии. Самые ответственные из подрядчиков, ознакомившись с ТЗ, увеличивали ставку в два-три раза.

Попробовали. Акцент изменился, но качество текстов нас по-прежнему не устраивало. Было принято решение искать автора в Европе, опираясь на образование и портфолио. Процесс затягивался.

Мастер Йода рекомендует:  Импортирование информации с чужого сайта на свой сайт в свой дизайн PHP

В конечном итоге исполнителя подобрали в Бостоне по весьма бюджетной (хотя мы, в глубине души, так не считаем) ставке в 50$ за тысячу знаков. Решение оказалось верным: материал удовлетворял нашим требованиям и пожеланиям экспертов со стороны клиента.

Ссылочное продвижение

Отношение Google к важности ссылок довольно существенно отличается от позиции «Яндекса». По многим проектам в «Яндексе» ссылочная составляющая наших работ по оптимизации отошла на второй план. В случае с данным проектом с самого начала было понятно, что наращивание ссылочного профиля будет одним из основных аспектов работы.

Работы предстояло много. По данным специализированных сервисов (для анализа ссылочного профиля конкурентов можно использовать, например, Serpstat, Ahrefs или любой другой сервис, которых существует множество) мы увидели, что у лидеров ниши количество доноров внешних ссылок составляет в среднем несколько тысяч, в то время как у нашего сайта этот показатель был ниже сотни.

В силу того что продажа и аренда через биржи на Западе не развиты, большинство игроков на этом рынке сосредоточено на следующих основных направлениях:

  • аутрич;
  • каталоги;
  • крауд-маркетинг;
  • создание сетей сайтов-сателлитов.

Существуют и более изощренные техники, которые увлеченно дебатируются в кулуарах SEO-конференций, но основные перечислены выше.

Под аутрич мы понимаем налаживание контактов с владельцами потенциальных площадок для размещения обратных ссылок (как правило, тематические блоги и новостные площадки). Помимо высоких трудозатрат на одну ссылку, полученную таким способом, это само по себе дорого. Цена одной ссылки может доходить до нескольких сотен долларов и выше.

Также отметим, что в этом проекте мы не использовали крауд-маркетинг, т. к. тематика лабораторного оборудования не способствует ее широкому обсуждению в соцсетях или на форумах.

Где брать ссылки для англоязычного SEO?

Размещение в каталогах карточки организации со ссылкой на сайт — популярный и не очень затратный способ нарастить ссылочную массу. Два основных источника для поиска подходящих площадок: поисковая выдача Google и информация по сайтам-конкурентам.

Проще всего задать в поисковой строке конструкцию вида «название тематики directory» – в результатах отобразится список тематических каталогов. Большинство из каталогов являются модерируемыми, поэтому для начала заявка должна быть одобрена, что случается далеко не всегда. Важно подготовить уникальное описание компании – это увеличит шансы пройти модерацию.

Помимо тематических ресурсов, в этих целях можно использовать региональные справочники организаций. Как в первом, так и во втором случае за регистрацию могут просить деньги.

Второй источник информации о потенциальных площадках – анализ ссылочного профиля конкурентов. Механика процесса следующая: выгружаются обратные ссылки конкурента из Serpstat и анализируются на предмет наличия сайтов с возможностью добавить ссылку на свой сайт. Большинство из этих площадок все те же каталоги, которые вы по какой-то причине не смогли найти через поиск.

Следующий источник ссылок, и он очень популярен в англоязычном SEO, – это создание сети сателлитов, или PBN (Private Blog Network).

Сам по себе метод старый, но в последнее время он активно восстанавливает позиции в повседневных практиках оптимизации. Эта стратегия стала основной по проекту. Ее преимущества:

  • полный доступ к сайтам-донорам ссылок;
  • возможность оперативно корректировать стратегию;
  • контролируемое качество площадок-доноров;
  • низкий уровень рисков в отношении санкций от поисковой системы;
  • неограниченная масштабируемость.

К недостаткам этого подхода можно отнести относительно высокие трудозатраты и длительность процесса.

Для каждого сателлита регистрируется домен второго уровня, затем на привычном движке создается сайт с уникальными текстами (количество страниц – 5–10) и ставится обратная ссылка на продвигаемый сайт (как на главную страницу, так и на самые важные разделы). Для того чтобы сателлиты передавали продвигаемому сайту больший вес, они дополнительно прокачиваются ссылками из соцсетей и сайтов Web 2.0.

Желательно, чтобы на всех страницах, которые были созданы для продвижения, присутствовал внятный контент. В итоге можно достаточно быстро получить 20–30 обратных естественных ссылок на каждый сателлит.

Процесс создания сайтов Web 2.0 более трудоемкий, однако и потенциальная польза выше. Мы создаем блоги на площадках наподобие www.blogger.com и наполняем их тематическим контентом. В отличие от соцсетей, здесь можно проставить внутритекстовую анкорную ссылку, польза от которой будет выше.

Основная проблема при создании таких блогов – контент. Помимо непосредственно написания уникального текста (не обязательно он должен быть от носителя языка, поэтому здесь есть повод урезать расходы). Если время поджимает, можно использовать простые и быстрые решения. Тексты по мотивам сгенерированных в Youtube субтитров или, например, переводы текстов через Google Translate с последующей редактурой.

Такими ссылками лучше накачивать именно сателлиты, которые выступают в качестве прокладки. В случае возникновения риска наложения санкций со стороны Google, снять ссылку с сателлита будет проще и безопаснее, чем сразу с нескольких площадок.

Промежуточные результаты

Проект продвигается полгода, и у нас есть определенная положительная динамика. Во-первых, растет трафик из поиска.

Во-вторых, улучшаются средняя позиция и видимость по семантическому ядру.

Первые результаты достигнуты за счет внутренней оптимизации (тексты, теги, заголовки, перелинковка). Дальнейший успех проекта зависит от эффективности ссылочного продвижения, и этот аспект на данный момент является приоритетным.

Кейс подготовил Андрей Русов, ведущий аналитик «Иващенко и Низамов».

И по традиции: подписывайтесь на наш T̶e̶l̶e̶g̶r̶a̶m̶-̶к̶а̶н̶а̶л̶ блог на Spark, там ещё много чего интересного .

Материал опубликован пользователем.
Нажмите кнопку «Написать», чтобы поделиться мнением или рассказать о своём проекте.

Как создать свой собственный поисковый движок Google?

Вам никогда не хотелось создать свой собственный поисковый движок Google, который бы искал только на определенных веб-сайтах? Вы легко можете это сделать при помощи инструмента Google Custom Search Engine. Вы можете даже сделать закладку этого движка или поделиться им с другими людьми.

Данный метод работает подобно оператору Google site: operator, но вам не надо писать этот оператор при каждом поиске. Он будет особенно полезен, если вам надо выполнить поиск по большому числу сайтов одновременно.

Поисковый движок Google: создание кастомизированного варианта

Для начала, пройдите на страничку Google Custom Search Engine https://www.google.com/cse/ и кликните по кнопке создания кастомизированного поискового движка (Create a custom search engine). Для этого вам понадобится аккаунт Google. В последствии поисковый движок будет сохранен в вашем аккаунте.

Введите название и описание своего поискового движка – здесь вы можете писать все, что угодно.

Значение на странице имеет только поле ввода списка сайтов для поиска Sites to search. В нем вам надо указать список сайтов, где вы хотите производить поиск. Так, например, если вам надо искать на howtogeek.com и microsoft.com, вам следует ввести:

Здесь символ * — это “джокер”, который может принимать любое значение. Так что символы /* говорят вашему поисковому движку искать все на обоих вышеприведенных сайтах.

С этим полем вы можете делать и более сложные вещи. Но к этому мы еще вернемся чуть позже.

Кликнув по кнопке Next (далее), вы можете указать стиль для результатов поиска и протестировать созданный собой поисковый движок.

Удовлетворившись результатами, кликните по кнопке Next (Далее) внизу страницы, и вы окажетесь на страничке, которая предоставит вам встраиваемый код для вашего поискового движка.

Вы, вероятно, не являетесь веб-разработчиком, так что эту страничку вы захотите проигнорировать. Поэтому кликните по лого Google Custom Search вверху странички.

Чтобы попасть на страничку своего поискового движка, кликните по его названию в списке созданных собой поисковых движков.

Для облегчения доступа, вы можете создать закладку странички со своим поисковым движком. Вы также можете поделиться своим поисковым движком с кем-либо, отправив ему его полный URL, который находится в строке адреса.

Уловки по URL

При создании своего поискового движка не обязательно указывать весь веб-сайт. Так, например, созданный выше поисковый движок ищет по всем областям сайта microsoft.com. При поиске же вы можете счесть, что полезная для вас информация находится на windows.microsoft.com и support.microsoft.com, а информация на answers.microsoft.com вам не нужна.

Чтобы исключить answers.microsoft.com и включить другие поддомены, мы при создании своего поискового движка могли бы использовать следующий список URL:

howtogeek.com/*
windows.microsoft.com/*
support.microsoft.com/*

Обратите внимание, что исключить определенный поддомен нельзя – мы можем лишь включить поддомены в поиск. Вышеприведенный список URL будет искать только по двум поддоменам microsoft.com.

В этом списке вы можете указывать и другие типы URL-адресов:
• Единственная страничка. Вы можете указать лишь одну единственную страничку, введя ее URL, вроде example.com/page.html. Это включит в поиск лишь одну страничку.
• Часть сайта. Вы можете использовать символ * и по-другому. Так, например, адрес support.microsoft.com/kb/* будет искать только статьи из базы знаний Microsoft. Используя же URL-адреса вида example.com/*word*, вы можете заставить свой поисковый движок искать все странички на example.com, в названии которых есть слово word.

Вы можете продолжать подстройку своего поискового движка до тех пор, пока не удовлетворитесь результатами. Для этого вам необходимо лишь кликать по ссылке возврата к шагу 1 (back to step 1), вносить изменения в список URL и затем еще раз тестировать свой полученный поисковый движок.

Удовлетворившись результатами, вы можете даже установить свой поисковый движок в строку поиска своего браузера.

Российская интернет-корпорация Mail.Ru в понедельник запустила собственный поисковый движок, отказавшись от сотрудничества с Google

Mail.Ru переходит на собственный поисковик

Российская интернет-корпорация Mail.ru в понедельник запустила собственную технологию поиска, который будет обрабатывать 100% всех поисковых запросов на портале, сообщила компания.

В период с 2010 года до 2013 года у компании Mail.ru действовал контракт с корпорацией Google, согласно которому Google предоставлял свой поисковую программу. По условиям договора 40% поисковых запросов обрабатывались с помощью технологий Mail.ru, 60% с помощью технологий Google,

рассказал «Газете.Ru» источник, близкий к компании Mail.ru Group. Официально компании не раскрывают условия сотрудничества. По словам источника, договор с компанией закончился «на днях».

До 2010 года поисковые услуги компании Mail.ru предоставлял российский поисковик «Яндекс».

Над разработкой собственной поисковой системы корпорация Mail.ru трудилась несколько лет. За последние полгода компания увеличила объем обработанных данных в два раза — с пяти млрд до 10 млрд документов, а на обработку поисковых запросов было выделено несколько тысяч дополнительных серверов, сообщает компания. За последние несколько лет число сотрудников, занимающихся разработкой поисковой системы, было увеличено с 15 до 200 человек.

В компании Mail.ru довольны запуском собственной поисковой системы и сравнивают его по сложности с процессом космических разработок.

«Удивительно, что стран с собственными поисковыми системами меньше, чем стран, у которых есть собственные космические программы.

Google использует свой китайский ресурс, чтобы создать чёрный список поисковых запросов

Рекомендуемые сообщения

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Войти


Уже есть аккаунт? Войти в систему.

Похожий контент

В браузере Chrome 69 появилась функция автоматического сокрытия субдоменов «www» и «m», что вызвало неоднозначную реакцию сообщества. Нововведение позиционировалось как элемент защитного механизма, но в реальности оказалось чуть ли не обратным по действию.

В результате разработчики приняли решение откатить это изменение в Chrome 70. Там поддомен «www» будет скрыт, но код доработают с учётом возможных проблем. А вот поддомен «m» пока заменять не будут, поскольку возникает путаница: можно открыть мобильный сайт на десктопной системе, но в адресной строке будет указан адрес основного, хотя оформление и другие особенности будут отличаться.
Дабы избежать подобного в будущем, в Google намерены инициировать публичное обсуждение вопроса внесения изменений в веб-стандарты, а субдоменам «www» и «m» присвоить особый статус. Их планируется зарезервировать для особого применения, а уже браузеры будут отображать или скрывать их в зависимости от локальных настроек.
При этом интересно, что в ходе дискуссии из 35 участников только один согласился с необходимостью скрывать субдомены. В качестве альтернатив предлагалось сделать отображение субдоменов менее контрастным (как у Firefox) или скрывать их только у ресурсов Google.
Но самое интересное оказалось то, что поисковый гигант, фактически, самолично добавил изменения в самый популярный браузер, и лишь затем озаботился вопросом его стандартизации. А учитывая, что сам процесс изменения веб-стандартов небыстрый, это, как минимум, вызывает ряд вопросов. Впрочем, учитывая, что Google в перспективе хочет вообще отказаться от URL-адресов и отдавать страницы через собственную инфраструктуру, по аналогии с технологией AMP, неудивительно, что компания начала так агрессивно внедрять нововведения, не заботясь об обратной совместимости.
Судя по последней информации, разработчики Chrome откатили сокрытие субдоменов «www» и «m» в последней сборке. Но в 70-й версии браузер снова будет скрывать «www».

Что-то неладное происходит в недрах компании Google. То разработчики добавляют новый веб-стандарт, даже не обсудив его с сообществом, то включают тестовую функцию всем пользователям. Речь пойдёт о втором.
Несколько дней назад владельцы смартфонов Google Pixel и других под управлением Android 9 Pie обратили внимание, что функция Battery Saver включена, причём даже если аккумуляторы были заряжены полностью. Некоторые даже подумали, что сами включили её и просто забыли. Но, как оказалось, всё дело в Google.

В компании уже подтвердили, что проводили «внутренний эксперимент по тестированию функций экономии батареи», но его невольными участниками оказались все владельцы устройств на Android 9. Ведь в компании по ошибке удалённо запустили изменение настроек и активировали Battery Saver. В Маунтин-Вью уже извинились за это и заявили, что вернули всё, как было.

Как оказалось потом, изменения затронули не только «Пиксели», но также Essential Phone, OnePlus 6, смартфоны Nokia и ряд других. Причём Battery Saver активировался даже в бета-версиях операционной системы.
Для пользователя это вызвало такие последствия:
Приложения с обновлением содержимого, например браузеры, работают только когда открыты на экране; Служба определения местоположения при выключенном дисплее не работает; Приложения в фоновом режиме не работают; Некоторые уведомления не приходят по вышеуказанным причинам. При этом отметим, что Apple, как и Google, давно уже оснастила свои операционные системы механизмами принудительного обновления программного обеспечения. В 2008 году Стив Джобс подтвердил это в интервью The Wall Street Journal. Разумеется, эти механизмы нужны для безопасности, но, как видим, они могут стать причиной и глобальных сбоев. Остаётся надеяться, что это не повторится.

Похоже, новое поколение смартфонов Samsung Galaxy A станет ещё ближе к флагманам. Им уже сейчас приписывают тройные камеры, подэкранные сканеры отпечатков пальцев, а теперь вот ещё и SoC Snapdragon 845!
Пока подробностей о новинке нет. Есть предположение, что эта модель будет эксклюзивом для Китая или же максимум появится ещё и на индийском рынке. Если будет так, то это значит, что смартфон не будет преемником моделей Galaxy A8 и Galaxy A8+. Возможно, его назовут Galaxy A9.

В любом случае, появление такого смартфона будет весьма интересным, так как укажет на определённые изменения в стратегии Samsung. Собственно, и сама компания недавно об этом говорила.
А вот если новинка действительно выйдет лишь в Китае, можно предположить, что она получит необычно низкую для аппаратов Samsung подобного класса стоимость, чтобы конкурировать с китайскими производителями.

Разработчики браузера Brave, ориентированного на конфиденциальность, подали иски в суды в Великобритании и Ирландии с заявлением о том, что крупные IT-компании безнаказанно тиражируют и распространяют данные пользователей без их разрешения.
Заявители уточнили, что намерены добиться от крупных компаний соблюдения правил Европейского стандарта защиты данных (GDPR), согласно которому люди получат больше контроля над своими данными. По словам истцов, Google, Facebook и другие компании используют личную информацию без разрешения пользователя на это.

Речь идёт о том, что, когда человек посещает веб-сайт, его персональные сведения начинают циркулировать по Сети, становясь объектом продажи и целью для таргетированной рекламы. В Google заявили, что уже реализовали защиту от этого и полностью придерживаются правил GDPR. Однако при этом количество рекламы и продаж персональной информации пока не уменьшились.
Любопытно, что разработчиков Brave поддержал создатель Javascript и соучредитель Mozilla Брендан Эйх. А ранее разработчики «рыжего» браузера инициировали проект Fusion по слиянию функциональности Mozilla и Tor. Плюс в будущих версиях программы обещана нативная встроенная защита от отслеживания за переходами по веб-страницам.

Разумеется, если законодатели встанут на сторону истцов, это серьёзно ударит по рекламным компаниям и, в первую очередь, по Google. Исследовательская фирма eMarketer заявила, что в этом году рынок электронный рекламы вырос до 273 миллиардов долларов. А за нарушение GDPR предусматриваются санкции до 4 % общего оборота компании.
Пока что эксперты не оценивают вероятность выигрыша или проигрыша дела по иску. Но сам прецедент уже создан, а значит, в будущем возможны серьёзные изменения на рынке сетевой рекламы, что неизбежно затронет всех.

Компания Google поддерживает два разных приложения для работы с собственной почтой на смартфонах. Есть приложение Gmail, которое является официальным и по умолчанию предустановлено на большинстве устройств, за исключением разве что китайских. А есть Inbox, которое позиционируется как «больше, чем почта». Но на днях компания сообщила, что закрывает этот сервис и связанную с ним программу.

Проект Inbox существовал четыре года, но теперь в Google хотят сосредоточиться только на Gmail. Программа работала на базе основного почтового клиента и должна была упростить работу на мобильных устройствах. Теперь же планируется перенести основную часть функций в Gmail и использовать «более целенаправленный подход» для дальнейшего развития почтового сервиса.
В компании заявили, что подготовили инструкцию по безболезненному переходу, а вся почта осталась на своём месте. Полностью работа Inbox будет прекращена в конце марта 2020 года, приложения удалят из магазинов, а API станет недоступным.

При этом в Google напомнили, что их обновлённый сервис Gmail был запущен в июле этого года. В нём появился переработанный дизайн, «умные» реплики Smart Compose и другие нововведения.
Также новая версия научилась работать в офлайн-режиме, просматривать вложения и отправлять самоуничтожающиеся сообщения. Кроме того, был обновлён официальный мобильный клиент, а не только браузерная версия сервиса.

Таким образом, в Google продолжаю улучшать свою экосистему приложений и оптимизировать их количество и функциональность. Вот бы ещё в компании озаботились удалением ряда мессенджеров и созданием одного-единственного, который был бы совместим со всеми. Возможно, рано или поздно компания придёт и к этому. Ведь хоть отдельные приложения и хороши сами по себе, в условиях «зоопарка» различных стандартов нужно либо создавать и продвигать свой, либо делать универсальные программы.

Обзор конструктора сайтов Google Sites

Целевая аудитория

Компания Google предлагает использовать сервис Google Sites в качестве конструктора внутрикорпоративных, обучающих и частных бизнес-сайтов. Он весьма популярен за рубежом, поскольку прост в использовании, бесплатен и является продуктом бренда, который многие буквально обожают на западе. Очевидно же, что поисковый гигант не сделает плохо: по идее, и с поисковой оптимизацией должно быть всё отлично, и с функциональностью. Тем не менее, сервис подходит для решения простых поточных задач, создание бизнес-сайтов – точно не его специализация.

На практике Google Sites – довольно слабый конструктор сайтов. Работа с ним похожа на оформление обычного текстового документа в Google Docs, с той лишь разницей, что полученная страница будет иметь гипертекстовую разметку и, соответственно, окажется пригодной для показа в браузере. Представьте, что вы сделали сайт из обычных документов Word или Pages с таблицами, картинками, заголовками, простыми формами и т. д. Google Sites выдаёт примерно такой же результат: несколько документов объединены ссылками меню в сайт.

Использовать такой инструмент может кто угодно – навыков необходимо не больше, чем для базовой работы с текстовым редактором. Ничего серьёзного на таком движке не сделать. Зато неплохо получаются анонсы чего-либо, презентации мероприятий, какие-то обучающие страницы, анкеты, страницы для совместного редактирования с общим доступом множества участников и всё в таком духе. Это платформа для создания маленьких любительских сайтов. Без претензий на дизайн, сложную функциональность и долгосрочную перспективу развития.

Функциональные возможности

Google Sites для формирования контента страниц сайта использует, преимущественно, функциональность других веб-сервисов Google: документы, таблицы, карты, презентации, диаграммы, формы, публикацию видео с YouTube, а также небольшое количество дополнительных базовых элементов вроде разделителя, кнопки, изображения и, собственно, текста. Можно также добавить свой HTML-код, что потенциально расширяет возможности за счёт интеграции возможностей веб-сервисов, не имеющих отношения к экосистеме Google.

Здесь нет готовых шаблонов по тематикам, каждую страницу необходимо заполнить блоками в подходящем порядке. Тут есть готовые структуры вроде двух или трёх колонок с изображениями и подписями, видео с описанием или чего-то ещё. Общий смысл в выборе количества элементов, колонок и их взаимного расположения, а положить в эти ячейки можно картинки, текст, карту, видео, объект с Google-диска, календарь и т. д. Всего доступно 6 макетов структур блока. То есть каждая страница будет состоять из комбинаций таких блоков, другого не предусмотрено.

Есть ещё виджеты, которые можно вставлять на страницу, предварительно выбрав объект для показа: YouTube, карта, кнопка, форма, таблица, диаграмма, календарь, разделитель, текстовое поле, содержание, изображения (можно выбрать несколько, получится что-то вроде галереи). Полученные блоки с контентом можно копировать и перетаскивать, меняя их местами. Текстовый редактор здесь простой, позволяет ставить ссылки, выбирать выравнивание и тип шрифта. Вообще, визуальный редактор в Google Sites весь такой – прямой и очевидный как палка.

Самые заметные плюсы – полная совместимость с другими приложениями экосистемы Google и возможность открытия доступа к редактированию страниц сайта зарегистрированным пользователям Google. Например, на вашем аккаунте есть таблицы, всякие отчёты, заготовки изображений, файлы в облачном хранилище и т. д. Всё это можно выборочно добавлять на сайт. Приглашённые соавторы (нужно ввести почту гостя и выбрать уровень доступа) смогут уже со своих аккаунтов добавлять материалы. Учитывая масштаб сервисов, это открывает большие возможности по наполнению контентом.

На сайт можно добавить неограниченное количество страниц, которые автоматически будут добавлены в меню первого или второго уровня (можно выбирать при создании). Меню сайта можно расположить сверху или сбоку в формате гамбургера. Также вы сможете добавить логотип, выбрав его с Гугл-диска, по ссылке либо загрузив с ПК. Шапку можно подать в виде баннера (картинка с заголовком), обложки или простого заголовка. Вы можете кадрировать добавленные изображения. Структура у получаемых страниц простая: вертикальная без сайдбаров и прочих сносок, всё выглядит линейно и компактно.

В целом, впечатление визуальный редактор Google Sites оставил приятное. С ним легко работать, можно набросать на страницы кучу данных из совместимых приложений. Тем не менее, получаемый результат выглядит очень простым, он не соответствует современным тенденциям. Гугл-сайты похожи на документы из Word со сложной структурой. Настроить практически ничего нельзя – только поставить и использовать готовое, положившись на видение разработчиков из Google. Функционально конструктор, увы, примитивен по меркам рынка. Зато удобен, это факт.

Дизайны и работа с шаблонами

В Google Sites готовые шаблоны отсутствуют. Такие, которые мы привыкли видеть в других сервисах: отсортированные по тематикам, с разнообразным дизайном и множеством настроек его кастомизации. Здесь ничего из этого нет. Всё, что система может предложить, – 6 тем оформления, которые слегка меняют цветовую схему, фон и стили заголовков. Это можно сравнить с заготовками форматирования страниц в Word или Pages с той разницей, что в текстовых редакторах вариантов намного больше.

Блоки оформлены в фирменном стиле Material Design – чистые прямые линии, тени для придания объёма, слегка различимая граница между тонами фонов страницы и всё такое. Можно, кстати, для каждой секции поставить свой фон – 2 варианта цвета либо выбранное изображение. Вы можете слегка изменить структуру секций, вручную настроев границы между элементами внутри них. В целом, что бы вы ни делали, дизайн страниц в Google Sites останется практически неизменным. Никакой индивидуальности, разнообразия, эффектности здесь не добиться.

SEO-оптимизация и продвижение

Неудивительно, что продукт поискового гиганта хорошо SEO-оптимизирован из коробки. Чистый код, родные сервисы – всё индексируется и продвигается на ура. Скорость работы сайтов тоже приличная. Кроме того, можно подключить свой домен, купленный у стороннего регистратора. Есть возможность синхронизации с фирменным инструментом Google Analytics и установки фавикона. Можно также копии сайта сохранять на Гугл-диск. Кстати, сайты получаются автоматически адаптивными, что тоже полезно для продвижения.

При создании страницы вы можете сами выбрать для неё ЧПУ. По умолчанию вы получаете поддомен, адрес вашего сайта будет выглядеть вот так: https://sites.google.com/view/sitename/. Кстати, возможности настройки полей мета-тегов заголовка, описания и ключевых слов в Google Sites нет, что очень странно. Да, быстродействие – это хорошо, но как сообщить поисковым системам языком кода, о чём сайт? Видимо, разработчики не рассматривают платформу всерьёз, раз лишили её элементарной функциональности. Мол, эти сайты продвигать незачем, ведь они любительские.

Мастер Йода рекомендует:  Всё о парсинге сайтов на Python

Ценовая политика

Google Sites – бесплатный сервис для создания веб-страниц. Здесь нет платных тарифных планов с расширенными возможностями. Считаете это странным? Всё в норме, они зарабатывают на другом. Ведь полно же у них и других бесплатных продуктов – почта, офисные программы, облачное хранилище и т. д. Конструктор сайтов – лишь часть экосистемы компании. Тем более, он ориентирован на публикацию внутренних (интранет-сайтов), а не публичных проектов. Если у вас есть Google-аккаунт, то вы, считай, зарегистрированы и в приложении для создания сайтов.

Плюсы и минусы Google Sites

Разумеется, сервис не является полноценной альтернативой платным конструкторам. Если его воспринимать как решение для создания некоммерческих, вспомогательных проектов (школьная доска объявлений, анонсы мероприятий, резюме и т. д.), то вопросов вообще не возникает. Он бесплатный и способен решать эти задачи на ура. Если большего не требовать, то Google Sites – вообще супер-сервис. Но, если вы попытаетесь отнестись всерьёз к нему и создать на нём более-менее приличный сайт для рекламы товаров или услуг, то разочаруетесь.

  • Простейший интерфейс;
  • Возможность создания неограниченного количества сайтов;
  • Бесплатность;
  • Глубокую интеграцию с другими гугловскими веб-приложениями;
  • Адаптивность дизайна страниц;
  • Возможность вставки своего HTML-кода;
  • Хорошая производительность.
  • Отсутствие тематических шаблонов;
  • Малое количество тем оформления страниц;
  • Слабые возможности по настройке структуры и дизайна;
  • Отсутствие важных SEO-настроек;
  • Нет удобных инструментов для администрирования десятков и более страниц;
  • Нет возможности вывода новостной ленты, списка и сортировки публикаций;
  • Нельзя редактировать код страниц, а только вставить дополнительно;
  • Нет встроенной системы комментирования, интеграции с социальными сетями и т. д.

Очевидно, функциональность Google Sites не может конкурировать с таковой у полноценных сайтбилдеров. Интеграция фирменных сервисов не спасает ситуацию. Не хватает множества базовых настроек и возможностей. Вряд ли вы захотите рекламировать свой бизнес в Интернете простыми вордовскими документами. Если же не завышать планку задач, то сервис окажется вполне хорош. Наша задача – показать его возможности по тем же критериям, по которым оцениваем другие конструкторы сайтов. На фоне многих из них продукт от Google теряется, увы.

Альтернативы и конкуренты

Определённо, Google Sites радует своей бесплатностью, простотой использования и тесной дружбой со всеми остальными продуктами из G Suite. Пожалуй, по своему профилю он не имеет конкурентов: бесплатной публикации и совместной работе над простыми веб-страницами для решения каких-то текущих задач. Но, вышло так, что разработчики позиционируют его как решение для создания бизнес-сайтов, в частности. А это уже другая территория, в которой водится множество хищников, гораздо более интересных конечному потребителю. Мы выбрали очевидные альтернативы – топовые движки с визуальным редактором.

Перейти → uKit – популярный конструктор с множеством адаптивных шаблонов под самые разные бизнес-тематики. Внутри интуитивный интерфейс, удобные инструменты SEO-оптимизации, готовые виджеты и блоки, широкие возможности для интеграции с внешними сервисами, позволяет создать полноценный интернет-магазин с корзиной и приёмом онлайн-оплат. Специализированный инструмент для создания бизнес-сайтов со всеми необходимыми функциями.
Перейти → Wix – сервис для создания современных сайтов с красивым дизайном и множеством возможностей. Удобная SEO-оптимизации, сотни бесплатных веб-приложений в фирменном магазине, огромный выбор шаблонов, крайне гибкий визуальный редактор и куча специфического функционала. Лучше всего подходит для создания портфолио, личных блогов и небольших магазинов.

На фоне указанных сервисов Google Sites выглядит добрым, но бедным родственником. Не спасают его бесплатность и арсенал интеграций фирменных приложений, которые, кстати, можно легко добавить на сайты Юкит и Викс, в частности. Ему нечем конкурировать, функционально проигрывает им абсолютно во всём.

Примеры сайтов, созданных в Google Sites

Сайты, созданные в конструкторе от Google, выглядят откровенно устаревшими. По крайней мере, подавляющее большинство из них. Лучшие экземпляры впитали в себя много труда и просто пытаются приблизиться к уровню, продиктованному требованиями современного рынка. Мы выбрали несколько вариантов для демонстрации возможностей системы. Посмотрите, возможно, что-то из подборки вам понравится.

Выводы и рекомендации

Google Sites – веб-приложение из пакета G Suite, весьма популярное у зарубежных пользователей. Простое в использовании, бесплатное, но совершенно не пригодное для создания бизнес-сайтов того формата, который приемлем в Рунете. И бесплатность тут ничего не решает, увы – с таким количеством компромиссов никто не захочет мириться, работая на коммерческий интерес проекта. Для создания коммерческих сайтов лучше выбирать другие сервисы, это однозначно.

На роль сервиса для создания основного сайта компании или рекламы товаров/услуг предпринимателя Google Sites не годится – ограниченная функциональность, отсутствие шаблонов и средств кастомизации, бедные возможности по работе с SEO и публикациями – всё это делает продукт неконкурентоспособным в условиях нашего рынка.

Можем рекомендовать данный продукт в качестве тренировочной площадки и решения каких-то внутренних задач компании или организации. Он хорошо сочетается с остальными продуктами Google и может стать дополнительным инструментом повышения производительности командной работы.

C чего начинались продукты Google

Содержание статьи

Империя Google появилась не в одночасье, и за каждым из продуктов стоит уникальная история. Поиск, Gmail, Chrome, Android — компания раз за разом покоряла новые рынки. Не обошлось и без провалов, но даже они у Google выходят зрелищными.

В 1998 году на сайте по малоизвестному адресу google.com пестрел яркий логотип с инфантильным восклицательным знаком на конце. В строке под ним посетитель мог набрать запрос и увидеть результаты поиска. Этой строчке предстояло перевернуть мир.

Хакер #187. Обходим Blizzard Warden

С тех пор краулеры Google излазили интернет вдоль и поперек, сеть AdSense изменила наши представления о рекламе в интернете, автомобили Street View отсняли панорамы улиц в тысячах городов, миллиарды устройств с Android обрели хозяев, и это лишь очень краткий список заслуг Google. Сейчас у компании более семидесяти офисов в сорока странах мира и почти пятьдесят тысяч сотрудников. В лабораториях Google ведутся разработки, связанные с квантовыми компьютерами, роботами, автомобилями, ездящими без участия водителя, и воздушными шарами, которые охватят интернетом континенты.

Иногда кажется, когда-нибудь Google захватит весь мир, и тем удивительнее, что своим существованием он обязан курьезной истории. До Google один из двух его знаменитых основателей хотел сделать сервис заказа пиццы, и не провались эта затея с треском, революционный поисковик мог так никогда и не появиться.

Этой истории нет в официальных источниках, но пару лет назад на встрече директоров Google Ventures Сергей Брин поделился ей с верхушкой инвестиционной компании. Будучи студентом, он задумал создать сервис, позволяющий заказывать пиццу через интернет. Задумка была в том, чтобы собрать информацию о местных ресторанах и открыть сайт, на котором пользователи могли бы заказать пиццу, не прикасаясь к телефонной трубке. Сервис Брина сам перенаправлял бы заказ на факс ближайшей пиццерии.

Код был написан, и Брин собрал друзей на ужин. Первый факс отправился в местную пиццерию, но даже спустя пару часов дверной звонок все молчал. Отчаявшись, Брин позвонил в ресторан, где в ответ на вопрос, получили ли они заказ, он услышал: «Хм, подождите, сейчас проверим факс. » Оказалось, пиццерии совсем не следят за приходящими факсами. У кого не опустятся руки после такого столкновения с отсталой реальностью?

Так Брин бросил идею сделать революцию на ниве доставки пиццы и решил переключиться на более масштабные проекты, а именно разработку нового поискового движка. Мы, в свою очередь, можем только порадоваться, что Брина постигла неудача, ведь именно с нее началась куда более грандиозная история восхождения Google.

Поиск, 1997

У Ларри Пейджа, второго сооснователя Google, в середине девяностых был проект посерьезнее бриновской пиццы: Пейджу предстояло написать диссертацию, и в качестве темы для изысканий он выбрал поиск в интернете. На первый взгляд идея Пейджа была крайне простой: оценивать сайты по количеству ссылок на них, подобно тому, как в академической среде авторитетность публикации можно определить по числу ссылок на нее из других источников.

Практическая реализация этой идеи куда сложнее, чем объяснение на пальцах, и Пейджу еще предстояло побиться над математической моделью и алгоритмом работы поисковика. Благо Пейдж на тот момент уже был знаком с Брином, который, помимо пиццы, интересовался датамайнингом и обладал недюжинными способностями в области математики.

Реконструкция первой рабочей станции создателей Google

Вместе они разработали алгоритм под названием BackRub (в переводе — «массаж спины»), который позволял отслеживать популярность веб-страниц. BackRub получал ссылку и в ответ выдавал список страниц, ссылающихся на нее и отсортированных в порядке, соответствующем их собственному «весу» (то есть количеству внешних ссылок на них). Чтобы сделать из этой системы поисковую машину, оставался один шаг. Добавив всего лишь поиск по ключевым словам в названиях страниц, Пейдж и Брин получили поисковик, работавший лучше, чем тогдашние лидеры рынка — AltaVista и Excite.

Впоследствии название алгоритма сменили на PageRank — в том числе в честь Ларри Пейджа, — а поисковик назвали Google. Широко известно, что это искаженное написание слова «гугол», которым обозначают число десять в сотой степени, — намек на то, что новый алгоритм мог проиндексировать почти бесчисленное количество страниц.

Поисковый движок был запущен под крылом Стэнфордского университета на домене google.stanford.edu. В 1997-м зарегистрирован домен google.com, а на следующий год и одноименная компания. В качестве офиса новой фирмы Брин и Пейдж сняли гараж и три комнаты в доме неподалеку от студенческих общежитий (в Стэнфорде уже ругались на двух студентов, которые заставили свою комнату компьютерами и то и дело перегружали локальную сеть). Гараж им сдала Сьюзен Воджитски, и не прогадала: впоследствии она работала над AdSense и AdWords, а ныне занимает должность старшего вице-президента Google и отвечает за YouTube.

Через год компания уже в составе восьми человек переехала в Пало-Альто, а в октябре 2001 года Google начала приносить прибыль. В 2004 году акции Google появятся на бирже и будут сразу же продаваться по 85 долларов за штуку. В своем проспекте к IPO компания старалась привлечь потенциальных акционеров прочно закрепившимся девизом Don’t be evil.

Здесь 27 сентября 2013 года компания отметила свое пятнадцатилетие. Этот гараж когда-то приютил новоиспеченную корпорацию

Google News, 2001

11 сентября 2001 года. Вслед за рушащимися небоскребами Google настигает ударная волна запросов: «Всемирный торговый центр», «новости CNN», «Талибан», «Афганистан», «ФБР», «Усама бен Ладен» и так далее. Люди пытались понять, что происходит, и количество запросов, связанных с новостями, в тот день оказалось в 60 раз больше, чем накануне; 80% самых популярных запросов были связаны с террористическим актом. В 6:51 утра за минуту было отправлено более шести тысяч запросов «CNN», а в следующие полчаса такой запрос отправляли шесть тысяч раз в минуту!

Google достойно держал удар: на главной странице разместили ссылки на закешированные новостные статьи CNN и Washington Post. Рядом было объявление с советом включить телевизор или радио для получения более полной и новой информации. Объяснялось, что Google может предложить лишь закешированные новости, а новостные веб-сайты не справляются с огромной нагрузкой и поэтому перестают работать (в 2001 году эта проблема была куда актуальнее, чем сейчас). Еще через пару дней на главной странице появилась ссылка «Новости и источники», помеченная символом трагедии, она вела на страницу вроде портала, где были собраны ссылки на сайты новостных агентств.

Интересно, что в поиске по изображениям помимо всех перечисленных запросов фигурировал New York skyline: люди желали увидеть, как будет выглядеть силуэт города без привычных башен-близнецов. Кроме того, преисполнившиеся патриотизма американцы весь остаток года активно искали изображения флага США. А первое место в статистике за весь год в итоге занял запрос «Нострадамус»: по миру активно ходили слухи, что предсказатель упоминал грядущую трагедию в своих стихах, и всем хотелось найти точную формулировку и разъяснения экспертов.

Двадцатка самых популярных запросов за 2001 год

Тогда была эра порталов, вроде Yahoo и AltaVista, облепленных со всех сторон ссылками, баннерами и новостями. Google никогда не хотел становиться порталом, придерживаясь своей минималистичной поисковой строки под логотипом. Всем было любопытно, сдастся ли Google в ряды порталов или добавит вкладку с проиндексированными новостями. Через год, в сентябре 2002-го, на главной странице появилась вкладка Google News.

Gmail, 2004

Gmail — самый популярный почтовый сервис в мире, пару лет назад он наконец обогнал микрософтовский Hotmail. Первые наработки почтового веб-клиента его автор, Пол Бакхайт, сделал до появления Hotmail, еще студентом в качестве учебного проекта. После выпуска из университета Бакхайт работал в Intel, а затем стал 23-м сотрудником Google.

В Google Бакхайту поручили разработку веб-клиента корпоративной почты для внутреннего пользования — именно поручили, на что он в шутку жалуется в интервью: Gmail стал исключением из знаменитой политики компании, поощряющей сотрудников тратить 20% трудового времени на работу над личными проектами. Тогда проект назывался Caribou — в честь загадочного корпоративного проекта из популярной у айтишников серии комиксов про Дилберта.

Работа над Gmail началась в 2001 году, когда большинство веб-сервисов шевелились невероятно медленно и требовали перезагрузки страницы полностью всякий раз, когда пользователь выполнял какое-то действие. Тогда сообщество разработчиков высоко оценило новаторский подход к веб-интерфейсу с использованием AJAX, асинхронного JavaScript и XML. Сейчас его используют все веб-приложения.

Конечно, к новой почте Бакхайт сделал мощный поиск, чтобы компания Google не оказалась сапожником без сапог. Когда проект вышел за пределы корпорации, было решено предоставить пользователям ящики размером в гигабайт, выгодно выделявшиеся на фоне конкурирующих почтовых сервисов, предоставлявших по 2–4 мегабайта места, — не гонять же поиск промышленной мощности по паре десятков писем? Неудивительно, что после запуска беты охота за приглашениями шла не на жизнь, а на смерть. После первой эмиссии в мае 2004 года приглашения продавались на eBay по 150 долларов за штуку, а некоторые аккаунты с красивыми именами — аж по несколько тысяч долларов. Для всех желающих регистрация в Gmail открылась только в 2007 году, на День святого Валентина, и еще больше двух лет после этого сервис гордо носил пометку Beta.

Между тем, когда Google объявила о запуске собственной почты, многие подумали, что это очередная шутка: пресс-релиз вышел 1 апреля 2004 года, а компания славится своей любовью к Дню дурака. Однако вице-президент по продуктам Google Джонатан Розенберг подтвердил, что Gmail — проект очень серьезный. В качестве первоапрельской шутки в тот год выпустили отдельный пресс-релиз, объявляющий, что Google выходит на новый уровень офшоринга и собирается перенести часть инженерных подразделений в Google Copernicus Center (Центр Коперника Google) на Луне.

Gmail — не последнее детище Бакхайта. В 2006 году он уволился из Google и увел за собой несколько коллег. Вместе они разработали Friendfeed, агрегатор информации из социальных сетей и блогов, впоследствии купленный «Фейсбуком» за круглую сумму.

Andro > Энди Рубин со своим талисманом

Откуда появилось название операционной системы Android? Версия, что он назван в честь создателя, Эндрю Рубина, неполна. Андроид — это и есть Энди Рубин, вернее, его кличка, полученная от сослуживцев в Apple. Сразу после колледжа он работал в фирме «Карл Цейсс» инженером по робототехнике. Со своим увлечением роботами он не расставался всю жизнь, даже собирал роботов у себя в гараже, потому его и прозвали Энди-Андроидом. Дальше Рубин работал в компании Apple и в отпочковавшейся от нее General Magic.

Magic разработала удивительный продукт, опередивший свое время, но, как почти все подобные начинания, оказавшийся никому не нужным. Целью проекта было создание совершенно нового типа устройства, о котором на тот момент никто и мечтать не мог, — карманного компьютера, нечто вроде современных планшетов или смартфонов, и это в 1990 году! Рубин участвовал в разработке операционной системы этого устройства — Magic Cap.

Позднее Рубин создал компанию Danger, которая выпускала известные в США мобильные телефоны Danger Hiptop. Для своего времени они были крайне продвинутыми: у них была QWERTY-клавиатура и большой экран, на котором можно было работать с почти полноценным браузером. Через несколько лет Danger поглотил один из ИТ-гигантов — Microsoft, однако Рубин к тому моменту уже занимался своим следующим стартапом — Android. Получается, раз за разом он участвует в разработках передовых мобильных ОС.

Итак, в 2005 году Google покупает Android и забирает Энди Рубина в штат, а в конце 2007 года Open Handset Alliance (объединение компаний, куда входят Google, HTC, Samsung и другие крупные игроки рынка мобильных технологий) афиширует разработку своего первого продукта, новой мобильной ОС на базе Linux.

В октябре 2008 года вышел HTC Dream, первый коммерческий продукт на Android, и завертелось! В последующие годы появляется все больше устройств на этой платформе, сейчас она занимает почти четыре пятых рынка. В прошлом году Рубин (надо думать, с ощущением хорошо выполненной работы) покинул пост главы подразделения Android и смог посвятить все свое время роботам — на этот раз на деньги Google и в рамках инициативы Google X.

Google Chrome, 2008

Google Chrome появился в 2008 году, когда рынок браузеров уже прочно и полностью заняли Safari, Opera и Firefox, не говоря уже об Internet Explorer, которым, да, люди до сих пор пользуются. Казалось бы, для нового браузера просто не оставалось места, он никому не был нужен. Тем не менее сейчас он занимает первое место по числу пользователей: по данным StatCounter, на июнь 2014 года у Chrome невероятные 43% рынка.

История Chrome начинается с одного вовремя произнесенного «нет». В 2001 к совету директоров Google присоединился новый сотрудник, Эрик Шмидт. Раньше он отвечал за программное обеспечение в Sun Microsystems. Как только Шмидт переступил порог офиса, Брин с Пейджем потребовали: «Нам нужен свой браузер». Шмидт отказал им, объяснив, что еще не время для такого шага: молодая компания не выстоит в войне браузеров. Основателям ничего не оставалось, кроме как поверить бывалому солдату, принимавшему участие в этой войне еще с девяностых.

Вопрос на этом не утих, и спор основателей со Шмидтом продолжался еще несколько лет. В качестве компромиссного решения Google даже выделила небольшую команду разработчиков для участия в развитии опенсорсного Mozilla Firefox. У компании была острая необходимость совершенствовать браузеры, пусть и чужие — лишь бы веб-приложения могли работать быстрее.

Слухов о собственном браузере Google было так много, что в 2004 году компании пришлось даже опровергнуть новость о работе над засекреченным проектом, которую запустил кто-то из бывших сотрудников. Надо сказать, это даже пошло на пользу проекту, потому что все перестали воспринимать эти разговоры всерьез — примерно как легенды о снежном человеке. Когда в 2006 году из набора идей и набросков Chrome перерос в официальный проект, компании не составляло труда держать факт разработки в секрете. Даже внутри Google за пределами команды, непосредственно занятой созданием браузера, никто не знал о нем в течение целого года.

Несложно понять причины такой скрытности: в Google не хотели показывать неготовый продукт, да и спровоцировать критику со стороны апологетов свободного софта было легче легкого. Новый браузер мог выглядеть как нож в спину Mozilla, саботаж со стороны близких партнеров. В команде создателей Chrome были даже бывшие сотрудники Mozilla, а идея всем полюбившегося омнибокса, метиса адресной и поисковой строки, была позаимствована из планов развития Firefox.

Однако Google сложно в чем-то упрекнуть, ведь большая часть исходных кодов Chrome была опубликована в качестве опенсорсного проекта под названием Chromium. Любой желающий может сделать на его основе свой браузер, чем теперь пользуются Яндекс, Opera и многие другие компании.

Фрагмент комикса о Chrome

Анонс Chrome не обошелся без курьеза. Одновременно с браузером 3 сентября 2008 года планировалось выпустить брошюру знаменитого комиксиста Скотта Макклауда, в форме комикса рассказывающую о процессе создания и возможностях нового браузера. Но преисполненный нетерпения художник не смог дождаться официального релиза и выложил отсканированный комикс в своем блоге уже 1 сентября, после чего Google пришлось спешно публиковать его на Google Books и давать объяснения в официальном блоге.

Google Wave, 2009

Когда в 2009 году на сцене конференции Google I/O показывали продукт под названием Google Wave, публика аплодировала стоя. Через год было объявлено о прекращении его разработки, а еще через два года Wave отключили навсегда. Из революционного продукта Wave превратился в один из самых громких провалов Google. Как такое могло случиться?

Для начала стоит понять, что представлял собой этот загадочный Wave. Примечательно, что дать короткий и ясный ответ на этот вопрос не могли даже его создатели, что уж говорить о пользователях. Wave представляли публике как замену почте, мессенджерам и заодно как средство совместной работы над документами.

Базовая сущность в Wave — волна. Волну может создать любой участник, написать внутри первоначальное послание и пригласить других пользователей. Те, в свою очередь, добавляют сообщения и комментируют и, если это разрешено, могут редактировать изначальный текст. Как и в Google Docs, все участники видят, что пишут другие прямо по ходу ввода текста. Была возможность «отмотать» волну назад и проследить за тем, как она создавалась. Еще можно было призвать в волну одного из ботов, например бота-переводчика. Но больше всего первых пользователей впечатляли интерактивные приложения внутри Wave: прямо в волну можно было поместить голосование или, например, шахматную доску, чтобы тут же сыграть на ней в шахматы.

За разработку Wave отвечал Ларс Расмуссен — один из создателей австралийского стартапа, который впоследствии превратился в Google Maps. Под его началом над Wave трудилось около полусотни разработчиков, в том числе авторы маковского коллаборативного текстового редактора Etherpad, на основе которого, собственно, и был создан Wave.

Одним из главных достоинств продукта считалась его мощная технологическая база: специально для Wave создали протокол, позволяющий на лету синхронизировать правки и передавать позицию курсора. Его спецификации были открыты, плюс код самого Wave был опубликован под свободной лицензией. Расмуссен предполагал, что появятся другие серверы и другие реализации Wave, а общий протокол обеспечит обмен данными между ними примерно так, как общаются между собой серверы электронной почты или Jabber.

Какое-то время казалось, что у Wave есть все шансы перерасти в массовое явление, навсегда похоронить электронную почту и серьезно пошатнуть позиции мессенджеров и социальных сетей. Wave мог преобразить интернет, но не преобразил. Ажиотаж, связанный с раздачей приглашений, быстро перерос в недоумение, а потом и в уныние. Пользователи, только что жаждавшие первыми прикоснуться к чуду, быстро приходили к выводу, что либо не понимают, как работает Wave, либо не могут найти ему применения.

Есть мнение, что Wave сгубил неудачный интерфейс, а широкие возможности во многих случаях оказались скорее вредными, чем полезными. Мало кому нравилось, что собеседники видят процесс набора сообщения, а возможность комментировать в произвольном месте превратила чтение новых сообщений в нетривиальную задачу: за ними приходилось каждый раз охотиться, крутя волну туда-сюда. Невысокая отзывчивость элементов интерфейса, мягко говоря, не упрощала задачу — Wave балансировал на грани возможностей браузера, и это было заметно.

Печальная судьба Wave ставит под вопрос верность утверждения о том, что новый продукт нужно как можно быстрее дать в руки пользователям. Расмуссену и его команде удалось создать уникальную технологию, но основанный на ней сервис промахнулся мимо рынка. Что, если руководство Google вовремя забраковало бы Wave и дало разработчикам время на то, чтобы сделать из него нечто более простое и элегантное? Не исключено, что у амбициозных планов еще был бы шанс.

Сейчас о Wave уже не вспоминают. Фонд Apache поддерживает его исходный код, но не занимается разработкой новых версий. Расмуссен в 2010 году покинул Google и ушел работать в Facebook, где руководит командой, отвечающей за поиск.

Конечно, на Wave история знаменитых продуктов Google не заканчивается. В 2011 году откроется социальная сеть Google+, а начиная с 2012 года все будут обсуждать Google Glass. Смелые проекты вроде Project Loon, роботов Эндрю Рубина и самоуправляемых автомобилей еще не раз дадут поводы для обсуждений и наверняка принесут много новых интересных историй.

Пейдж и Брин перед публичной продажей акций в 2004 году

Добавить комментарий