Сервера Twitter переедут в собственный дата-центр


Оглавление (нажмите, чтобы открыть):

СК «Гефест»: Переезд в новый ЦОД был осуществлен за 2 дня

Страховая компания «Гефест» не только разместила свою ИТ-инфраструктуру в ЦОД IBS DataFort, но и передала на аутсорсинг функции по ее администрированию и обслуживанию. О том, как был реализован проект и удалось ли добиться запланированных показателей его эффективности, в интервью CNews рассказал Георгий Власкин, начальник управления информационных технологий страховой компании «Гефест».

CNews: Какова структура компании «Гефест»?

Георгий Власкин: Страховая компания «Гефест» была создана в 1993 г. и сегодня предоставляет услуги клиентам в 26 регионах России. Головной офис расположен в Москве, имеется 8 региональных офисов, самый крупный из них в Санкт-Петербурге. В компании работает около 250 человек.

Если говорить об ИТ-инфраструктуре, то она централизована. В ее состав входит основная учетная система, бухгалтерские системы, почта, корпоративный портал. Когда-то вся инфраструктура была расположена в стандартной серверной центрального офиса со всеми вытекающими из этого положительными и отрицательными моментами – вопросы электропитания и охлаждения решались сотрудниками ИТ-подразделения.

В 2012 г. при переезде в новый офис было принято решение перенести все ИТ-составляющие в аутсорсинговый дата-центр. Это было связано с тем, что новый арендодатель не разрешил нам построить собственный ЦОД.

CNews: Как началось сотрудничество с IBS DataFort?

Георгий Власкин: В начале 2015 г. руководство поставило задачу сократить расходы на дата-центр. Мы начали искать компанию, которая бы предоставляла возможность не только разместить в ее ЦОДе наше оборудование, но и обеспечить сетевое и прочее администрирование. Для нас было важно, чтобы мы всегда могли обратиться к интегратору для оперативного решения всевозможных проблем. У нас нет ни возможности, ни необходимости иметь собственных высококвалифицированных системных администраторов базы данных Oracle, системы удаленного доступа VMware и пр. Предложение IBS DataFort устроило нас как по перечню предоставляемых услуг, так и по цене.

Георгий Власкин: Мы начали искать компанию, которая бы предоставляла возможность не только разместить в ее ЦОДе наше оборудование, но и обеспечить сетевое и прочее администрирование

CNews: Как происходила передача работ на аутсорсинг?

Георгий Власкин: В январе-феврале 2015 г. мы обсуждали условия нашего сотрудничества, в марте начали непосредственно заниматься проектом. В течение месяца специалистами IBS DataFort было переписано все наше оборудование, разработан план переезда. В конце марта вечером в пятницу переезд стартовал, а в понедельник утром компания уже работала в обычном режиме.

Георгий Власкин: В конце марта вечером в пятницу переезд стартовал, а в понедельник утром компания уже работала в обычном режиме

Что очень важно, мне не приходилось беспокоиться о том, как будет организован процесс переезда. Мы договорились, что в пятницу вечером можно будет снимать оборудование, в субботу – перевозить, а в воскресенье – подключать. Вся работа была выполнена специалистами IBS DataFort. С нашей стороны в ней принимали участие 2 системных администратора, которые присутствовали при отключении оборудования и проверяли его работоспособность после включения.

Предварительно еще в марте мы перенесли на облачную платформу IBS Datafort тестовые среды и приложения, необходимые для обеспечения возможности работы круглосуточным подразделениям компании – тем, кто отвечает на звонки от попавших в ДТП.

CNews: Как сегодня распределена ответственность за работоспособность решения между вами и провайдером?

Георгий Власкин: На данный момент мы перенесли в ЦОД все тестовые среды и некоторые специфические сервера региональных подразделений. За них, а также за обеспечение электропитания и охлаждения полностью отвечает IBS DataFort. За оборудование пока отвечаем мы сами. В дальнейшем, я думаю, мы будем переносить сервисы в облачную инфраструктуру, поскольку сейчас получить финансовые средства на апгрейд оборудования достаточно сложно.

CNews: Соблюдаются ли условия, прописанные в SLA? И вообще, комфортно ли вы себя чувствуете?

Георгий Власкин: За все время нашего сотрудничества с IBS DataFort, практически за год, был всего один сбой в работе облачного сервиса. Точнее, сбой не самого сервиса, а доступа к нему. Вы, наверное, слышали о том, что экскаватор оборвал телекоммуникационный кабель. Но поскольку мы получаем все услуги от IBS DataFort под единым SLA, мы получили от нашего партнера компенсацию в виде снижения стоимости услуг.

Георгий Власкин: Наши затраты на переезд и эксплуатацию решения окупились в течение 8 месяцев

CNews: Удалось ли добиться запланированных показателей оптимизации расходов благодаря привлечению аутсорсера?

Георгий Власкин: Наши затраты на переезд и эксплуатацию решения окупились в течение 8 месяцев. То есть, сегодня мы тратим на поддержку ИТ-инфраструктуры меньше, чем в прошлом году.

CNews: Как вы оцениваете уровень зрелости рынка аутсорсинга инфраструктуры в РФ? Готовы ли российские компании предоставить услуги требуемого качества?

Георгий Власкин: Рынок аутсорсинга инфраструктуры в России, безусловно, растет, взрослеет. С точки зрения клиента могу сказать, что на нем пока еще очень мало гибких ценовых предложений по аренде программного обеспечения. Например, стоимость аренды решений «1С» на 15 человек на 8 мес сопоставима с покупкой лицензий. Мне совершенно непонятно, каким образом формируется такая цена. Также вызывает некоторые сомнения целесообразность переноса крупных решений в облака. Стоимость аренды серверов, дисковых хранилищ на 3 года приближается к затратам на покупку нового оборудования для себя, и это тоже, на мой взгляд, ненормально.

Георгий Власкин: Рынок аутсорсинга инфраструктуры в России, безусловно, растет, взрослеет

Конечно, у аутсорсинга есть и масса плюсов. Это и квалифицированный персонал, и чистые, оборудованные всем необходимым серверные. Чтобы создать такие условия у себя, нам бы потребовались сотни тысяч долларов. И, скорее всего, это было бы просто физически невозможно, потому что в Москве нет соответствующих помещений. Заключая договор с дата-центром, я просто узнаю, какому стандарту он соответствует, и совершенно не задумываюсь, каким образом аутсорсер обеспечивает охлаждение, электропитание, доступность и пр. Плюс ко всему, провайдер отвечает и за обеспечение безопасности данных, что тоже очень важно. Надеюсь, по мере развития рынка будет снижаться и стоимость услуг.

Где хранятся страницы социальных сетей?

Почти у каждого человека в мире есть своя страница в социальной сети. И все эти страницы находятся в домах, которые называются дата-центрами. Масштабы самых известных дата-центров поражают воображение.

  • Поделиться:
  • Facebook
  • Twitter
  • VK
  • WhatsApp

  • OK
  • Telegram

Google

Дата-центры Google раскинуты на трех частях света. 9 в Америке, 4 в Европе и 2 в Азии. В Google говорят, что это самая мощная серверная сеть во вселенной.
Помещение дата-центра в Каунсил-Блафс занимает более 10 000 кв. м.

Council Bluffs. Штат Айова. Масштабы впечатляют!

Здесь находятся серверы, позволяющие всем сервисам Google, таким как YouTube, Gmail или Google+, работать без перебоев. Сеть, соединяющая серверы дата-центра, работает в 200 000 раз быстрее, чем домашний интернет.

Еще в 2011 г. суммарная мощность всех дата-центров Googlе оценивалась в 220 мегаватт. Это сравнимо с потреблением энергии небольшого города. Солнечные батареи и ветряные станции, подпитывающие малую часть из 900 тысяч серверов Google, уменьшают расходы компании на миллионы долларов.

Стоит отметить, что с каждым нажатием на ссылку сервисов Google вы становитесь соучастником в загрязнении атмосферы Земли и причиной глобального изменения климата �� . Генерация каждой страницы с результатами поиска Google приводит к выбросу в атмосферу от 0,2 до 7 граммов углекислого газа!

Фотографии дата-центров Google демонстрирует на своем сайте.

Facebook

Дата-центр в Лулео — один из важнейших объектов инфраструктуры Facebook. Он расположен всего в сотне километров от Северного полярного круга, что значительно упрощает задачу охлаждения оборудования. Огромные вентиляторы нагнетают во внутрь холодный воздух. Для работы вентиляторов используется электричество, которое дают окрестные реки. Создатель Facebook Марк Цекерберг утверждает, что такая система позволяет тратить на 40% меньше электроэнергии, чем дата-центры, охлаждаемые традиционным способом.

Огромные вентиляторы системы охлаждения напоминают кадры из научно-фантастических фильмов.

Главное здание дата-центра занимает площадь, равную шести футбольным полям. Вся техника внутри разработана и настроена в соответствиями с собственными стандартами и архитектурой проекта Facebook под названием Open Compute Project. Основной зал серверов настолько велик, что инженерам приходится перемещаться по нему на скутерах.

Главный зал дата-центра в Лулео

В дата-центре насчитывается около 150 работников, но главный зал часто пустует. Для обслуживания 25000 серверов необходим всего один техник, благодаря умной системе автоматизации.

Проектирование дата-центра в Лулео началось с наброска на бумажной салфетке.

Вряд ли вы задумываетесь о том, когда общаетесь с друзьями на Facebook, какие масштабные и невероятно сложные технологии позволяют вам оставаться на связи со всем миром.

Instagram

До того, как Facebook приобрел Instagram в 2012 году, сервис находился на публичном облаке Amazon Web Services. Но затем была произведена миграция Instagram в дата-центры Facebook.

Миграция данных была необходима по объективным причинам. Во-первых, Facebook располагает собственными крупномасштабными серверными мощностями, в то время как миллиардное количество снимков из Instagram хранились в публичном облаке Amazon Web Services. Во-вторых, переезд был необходим обеим сторонам для того, чтобы наладить интеграцию с внутренними системами Facebook.

ВКонтакте

Дата-центр «Ицва» социальной сети «ВКонтакте» находится в Поселке Новосергеевка, от него зависит работа более 50% всей структуры социальной медиа «ВКонтакте».

Серверная дата-центра «Ицва». Именно тут хранится ВКонтакте.

Социальная сеть, основанная Павлом Дуровым, с самого своего основания хранилась на серверах компании «Селектел». С ростом популярности социальной сети, появлялась необходимость в более мощном и емком оборудовании. И в один момент стало невозможно быстро перенести всю социальную сеть из «Селектела» без потерь в функционале. Для руководства ВКонтакте эта ситуация стала очень неприятной, потому что компания «Селектел» могла все время увеличивать стоимость аренды, а директора ВК не смогли бы ничего предпринять.

И вскоре Павел Дуров начал формировать собственный дата-центр, который он развивал за счет прибыли от социальной сети и личных средств.

Начало строительства. Дата-центр «Ицва» расположился в здании бывшего института.

В начале июня 2015 года Павел Дуров продал дата-центр «Ицва» компании Mail.ru Group за сумму в 919 млн рублей.

Подробный фотоотчет о строительстве дата-центра «Ицва» на своей странице опубликовал бывший главный инженер «ВКонтакте» Михаил Петров.

Google и Twitter стали клиентами AMD после запуска 7-нм процессоров EPYC Rome

Advanced Micro Devices (AMD), наконец, представила следующее поколение серверных процессоров EPYC Rome, построенных на архитектуре Zen 2 и выпускающихся с соблюдением 7-нм технологических норм. Анонс данных процессоров состоялся ещё в ноябре прошлого года, но только сейчас AMD приступила к выпуску новинок на рынок. Подробности о новых продуктах и тесты можно найти в нашем материале.

AMD вместе с запуском следующего поколения своих серверных процессоров для центров обработки данных сообщила, что привлекла Google и Twitter в качестве клиентов. AMD конкурирует с Intel за поставку чипов для центров обработки данных, поддерживающих работу облачных служб. Этот рынок крайне важен, ибо продажи ПК не растут из-за популярности мобильных устройств.


EPYC Rome используют 7-нм мощности TSMC, которая помогла компании существенно повысить производительность и снизить энергопотребление. Intel производит чипы на своих собственных заводах и уже несколько лет буксует с освоением 10-нм норм, планируя представить новое поколение лишь в следующем году. AMD пытается воспользоваться этим, привлекая ряд крупнейших клиентов Intel вроде Google.

AMD заявила, что Google не только использует процессоры EPYC Rome во внутренних ЦОД, но также в этом году предложит их сторонним разработчикам в рамках своих услуг по аренде облачных вычислений. Google впервые публично признала использование чипов AMD EPYC.

Intel остаётся доминирующим поставщиком процессоров для центров обработки данных, контролируя более 90 % рынка. Но AMD делает успехи благодаря своим последним процессорам. Основатель Moor Insights & Strategy Патрик Мурхед (Patrick Moorhead) сказал, что, по его оценкам, AMD отвоевала у Intel до 5 % рынка, выпустив первое поколение серверных процессоров EPYC, а с выходом второго эта доля дополнительно увеличится.

С точки зрения производительности, по словам аналитика, новые чипы AMD лучше предложений Intel в некоторых видах вычислительной нагрузки, хотя и могут отставать в других. В исследовательской заметке господин Мурхед сказал, что почти каждый крупный бизнес, с которым он общается, хочет увеличения конкуренции в серверной сфере для ускорения новаций и снижения затрат. Однако ни один из этих клиентов не станет переходить на решения AMD, если у последней не будет преимуществ.

IBM представила облачные сервисы со встроенной аналитикой данных Twitter

Корпорация IBM сообщила о расширении линейки cloud-сервисов для бизнеса и выпуске облачных систем со встроенной аналитикой данных Twitter. Разработка новых продуктов велась в тесном сотрудничестве с компанией Twitter, о партнерстве с которой IBM объявила осенью прошлого года.

Новые интегрированные с Twitter облачные сервисы IBM используют технологии обработки «больших данных» и предоставляют организациям возможность структурировать имеющиеся информационные потоки и применять социальные данные для принятия бизнес-решений. К примеру, объединение социальных данных с корпоративной информацией может ускорить разработку продукции, предсказывая тренды в долгосрочной перспективе, или прогнозировать рост спроса в режиме реального времени, используя актуальные данные.

«Принятие бизнес-решений во многом зависит от внутренних данных, таких как информация о продажах, продвижении и запасах. Теперь, благодаря данным, поступающим из Twitter, отзывы клиентов могут быть учтены в процессе принятия бизнес-решений, — прокомментировал Крис Муди (Chris Moody), вице-президент по стратегии данных в Twitter. — Возможности, которые предлагает IBM, помогут организациям задействовать эти ценные данные. Мы ожидаем быстрый рост спроса на новые сервисы в сферах розничной торговли, телекоммуникаций и финансовом секторе, а также других отраслях экономики».

Более подробную информацию о проекте сотрудничества между IBM и Twitter можно получить по ссылке ibm.com/IBMandTwitter. Дополнительные сведения о новых облачных сервисах представлены на сайте ibm.com/cloud-computing.

Материалы по теме:

Источник:

Twitter и IBM объявили о сотрудничестве

Компании Twitter и IBM сообщили о заключении партнерства, цель которого — помочь организациям лучше понимать заказчиков и рыночные тренды, а также принимать соответствующие бизнес-решения.

В рамках сотрудничества компании планируют сосредоточиться на трех ключевых направлениях: интеграции данных Twitter и аналитических сервисов IBM в облачной среде, создании новых возможностей обработки «больших данных» для предприятий и предоставлении специализированных консалтинговых услуг. Благодаря разработке новых технологических решений IBM и Twitter предоставят организациям возможность структурировать имеющиеся потоки данных с целью улучшить процессы принятия бизнес-решений. К примеру, интеграция социальных данных с корпоративной информацией поможет ускорить разработку продукции, предсказывая тренды в долгосрочной перспективе, или прогнозировать рост спроса в режиме реального времени, используя актуальные данные.

Мастер Йода рекомендует:  Машинное обучение для самых маленьких

«Twitter предоставляет уникальную возможность по-новому взглянуть на мир — одновременно как платформа для взаимодействия между миллионами клиентов и деловых профессионалов, и как синтезатор основных трендов, — прокомментировала Джинни Рометти (Ginni Rometty), председатель совета директоров, президент и генеральный директор IBM. — Партнерство с Twitter, опирающееся на облачную аналитическую платформу IBM, поможет клиентам трансформировать процесс принятия бизнес-решений с помощью совершенного нового класса данных. Это один из новейших примеров того, как IBM пытается переосмыслить понятие «работа».

Более подробную информацию о проекте сотрудничества между IBM и Twitter можно получить по ссылке ibm.com/IBMandTwitter.

Материалы по теме:

Источник:

Microsoft извинилась за шутку о пожилой женщине в рекламе Windows Azure

Недавно Microsoft запустила новую рекламную кампанию в поддержку облачного сервиса Windows Azure. Однако некоторое время спустя техногигант извинился за использованную в ней шутку о пожилой женщине. Кроме того, компания удалила твит, в котором говорилось, что продукт настолько прост в использовании, что понравится даже пожилым людям.

«Что делать, если вашей 68-летней секретарше необходимо выполнить многофакторную проверку подлинности? Обратитесь в Dear Azure». Именно так выглядела оригинальная реклама сервиса.

Причиной удаления записей из Twitter, несомненно, является реакция общества, которая не заставила себя ждать. Так, интернет-пользователи стали активно высказывать свое недовольство и возмущение, в связи с чем и последовало публичное извинение компании из Редмонда.

«Мы приносим извинения за твит и неверные суждения, отображенные в нем. Его удалили, спасибо, что обратили наше внимание», — следует из сообщения Microsoft.

Хищения паролей: Amazon, Twitter, Evernote пережили кризис

Поиск путей надёжной аутентификации пользователей является проблемой, выходящей за рамки социальных сетей и облачных платформ. Amazon запустила службу Login With Amazon, позволяющую корпоративным пользователям Amazon Web Services (AWS) получить доступ к информации аккаунта с использованием идентификационных данных Facebook, Google или Amazon.com. Сервис поддерживает веб-сайты, приложения Android и iOS и использует стандартный открытый протокол аутентификации.

Пользователи AWS имеют возможность использования многофакторной аутентификации в своих средах при помощи своего мобильного устройства или телефонной линии в качестве второго фактора. Сервис также поддерживает использование учетных данных для временного ограничения доступа к ресурсам и может быть запрограммирован посредством Amazon Security Token Service API.

Поток инцидентов привёл к укреплению системы учетных данных. Компания LinkedIn, которая перенесла обширную утечку паролей в 2012 году, объявила о запуске двухфакторной аутентификации. Twitter, пароли пользователей которого были скомпрометированы ранее в этом году, запустил двухфакторную аутентификацию на прошлой неделе. Evernote, которой в марте пришлось сбросить пароли 50 миллионов пользователей после серьезного нарушения данных своих систем, также реализована двухфакторную аутентификацию.

Предприятия часто оставляют бреши для удаленных атакующих в своих собственных системах аутентификации, считает Крис Камейо (Chris Camejo), директор консалтинга и профессиональных услуг Integralis из Блумфилда (Коннектикут, США), поставщика услуг безопасности.

Материалы по теме:

Источник:

Twitter запланировал расширение

Компания Twitter начала значительное расширение инфраструктуры ЦОД на обоих побережьях США в ожидании большого роста своего сервиса. В конце прошлого года инфрастуктура Twitter прибавила около 9 000 м 2 пространства в центре QTS (Quality Technology Services) в Атланте (Джорджия, США), в котором она и без того размещается с 2011 года.

Теперь Twitter арендовала огромную площадь дата-центра в кампусе RagingWire в Сакраменто (Калифорния, США) — с этим ЦОД компания тоже сотрудничает не впервые, ее серверы стоят здесь с 2010 года. Сообщается, что Twitter забронировала более 20 Мватт мощности для долгосрочного расширения — и это может стать одной из самых крупных оптовых сделок в индустрии.


Подробностей, правда, не слишком много. Представитель RagingWire заявил, что компания не обсуждает дела своих арендаторов, а представитель Twitter Кэролин Пеннер (Carolyn Penner) — что компания не комментирует развертывание своих мощностей в дата-центрах.

Twitter достигла таких масштабов, когда она может начать задумываться о создании своих собственных ЦОД, как это сделали Facebook, Apple и Google. Вместо этого компания арендует ряд дата-центров у интеграторов. Этот подход обеспечивает более быстрое развертывание новых мощностей, а также возможность эффективно управлять капиталом.

Новые пространства ЦОД является частью подготовки Twitter к будущему росту. На этой неделе компания арендовала офисные площади в Саннивейле (Калифорния, США) для дополнительного персонала, а также, по слухам, собирается закрепиться на Восточном побережье, в Кембридже (Массачусетс, США). В прошлом году Twitter открыла новую штаб-квартиру в Сан-Франциско (Калифорния, США).

Объединение проектов в разных дата-центрах

В этой статье мы рассмотрим, почему традиционный подход к объединению локальных сетей на уровне L2 неэффективен при существенном росте количества оборудования, а также расскажем, какие проблемы нам удалось решить в процессе объединения проектов, расположенных на разных площадках.

Обычная L2 схема

По мере роста IT-инфраструктуры в дата-центре у клиентов возникает необходимость объединять серверы, СХД, файерволы в единую сеть. Для этого Selectel изначально предлагает использовать локальную сеть.

Локальная сеть устроена как классическая «кампусная» сеть в пределах одного дата-центра, только вот коммутаторы доступа расположены непосредственно в стойках с серверами. Коммутаторы доступа далее объединены в один коммутатор уровня агрегации. Каждый клиент может заказать подключение к локальной сети для любого устройства, которое он арендует или размещает у нас в дата-центре.

Для организации локальной сети используются выделенные коммутаторы доступа и агрегации, так что проблемы в интернет-сети не затрагивают локальную сеть.

Пример схемы для одного клиента

Неважно, в какой стойке стоит очередной сервер — Selectel объединяет серверы в единую локальную сеть, и не надо думать о коммутаторах или местоположении сервера. Вы можете заказать сервер тогда, когда он будет нужен, и он будет подключен к локальной сети.

L2 прекрасно работает, пока размер дата-центра невелик, когда заполнены не все стойки. Но по мере увеличения количества стоек, серверов в стойках, коммутаторов, клиентов — схема становится существенно сложнее в обслуживании.

Пример схемы для нескольких клиентов

Серверы одного клиента могут размещаться в нескольких дата-центрах для обеспечения катастрофоустойчивости или при невозможности разместить сервер в уже имеющемся дата-центре (например, заняты все стойки и все места). Между несколькими дата-центрами также необходима связность — между серверами по локальной сети.

По мере роста количества дата-центров, стоек, серверов схема все более усложняется. Сначала связность между серверами разных дата-центров осуществлялась просто на уровне коммутаторов агрегации с использованием технологии VLAN.

Пример схемы для одного клиента в нескольких дата-центрах

Но идентификационное пространство VLAN весьма ограничено (4095 VLAN ID). Так что для каждого дата-центра приходится использовать свой набор VLAN, что сокращает количество возможных идентификаторов, которые можно использовать между дата-центрами.

Проблемы L2

При использовании схемы на уровне L2 с использованием VLAN некорректная работа одного из серверов в дата-центре может привести к перебоям в предоставлении услуги по другим серверам. Из наиболее частых проблем можно отметить:

  • Проблемы с STP (Spanning-Tree Protocol)
  • Проблемы с широковещательными штормами (Broadcast Storm)
  • Проблемы с некорректной обработкой мультикаста
  • Человеческий фактор (перенос линков, перенос VLAN)
  • Проблемы с организацией резервирования по L2
  • Проблемы с unknown-unicast трафиком
  • Проблемы с количеством МАС-адресов

Проблемы с STP зачастую касаются в том числе и настроек клиентских серверов или клиентского оборудования. В отличие от популярных точек обмена трафиком, мы не можем полностью фильтровать STP на портах доступа и гасить порты при поступлении STP PDU. На STP у ряда производителей сетевого оборудования реализуется такой базовый функционал коммутаторов дата-центра, как обнаружение петель в сети.

При некорректной работе с STP со стороны клиентского оборудования может быть затронут весь STP-домен как минимум одного коммутатора доступа. Использование расширений протокола STP, таких как MSTP, также не является решением, поскольку количество портов, VLAN, коммутаторов зачастую превышает архитектурные возможности масштабирования протокола STP.

Broadcast

Сеть в дата-центре может быть построена на устройствах разных производителей. Порой достаточно даже отличий в версии ПО коммутаторов, чтобы коммутаторы по-разному обрабатывали STP. Так, например, в дата-центре «Дубровка 3» расположено 280 стоек, что превышает максимально возможное количество коммутаторов в одном STP-домене.

При широком использовании STP в такой сети время реакции на любые изменения, в частности, простое включение или выключение порта, будет превышать все пороги ожидания. Вы же не хотите, чтобы при включении порта одним из клиентов, у вас пропадала связность по сети на несколько минут?

Проблемы с broadcast-трафиком часто возникают как по причине неверных действий на сервере (например, создание одного bridge между несколькими портами сервера), так и из-за неправильной настройки ПО на серверах. Мы стараемся нивелировать возможные проблемы с количеством broadcast-трафика, попадающего к нам в сеть. Но мы это можем делать на одном порту подключения сервера, а если в один коммутатор включено 5 серверов, каждый из которых не превышает установленные пороги, то вместе они могут сгенерировать достаточно трафика, чтобы сработал уже контроль на коммутаторе агрегации. Из собственной практики, проблемы с широковещательным штормом со стороны сервера могут быть вызваны специфическим выходом из строя сетевой карты сервера.

Защищая сеть целиком, коммутатор агрегации «положит» порт, на котором произошла сетевая аномалия. К сожалению, это приведет к неработоспособности как пяти серверов, из-за которых произошел данный инцидент, так и к неработоспособности других серверов (вплоть до нескольких стоек в дата-центре).

Multicast

Проблемы с некорректной обработкой multicast-трафика — очень специфичные проблемы, возникающие в комплексе из-за некорректной работы ПО на сервере и ПО на коммутаторе. Например, между несколькими серверами настроен Corosync в multicast-режиме. Штатно обмен Hello-пакетами осуществляется небольшими объемами. Но в ряде случаев серверы с установленным Corosync могут пересылать достаточно много пакетов. Этот объем уже требует или специальной настройки коммутаторов, или использования корректных механизмов обработки (IGMP join и другие). При неправильном срабатывании механизмов или при срабатывании порогов могут быть перерывы сервиса, которые затронут других клиентов. Конечно, чем меньше клиентов на коммутаторе, тем меньше вероятность возникновения проблем от другого клиента.

Человеческий фактор — довольно непредвиденный вид проблем, который может возникнуть при работе с сетевым оборудованием. Когда сетевой администратор один, и он грамотно строит свою работу, документирует действия и обдумывает последствия своих действий, то вероятность возникновения ошибки довольно мала. Но когда растет количество оборудования, находящегося в эксплуатации дата-центра, когда сотрудников становится много, когда становится много задач — тогда требуется совершенно другой подход к организации работы.

Некоторые виды типовых действий во избежание человеческой ошибки автоматизированы, но многие виды действий на текущий момент нельзя автоматизировать, или цена автоматизации таких действий неоправданно высока. Например, физическое переключение патч-кордов на патч-панели, подключение новых линков, замена существующих линков. Все, что связано с физическим контактом с СКС. Да, есть патч-панели, позволяющие выполнять коммутацию удаленно, но они очень дорогие, требуют большого объема подготовительных работ и очень ограничены в своих возможностях.


Никакая автоматическая патч-панель не проложит новый кабель, если он потребуется. Ошибиться можно и при настройке коммутатора или маршрутизатора. Указать неправильный номер порта, номер VLAN, опечататься при вводе числового значения. При указании каких-то дополнительных настроек не учесть их влияние на существующую конфигурацию. При увеличении сложности схемы, усложнении схемы резервирования (например, по причине достижения текущей схемой предела масштабирования) вероятность человеческих ошибок возрастает. Человеческая ошибка может быть у любого, независимо от того, что за устройство находится в стадии конфигурирования, сервер, коммутатор, маршрутизатор или какое-то транзитное устройство.

Организация резервирования по L2, на первый взгляд, кажется простой задачей для небольших сетей. В курсе Cisco ICND проходят основы использования STP в качестве протокола, как раз изначально предназначенного для организации резервирования по L2. STP имеет массу ограничений, которые в этом протоколе, что называется, «by design». Надо не забывать, что любой STP-домен имеет очень ограниченную «ширину», то есть количество устройств в одном STP-домене, довольно мало по сравнению с количеством стоек в дата-центре. Протокол STP в своей изначальной версии разделяет линки на используемый и резервный, что не обеспечивает полной утилизации аплинков при нормальной эксплуатации.

Использование других протоколов резервирования по L2 налагает свои ограничения. Например, ERPS (Ethernet Ring Protection Switching) — на используемую физическую топологию, на количество колец на одном устройстве, на утилизацию всех линков. Использование других протоколов, как правило, сопряжено с проприетарными изменениями у разных производителей или ограничивает построение сети одной выбранной технологией (например, TRILL/SPBm-фабрика при использовании оборудования Avaya).

Unknown-unicast

Особо хочется выделить подтип проблем с unknown-unicast трафиком. Что это такое? Трафик, который по L3 предназначен на какой-то конкретный IP-адрес, но по L2 широковещается в сети, то есть, передается на все порты, принадлежащие данному VLAN. Данная ситуация может возникать по ряду причин, например, при получении DDoS на незанятый IP-адрес. Или если при опечатке в конфигурации сервера был указан несуществующий в сети адрес в качестве резервного, а на сервере исторически существует статическая ARP-запись по этому адресу. Unknown-unicast появляется в случаях наличия всех записей в ARP-таблицах, но при отсутствии МАС-адреса получателя в таблицах коммутации транзитных коммутаторов.

Например, порт, за которым расположен сетевой хост с данным адресом, очень часто переходит в выключенное состояние. Подобный вид трафика лимитируется транзитными коммутаторами и обслуживается зачастую так же, как и broadcast или multicast. Но в отличие от них, unknown-unicast трафик может быть инициирован «из интернета», а не только из сети клиента. Особенно велик риск возникновения unknown-unicast трафика в случаях, когда правила фильтрации на пограничных маршрутизаторах позволяют подмену IP-адресов снаружи.

Даже само количество МАС-адресов может иногда быть проблемой. Казалось бы, при размере дата-центра в 200 стоек, по 40 серверов в стойке, вряд ли количество МАС-адресов сильно превысит количество серверов в дата-центре. Но это уже не соответствующее действительности утверждение, так как на серверах может быть запущена одна из систем виртуализации, и каждая виртуальная машина может быть представлена своим МАС-адресом, а то и несколькими (при эмуляции нескольких сетевых карт на виртуальной машине, например). Итого мы можем получить с одной стойки в 40 серверов больше нескольких тысяч легитимных МАС-адресов.

Такое количество МАС-адресов может повлиять на заполненность таблицы коммутации на некоторых моделях коммутаторов. Кроме того, для определенных моделей коммутаторов при заполнении таблицы коммутации применяется хеширование, и какие-то МАС-адреса могут вызвать хеш-коллизии, ведущие к появлению unknown-unicast трафика. Случайный перебор МАС-адресов на арендованном сервере со скоростью, скажем, 4,000 адресов в секунду, может вызвать переполнение таблицы коммутации на коммутаторе доступа. Естественно, на коммутаторах применяются ограничения по количеству МАС-адресов, которые могут быть изучены на портах коммутатора, но в зависимости от конкретной реализации данного механизма, данные могут трактоваться по-разному.

Опять же, отправка трафика на МАС-адрес, зафильтрованный данным механизмом, ведет к появлению unknown-unicast трафика. Самое неприятное в данной ситуации, что коммутаторы редко тестируются у производителя на самовосстановление после случаев с переполнением таблицы коммутации. Разовое переполнение таблицы, вызванное, скажем, ошибкой одного клиента в параметрах hping или в написании скрипта, обеспечивающего мониторинг его инфраструктуры, может вести к перезагрузке коммутатора и перерыву связи для всех серверов, расположенных в стойке. Если же такое переполнение случается на коммутаторе уровня агрегации, то перезагрузка коммутатора может привести к 15-минутному простою всей локальной сети дата-центра.

Хочется донести, что использование L2 оправдано только для ограниченных случаев и накладывает много ограничений. Размер сегмента, количество L2 сегментов — это все параметры, которые необходимо оценивать каждый раз при добавлении нового VLAN с L2 связностью. И чем меньше L2 сегментов, тем проще и, как следствие, надежнее сеть в обслуживании.

Типовые случаи использования L2

Как уже упоминалось, при постепенном развитии инфраструктуры в одном дата-центре используется L2 локальная сеть. К сожалению, это использование подразумевается и при развитии проектов в другом дата-центре или в другой технологии (например, виртуальные машины в облаке).

Мастер Йода рекомендует:  Что видят поисковые системы при заходе на сайт

Связь front и back-end, резервное копирование

Как правило, использование локальной сети начинается с разделения функционала front и back-end сервисов, выделения СУБД на отдельный сервер (для повышения производительности, для разделения типа ОС на сервере приложений и СУБД). Поначалу использование L2 для данных целей выглядит оправданным, в сегменте всего несколько серверов, часто они даже расположены в одной стойке.

Серверы включаются в один VLAN, в один или несколько коммутаторов. По мере увеличения количества оборудования, все новые и новые серверы включаются в коммутаторы новых стоек в дата-центре, от чего L2-домен начинает расти в ширину.

Появляются новые серверы, в том числе резервные серверы БД, серверы резервного копирования и тому подобные. Пока проект живет в одном дата-центре, проблем масштабирования, как правило, не возникает. Разработчики приложения просто привыкают, что на очередном сервере в локальной сети IP-адрес меняется только в последнем октете, а прописывать какие-то отдельные правила маршрутизации не требуется.

Аналогичную схему разработчики просят применять и при росте проекта, когда следующие серверы арендуются уже в другом дата-центре или когда какая-то часть проекта переезжает на виртуальные машины в облако. На картинке все выглядит очень просто и красиво:

Пример объединения двух площадок с помощью L2

Казалось бы, надо всего лишь соединить одним VLAN два коммутатора агрегации в ДЦ1 и ДЦ2. Но что стоит за этим простым действием?

Резервирование ресурсов

Во-первых, мы увеличиваем ширину L2 домена, таким образом все потенциальные проблемы локальной сети ДЦ1 могут возникнуть в ДЦ2. Кому понравится, что его серверы расположены в ДЦ2, а инцидент, связанный с недоступностью локальной сети, произойдет по причине некорректных действий внутри ДЦ1?

Во-вторых, надо позаботиться о резервировании этого VLAN. Коммутатор агрегации в каждом дата-центре — точка отказа. Кабель между дата-центрами — еще одна точка отказа. Каждую точку отказа следует зарезервировать. Два коммутатора агрегации, два кабеля от коммутаторов агрегации до коммутаторов доступа, два кабеля между дата-центрами… Каждый раз увеличивается количество компонентов, а схема усложняется.

Пример схемы L2 с резервированием

Усложнение схемы вызвано необходимостью резервирования каждого элемента в системе. Для полноценного резервирования устройств и линков требуется продублировать почти каждый элемент. На такой большой сети уже невозможно использовать STP для организации резервирования. Можно было бы все элементы сети, в частности, коммутаторы доступа, представить как составляющие MPLS-облака, тогда бы резервирование получилось за счет функционала протокола MPLS.

Но MPLS-устройства, как правило, в два раза дороже, чем не-MPLS. И надо отметить то, что MPLS-коммутатор в 1U, обладающий хорошей степенью масштабируемости, реализацией полноценного функционала MPLS в Control-plane, на практике, не существовал до последнего времени. В итоге хочется избавиться или минимизировать влияние проблем L2 на существующую сеть, но при этом сохранить возможность резервирования ресурсов.

Переход на L3

Если каждый линк в сети представить как отдельный IP-сегмент, а каждое устройство — как отдельный маршрутизатор, то нам не требуется резервирование на уровне L2. Резервирование линков и маршрутизаторов обеспечивается за счет протоколов динамической маршрутизации и избыточности маршрутизации в сети.

Внутри дата-центра мы можем сохранить существующие схемы взаимодействия серверов друг с другом по L2, а выход к серверам в другом дата-центре будет осуществляться по L3.

Связность площадок с помощью L3

Таким образом, дата-центры связаны между собой L3-связностью. То есть эмулируется, что между дата-центрами установлен маршрутизатор (на самом деле, несколько, для резервирования). Это позволяет разделить L2-домены между дата-центрами, использовать в каждом дата-центре свое собственное пространство VLAN, осуществлять между ними связь. Для каждого из клиентов можно использовать повторяющиеся диапазоны IP-адресов, сети полностью изолированы друг от друга, и из сети одного клиента не попасть в сеть другого клиента (кроме случаев, когда оба клиенты согласны на такое соединение).

Мы рекомендуем использовать для локальных сетей IP-сегменты из адресации 10.0.0.0/8. Для первого дата-центра сеть будет, например, 10.0.1.0/24, для второго — 10.0.2.0/24. Selectel на маршрутизаторе прописывает IP-адрес из этой подсети. Как правило, адреса .250-.254 резервируются для сетевых устройств Selectel, а адрес .254 служит шлюзом для попадания в другие локальные сети. На все устройства во всех дата-центрах прописывается маршрут:

Где x — номер дата-центра. За счет этого маршрута серверы в дата-центрах «видят» друг друга по маршрутизации.


Пример маршрутизации для объединения двух площадок по L3

Наличие такого маршрута упрощает масштабирование схемы в случае, например, появления третьего дата-центра. Тогда для серверов в третьем дата-центре прописываются IP-адреса из следующего диапазона, 10.0.3.0/24, на маршрутизаторе — адрес 10.0.3.254.

Пример маршрутизации для объединения трех площадок по L3

Отличительной особенностью реализации такой схемы является то, что она не требует дополнительного резервирования на случай отказа дата-центра или внешних каналов связи. Так, например, при отказе дата-центра 1 целиком сохраняется связь между дата-центром 2 и дата-центром 3, а при реализации схемы с подачей L2 между дата-центрами через какой-то один из них, как на рисунке:

Работа маршрутизации при сохранении L2 схемы

От работоспособности дата-центра 1 зависит связь дата-центра 2 и дата-центра 3. Или требуется организация дополнительных линков и использование сложных схем L2 резервирования. И при сохранении L2 схемы все равно вся сеть целиком очень чувствительна к некорректной коммутации, образованию петель коммутации, различным штормам трафика и иным неприятностям.

L3-сегменты внутри проектов

Помимо использования различных L3-сегментов в разных дата-центрах, имеет смысл выделять отдельную L3 сеть для серверов в разных проектах, зачастую сделанных по разным технологиям. Например, аппаратные серверы в дата-центре в одной IP-подсети, виртуальные серверы в этом же дата-центре, но в облаке VMware, — в другой IP-подсети, какие-то серверы, относящиеся к staging, — в третьей IP-подсети. Тогда случайные ошибки в одном из сегментов не приводят к полному отказу всех серверов, входящих в локальную сеть.

Сегментация сетей разных проектов на уровне L3

Резервирование маршрутизатора

Это все впечатляюще, но между проектами получается единая точка отказа — это маршрутизатор. Как быть в этом случае? На самом же деле, маршрутизатор не один. На каждый дата-центр выделяется два маршрутизатора, а для каждого заказчика они формируют Virtual IP .254 с использованием протокола VRRP.

Использование VRRP между двумя рядом стоящими устройствами, имеющими общий L2 сегмент, оправдано. Для дата-центров, разнесенных территориально, используются разные маршрутизаторы, а между ними организуется MPLS. Таким образом, каждый клиент, подключающийся к локальной сети по такой схеме, подключается в отдельный L3VPN, сделанный для него на этих MPLS-маршрутизаторах. И схема, в приближении к реальности, выглядит так:

Адрес шлюза для каждого сегмента .254 резервируется по VRRP между двумя маршрутизаторами.

Заключение

Обобщая все вышесказанное — изменение типа локальной сети с уровня L2 на уровень L3 позволило нам сохранить возможность масштабирования, увеличило уровень надежности и отказоустойчивости, а также позволило реализовать схемы дополнительного резервирования. Более того это позволило обойти существующие ограничения и «подводные камни» L2.

По мере роста проектов и дата-центров существующие типовые решения достигают своего предела масштабируемости. Это означает, что для эффективного решения задач они уже не подходят. Требования к надежности и устойчивости системы в целом постоянно повышаются, что в свою очередь влияет на процесс планирования. Важно учитывать тот факт, что следует рассматривать оптимистичные прогнозы роста, чтобы в дальнейшем не получить систему, которую будет невозможно масштабировать.

Расскажите нам — применяете ли вы уже L3VPN? Ждем вас в комментариях.

Гостевой пост: опыт использования VRRP

Сегодня мы публикуем гостевой пост — его написали наши клиенты. Компания ITSumma занимается удаленным администрированием серверов и технической поддержкой веб-сайтов, обеспечивает доступность веб-сервисов при высоких и очень высоких нагрузках. В статье Антон Баранов, Виктория Андриенко и Евгений Потапов делятся практическим опытом использования нашей услуги «Резервирование маршрутизатора (VRRP)». Если вы работаете над обеспечением высокой доступности и отказоустойчивости собственного.

Майнинг в профессиональном ЦОДе

Майнинг криптовалют в последние несколько лет превратился в серьезный тренд. В информационном пространстве обсуждается все, что с ним связано — от размещения нестандартного оборудования для «добычи» до правового регулирования. Есть два способа получить криптовалюту: приобрести на бирже; «добыть» (намайнить), используя мощности оборудования для проведения вычислений. Владелец оборудования, на котором проводятся вычислительные операции, получает вознаграждение в виде криптовалюты (биткойн, эфир и.

Что такое виртуальный выделеный сервер и почему он нужен бизнесу

Вместе с сервисом RUVDS объясняем, зачем бизнесу облако и как избежать риска потери данных.

У вас есть бизнес и сайт. Сайт должен быть доступен 24 часа в сутки: принимать заявки, формировать заказы и выставлять счета. Когда сайт недоступен, клиенты уходят, а вы грустите и теряете деньги.

Чтобы сайт был всегда доступен, ему нужен надёжный хостинг. Хостинг — квартира для вашего сайта.

Виртуальный хостинг — коммунальная квартира. На одном сервере располагаются сразу несколько сайтов с общей кухней, прихожей, мощностью процессора и дисковым пространством. Если у соседа шумная вечеринка, к вам гости не придут.

Выделенный сервер — собственная квартира, в которой комнат сколько хочешь. В ней живёт только ваш сайт, соседи не хранят свои вещи в дисковом пространстве и не трогают оперативную память. Своя квартира — это хорошо, но дорого.

Если в коммуналке жить не хочется, а на свою квартиру денег нет, есть альтернативное решение — VPS-хостинг.

Что такое VPS/VDS-хостинг

VPS (Virtual Private или Dedicated Server) — это виртуальный выделенный сервер. Он находится на физическом сервере, но изолирован от других VPS. Поэтому при размещении на сервере нескольких сайтов они не влияют на производительность друг друга.

Другими словами, VPS — это съёмная квартира. За неё не нужно платить как за целый дом и не надо делить с соседями. Зато можно переклеивать обои, менять ламинат и делать перестановку. А при желании добавить ещё пару комнат.

VPS позволяет сэкономить на покупке и обслуживании физического сервера.

Его владелец получает полный доступ к своему виртуальному серверу и может работать с ним так же, как с обычным:


  • Устанавливать серверные приложения и любое программное обеспечение.
  • Создавать любое количество сайтов, баз данных, почтовых ящиков, доменов, FTP-аккаунтов.
  • Настраивать систему и оптимизировать ресурсы под конкретный проект.
  • Использовать собственный IP-адрес, не расшаренный с другими клиентами.
  • Создавать бэкапы при переезде сайта.

Вы платите только за те ресурсы сервера, которые используете. Например, у хостинг-провайдера RUVDS минимальная стоимость аренды VPS на Linux — 104 рубля, на Windows — 264 рубля в месяц при оплате за год.

Изменить конфигурацию своего VPS-сервера можно в любой момент онлайн. Например, перед новогодними праздниками резервируете дополнительные процессоры. А как только пик спал — отключаете, чтобы не платить лишнего.

Кому нужен VPS

Виртуальный выделенный сервер подходит для хостинга сайтов, интернет-магазинов, разработки и тестирования ПО, обновлений и систем управления контентом (WordPress, Drupal, Joomla, «1С-Битрикс», OpenCart). Кроме того, можно перенести в VPS видеоконференции, платежи, бухгалтерию и другие сервисы.

Как выбрать хостинг-провайдера

VPS защищает от потери данных и позволяет регулярно создавать бэкапы. Но не все облачные сервисы одинаково безопасны. Например, в 2015 году российский хостинг-провайдер Cloudmouse потерял данные пользователей, в том числе и резервные копии. То же произошло в марте 2020-го у британского хостера 123 Reg. Поэтому при выборе VPS-хостинга важно оценить надёжность провайдера. Смотреть стоит на несколько критериев.

1. У провайдера есть собственный дата-центр

Дата-центр — это помещение, где находятся сервера. Если он есть, значит, компания сама отвечает за всю цепочку оказания услуги и следит, чтобы сервера работали без сбоев.

У RUVDS всё оборудование размещено в собственных дата-центрах уровня TIER III Дата-центр уровня Tier III не нужно останавливать для ремонта и профилактических работ. в Москве и уровня TIER IV Этот дата-центр входит в рейтинг самых защищённых дата-центров в мире. Он находится в бывшем военном командном центре в Альпах, и данные здесь зарезервированы дважды: есть не просто копии всех данных, а копии копий всех данных. в Швейцарии. Если какое-то оборудование выйдет из строя, вы об этом даже не узнаете: провайдер переключится на другой дата-центр, всё будет работать как прежде.

Цена на VPS во всех дата-центрах RUVDS одинаковая.

Компания планирует разместить оборудование ещё в двух дата-центрах: в Equinix LD8 в Лондоне и в дата-центре на базе одного из крупнейших узлов связи ММТС-9 (М9) в Москве.

2. У дата-центров высокий показатель отказоустойчивости

Надёжность VPS-хостинга напрямую зависит от оборудования: качества материнских плат, дисков, памяти и других компонентов. Сервера должны быть новыми, а не купленными на вторичном рынке.

У RUVDS прямые договоры поставки и обслуживания оборудования Huawei. Уровень отказоустойчивости дата-центра в Москве — 99,98%, дата-центра в Швейцарии — 99,995%. Среди партнёров RUVDS — Московская биржа, ВЦИОМ, ФИНАМ, GettTaxi и Delivery Club.

3. Провайдер страхует данные от риска потери

Страхование данных от риска потери — новая услуга на рынке облачного хранения, которая доступна клиентам RUVDS. Это бесплатно: риск компрометации данных всех клиентов застрахован компанией AIG. Клиентам-юридическим лицам RUVDS предлагает увеличение страхового покрытия как по сумме, так и по рискам. Данные будут застрахованы в том числе и от сбоев на канале связи.

4. Есть тестовый период и круглосуточная техподдержка

В RUVDS заказ и установка виртуального сервера полностью автоматизированы: весь процесс занимает две минуты. После этого он сразу доступен для работы.

Задачи по управлению инфраструктурой (создание и удаление серверов и сетей, изменение конфигурации или тарифа) решаются в личном кабинете. Чтобы понять, как всё работает, RUVDS даёт один день бесплатного тестового периода.

Если возникают вопросы, можно в любой момент обратиться в службу поддержки, она доступна круглосуточно. На сайте RUVDS есть FAQ и справочник, где подробно описаны механизмы работы.

5. Провайдер не задирает цену и устанавливает гибкие тарифы

У RUVDS одни из самых выгодных тарифов среди российских хостинг-провайдеров. Это возможно за счёт автоматизации сервиса. Можно выбрать готовый тариф, создать свою конфигурацию виртуального сервера или платить только за используемые ресурсы.

В первых двух случаях стоимость VPS фиксированная, с оплатой раз в месяц. Можно дополнительно заказать защиту от DDOS-атак и вирусов. Лицензия ОС Windows Server входит в комплект поставки.

В случае оплаты за ресурсы, со счёта каждый день списывается та сумма, которую использовал ваш сервер. Это хороший вариант, если огромные вычислительные мощности нужны вам не всегда, но вы хотите иметь их в запасе. Если не знаете, какой тариф выбрать, служба поддержки RUVDS поможет определиться с потребностями. И не забывайте, что в любой момент можно бесплатно поменять тариф.

Как заработать на партнёрской программе RUVDS

У RUVDS есть партнёрская программа: приглашаете знакомых и получаете от 15 до 25% с каждого приведённого клиента. Есть три варианта участия в программе:

  • Распространять свою ссылку для регистрации.
  • Давать знакомым свой промокод для регистрации.
  • Открыть свой хостинг через White Label API.

После регистрации новых пользователей по вашей ссылке или промокоду вы будете получать процент от его расходов в течение года. Например, если новый клиент использует VPS за 1 000 рублей в месяц, 150 рублей (15%) перечисляются на ваш счёт. Ими можно оплатить свой VPS, перевести на карту Visa или MasterCard или закинуть на WebMoney или «Яндекс.Деньги».

Чем больше клиентов регистрируется по вашей ссылке, тем больше процентов вы получаете за каждого.


«ВКонтакте» назвали причину сбоя соцсети. Петербургский дата-центр обесточил серверы клиентов

Сбой в работе социальной сети «ВКонтакте» связан с аварийной ситуацией в дата-центре. Об этом заявили в компании 4 ноября.

«Наблюдаются проблемы на стороне партнерского дата-центра. Мы работаем над исправлением ситуации», — уточнили в пресс-службе «ВКонтакте».

В петербургском дата-центре Xelent, где расположены серверы «ВКонтакте», рассказали «Фонтанке», что в 16:25 в здании на Выборгском шоссе из-за перегрева произошло аварийное отключение магистрального шинопровода. В результате аварии часть клиентского оборудования была обесточена.

Мастер Йода рекомендует:  Сокращение времени загрузки страниц с помощью CSS

«На данный момент все системы дата-центра и серверное оборудование клиентов переведены на резервное питание. Ведутся работы по устранению последствий аварии и по восстановлению работы дата-центра», — отметили в Xelent.

На сбои в работе социальной сети пользователи «ВКонтакте» пожаловались около 16:00. Проблемы возникли у жителей Москвы, Петербурга, Екатеринбурга, Челябинска, Новосибирска, Красноярска, Нижнего Новгорода, Волгограда, Краснодара.

Справка:

Xelent — крупный дата-центр Северо-Запада России, оказывающий услуги в сфере DC-аутсорсинга. Клиенты могут арендовать серверное оборудование, получить помощь с транспортировкой IT-систем или перенести всю инфраструктуру предприятия в виртуальную среду (IaaS) с помощью создания собственного облачного дата-центра. Оборудование Xelent доверили больше 350 организаций. Компания обещает экономию, комфорт, безопасность и бесперебойность.

Поделиться

Присоединиться

Рассылка «Фонтанки»: главное за день в вашей почте. По будним дням получайте дайджест самых интересных материалов и читайте в удобное время.

ЦОД, датацентры, облачные вычисления, SaaS

Проектирование и строительство центра обработки данных (ЦОД, дата центр), построение и использование облачных вычислений и SaaS сервисов

СЕМИНАР МОНИТОРИНГ ЦОД 19-20 декабря МОСКВА

Рубрики

Полезные ссылки

Твиттер завершает переезд в новый дата-центр

В марте техническая служба социальной сети Twitter завершила перенос инфраструктуры компании в новый центр обработки данных, расположенный возле Солт Лэйк Сити. Сообщение об этом было размещено в блоге компании 21 марта, в день пятой годовщины Twitter.

«В сентябре прошлого года мы приступили к реализации плана по строительству собственного дата-центра. Это стало самым масштабным мероприятием в истории Twitter», — говорится в посте.

«В течение полугода инженеры и операционисты переносили инфраструктуру Twitter и меняли ее таким образом, что теперь мы сможем постоянно удовлетворять свои потребности в емкостях; обеспечивать большую надежность для пользователей и разработчиков; и, наконец, предлагать новые продукты».

Это первый собственный дата-центр Twitter. До этого компания арендовала площади в других хостинговых компаниях. В июле 2010 г. она заявила, что будет продолжать арендовать небольшие площади даже после ввода в эксплуатацию этого нового центра обработки данных.

Джон Адамс, инженер из Twitter Operations, впервые сообщил о планах компании, связанных с переездом в новый data center в апреле 2010 г. Позже, в июле того же года, Twitter сообщил о том, что этот дата-центр будет находиться в Юте.

В число преимуществ, связанных с единоличным владением центром обработки данных, компания включила контроль над сетью и конфигурацией систем. Гибкость инфраструктуры была еще одним дополнительным преимуществом.

По словам представителей технического персонала Twitter, ранее темпы развития компании опережали темпы развития ее программно-аппаратных ресурсов. Ситуация обострилась в июне 2010 г., когда Twitter был отключен в течение более 10 часов. «В отличие от прошлых случаев, в тот раз мы заявили, что у нас есть долгосрочный план». Переезд в новый дата-центр был частью этого плана.

Поделиться информацией

Вы можете послать эту статью или новость коллеге или знакомому по email со своим комментарием, пригласить обсудить ее. Просто нажмите на иконку конверта —

Сообщения, вопросы и ответы

Вы можете задать вопрос, написать комментарий, обсудить данную новость или статью.

Twitter переезжает в новый ЦОД

Twitter завершает крупный проект миграции и расширения ЦОД. Новая инфраструктура позволит динамично наращивать сервис микроблогов, поддерживающий ежедневно более 140 млн. твитов. Процесс миграции предусматривает тестирование и репликацию данных между двумя ЦОД, после чего рабочая среда будет перенесена на третью, более крупную площадку. Twitter управляет своей инфраструктурой ИТ по соглашению NTT America по услугам управляемого хостинга. NTT эксплуатирует несколько ЦОД в Кремниевой долине и использует облачные сервисы Amazon для хранения и развертывания образов, однако в прошлом году Twitter заявил, что начинает эксплуатацию собственных мощностей. В июле прошлого года Twitter сообщил о намерении открыть ЦОД в Солт-Лейк Сити, однако вместо этого арендовал площади центра данных в Сакраменто. О том, где будет размещаться основная площадка Twitter, пока не сообщается. Миграция предусматривает перемещение 20 терабайт данных твитов между тремя площадками. В компании надеются, что переезд положительно отразится на сервисе и позволит ей развиваться в последующие годы. До сих пор ее инфрастуктура отставала от потребностей в мощностях.

СК «Гефест»: Переезд в новый ЦОД был осуществлен за 2 дня

Страховая компания «Гефест» не только разместила свою ИТ-инфраструктуру в ЦОД IBS DataFort, но и передала на аутсорсинг функции по ее администрированию и обслуживанию. О том, как был реализован проект и удалось ли добиться запланированных показателей его эффективности, в интервью CNews рассказал Георгий Власкин, начальник управления информационных технологий страховой компании «Гефест».


CNews: Какова структура компании «Гефест»?

Георгий Власкин: Страховая компания «Гефест» была создана в 1993 г. и сегодня предоставляет услуги клиентам в 26 регионах России. Головной офис расположен в Москве, имеется 8 региональных офисов, самый крупный из них в Санкт-Петербурге. В компании работает около 250 человек.

Если говорить об ИТ-инфраструктуре, то она централизована. В ее состав входит основная учетная система, бухгалтерские системы, почта, корпоративный портал. Когда-то вся инфраструктура была расположена в стандартной серверной центрального офиса со всеми вытекающими из этого положительными и отрицательными моментами – вопросы электропитания и охлаждения решались сотрудниками ИТ-подразделения.

В 2012 г. при переезде в новый офис было принято решение перенести все ИТ-составляющие в аутсорсинговый дата-центр. Это было связано с тем, что новый арендодатель не разрешил нам построить собственный ЦОД.

CNews: Как началось сотрудничество с IBS DataFort?

Георгий Власкин: В начале 2015 г. руководство поставило задачу сократить расходы на дата-центр. Мы начали искать компанию, которая бы предоставляла возможность не только разместить в ее ЦОДе наше оборудование, но и обеспечить сетевое и прочее администрирование. Для нас было важно, чтобы мы всегда могли обратиться к интегратору для оперативного решения всевозможных проблем. У нас нет ни возможности, ни необходимости иметь собственных высококвалифицированных системных администраторов базы данных Oracle, системы удаленного доступа VMware и пр. Предложение IBS DataFort устроило нас как по перечню предоставляемых услуг, так и по цене.

Георгий Власкин: Мы начали искать компанию, которая бы предоставляла возможность не только разместить в ее ЦОДе наше оборудование, но и обеспечить сетевое и прочее администрирование

CNews: Как происходила передача работ на аутсорсинг?

Георгий Власкин: В январе-феврале 2015 г. мы обсуждали условия нашего сотрудничества, в марте начали непосредственно заниматься проектом. В течение месяца специалистами IBS DataFort было переписано все наше оборудование, разработан план переезда. В конце марта вечером в пятницу переезд стартовал, а в понедельник утром компания уже работала в обычном режиме.

Георгий Власкин: В конце марта вечером в пятницу переезд стартовал, а в понедельник утром компания уже работала в обычном режиме

Что очень важно, мне не приходилось беспокоиться о том, как будет организован процесс переезда. Мы договорились, что в пятницу вечером можно будет снимать оборудование, в субботу – перевозить, а в воскресенье – подключать. Вся работа была выполнена специалистами IBS DataFort. С нашей стороны в ней принимали участие 2 системных администратора, которые присутствовали при отключении оборудования и проверяли его работоспособность после включения.

Предварительно еще в марте мы перенесли на облачную платформу IBS Datafort тестовые среды и приложения, необходимые для обеспечения возможности работы круглосуточным подразделениям компании – тем, кто отвечает на звонки от попавших в ДТП.

CNews: Как сегодня распределена ответственность за работоспособность решения между вами и провайдером?

Георгий Власкин: На данный момент мы перенесли в ЦОД все тестовые среды и некоторые специфические сервера региональных подразделений. За них, а также за обеспечение электропитания и охлаждения полностью отвечает IBS DataFort. За оборудование пока отвечаем мы сами. В дальнейшем, я думаю, мы будем переносить сервисы в облачную инфраструктуру, поскольку сейчас получить финансовые средства на апгрейд оборудования достаточно сложно.

CNews: Соблюдаются ли условия, прописанные в SLA? И вообще, комфортно ли вы себя чувствуете?

Георгий Власкин: За все время нашего сотрудничества с IBS DataFort, практически за год, был всего один сбой в работе облачного сервиса. Точнее, сбой не самого сервиса, а доступа к нему. Вы, наверное, слышали о том, что экскаватор оборвал телекоммуникационный кабель. Но поскольку мы получаем все услуги от IBS DataFort под единым SLA, мы получили от нашего партнера компенсацию в виде снижения стоимости услуг.

Георгий Власкин: Наши затраты на переезд и эксплуатацию решения окупились в течение 8 месяцев

CNews: Удалось ли добиться запланированных показателей оптимизации расходов благодаря привлечению аутсорсера?

Георгий Власкин: Наши затраты на переезд и эксплуатацию решения окупились в течение 8 месяцев. То есть, сегодня мы тратим на поддержку ИТ-инфраструктуры меньше, чем в прошлом году.

CNews: Как вы оцениваете уровень зрелости рынка аутсорсинга инфраструктуры в РФ? Готовы ли российские компании предоставить услуги требуемого качества?

Георгий Власкин: Рынок аутсорсинга инфраструктуры в России, безусловно, растет, взрослеет. С точки зрения клиента могу сказать, что на нем пока еще очень мало гибких ценовых предложений по аренде программного обеспечения. Например, стоимость аренды решений «1С» на 15 человек на 8 мес сопоставима с покупкой лицензий. Мне совершенно непонятно, каким образом формируется такая цена. Также вызывает некоторые сомнения целесообразность переноса крупных решений в облака. Стоимость аренды серверов, дисковых хранилищ на 3 года приближается к затратам на покупку нового оборудования для себя, и это тоже, на мой взгляд, ненормально.

Георгий Власкин: Рынок аутсорсинга инфраструктуры в России, безусловно, растет, взрослеет

Конечно, у аутсорсинга есть и масса плюсов. Это и квалифицированный персонал, и чистые, оборудованные всем необходимым серверные. Чтобы создать такие условия у себя, нам бы потребовались сотни тысяч долларов. И, скорее всего, это было бы просто физически невозможно, потому что в Москве нет соответствующих помещений. Заключая договор с дата-центром, я просто узнаю, какому стандарту он соответствует, и совершенно не задумываюсь, каким образом аутсорсер обеспечивает охлаждение, электропитание, доступность и пр. Плюс ко всему, провайдер отвечает и за обеспечение безопасности данных, что тоже очень важно. Надеюсь, по мере развития рынка будет снижаться и стоимость услуг.

Сервера Twitter переедут в собственный дата-центр

Пока Facebook готовится к строительству очередного гипермасштабного дата-центр (на этот раз близ городка Лос-Лунас в американском штате Нью-Мексико), предлагаем вам изучить интересную статистику, касающуюся инфраструктуры ЦОД самой популярной соцсети планеты. Хотите знать, сколько дата-центров имеется у Facebook? Какие серверы и сетевое оборудование там используются? Сколько Facebook расходует на свою вычислительную инфраструктур? Ниже вы найдете ответы на эти и многие другие вопросы.

Насколько велика интернет-инфраструктура Facebook?

Соцсети Facebook требуются значительные вычислительные ресурсы для обработки и хранения огромного количества фотографий и прочего медиа-контента, объем которого постоянно растет по мере того, как пользователи добавляют сотни миллионов новых файлов.

Для того чтобы поддержать активность юзеров, инженеры Facebook построили четыре огромных кампуса ЦОД. Еще два строятся в настоящее время. Кроме того, компания арендует дополнительное пространство для размещения серверов у сторонних колокейшн-провайдеров по всего миру .

Где расположены дата-центры Facebook?

В январе 2010 года компания Facebook объявила о планах построить свой собственный дата-центр в городе Прайнвилл на территории американского штата Орегон. С тех пор социальная сеть активно расширяла инфраструктуру, построив дата-центры в Форест-Сити, штат Северная Каролина (США), Лулео (Швеция) и Алтуна, штат Айова (США). Компания также строит дата-центры в городах Форт-Уорт, штат Техас (ША), Клони (Ирландия) и Лос-Лунас, штат Нью-Мексико (США).

Насколько велики серверные фермы Facebook?

По мере роста социальной сети Facebook ее потребности в ресурсах дата-центров также растут. В ходе расширения кампуса ЦОД в Орегоне его площадь увеличилась с 14 тыс. квадратных метров до более чем 30 тыс. квадратных метров. Это больше двух гипермаркетов Wal-Mart. В прошлом году юристы Facebook получили разрешение на строительство еще одной серверной фермы на кампусе в Орегоне, площадь которой должна составить 48 тыс. квадратных метро. Площадь остальных кампусов также приближается к стотысячной отметке.

Сколько серверов есть у Facebook?

Когда соцсеть Facebook только появилась, не предлагая пользователям возможностей по массовой загрузке фотографии или видео, весь сервис мог работать на одном-единственном сервере.

Но сейчас все не так. Представители Facebook не сообщают, сколько серверов компания использует для обслуживания своей инфраструктуры. Но, согласно данным из неофициальных источников, по состоянию на июнь 2010 года компания использовала по крайней мере 60000 серверов, что соответствовало практически двукратному росту по сравнению с 2009 годом и шестикратному увеличению по сравнению с 2008 годом.

Судя по всему, сейчас счет идет уже на сотни тысяч. В налоговой декларации Facebook, говорится, что стоимость принадлежащего компании «сетевого оборудования» по состоянию на конец 2015 года составляла около $ 3.63 млрд. В 2014 году эта цифра была на 20 процентов ниже.

Какие серверы использует Facebook?

В отличие от большинства конкурентов, соцсеть Facebook оборудовала свои дата-центры почти целиком и полновластью аппаратными решениями, спроектированными собственными силами. В апреле 2011 года социальная сеть запустила инициативу Open Compute Project, через которую она делится открытыми спецификациями на свои серверы с низким энергопотреблением и другое оборудование на базе нестандартных конструкций, включая серверные стойки, сетевые коммутаторы, блоки питания и ИБП.

Инженеры компании стремятся удалить все компоненты аппаратных систем, функционал которых им не нужен. Серверы Facebook работают как на чипах Intel, так и на процессорах AMD. Компания ранее также экспериментировала с серверами на базе процессоров с архитектурой ARM.

Серверы Facebook комплектуются нестандартными блоками питания, которые позволяют машинам использовать 277 вольт переменного тока вместо традиционных 208 вольт. Благодаря этому можно сократить количество этапов преобразования электроэнергии на пути к конечной нагрузке. Ранее инженеры Facebook рассматривали возможность установки аккумуляторных батарей в свои серверы, но в конечном итоге они остановились на внутрирядных ИБП. Внутри каждой такой системы ИБП имеется по 20 батарей.

Сколько Facebook трат на свои дата-центры?

Компания Facebook вложила миллиарды в инфраструктуру, поддерживающую ее социальную сеть, которая в настоящее время обслуживает около 1,13 млрд. ежедневно активных пользователей со всего мира (большинство из них, или 84,5 процента, живут за пределами США и Канады). Соцсеть также каждый год тратит огромные суммы на возведение и обслуживание этих объектов.

Компания не публикует точной информации о том, сколько денег она тратит на дата-центры, но некоторые цифры, как правило, попадают в открытый доступ вместе с официальными документами. Так, дата-центр, который копания строит в Форт-Уорте, к примеру, как ожидается, будет стоить около $ 500 тыс. на начальном этапе. Но по мере расширения кампуса размер инвестиций может достичь $ 1 млрд.

Ранее представители Facebook сообщили, что по итогам 2015 года размер капитальных затрат компании на дата-центры, серверы, сетевую инфраструктуру и офисные здания достиг отметки в $ 2,52 млрд. В 2014 году этот показатель был равен $ 1,83 млрд., а в 2013 году – $ 1,36 млрд.

В 2015 году размер расходов на эксплуатацию дата-центров и технической инфраструктуры компании Facebook увеличился на $ 480 млн. по сравнению с 2014 годом (данные из налоговой декларации). Инженеры компании ожидают, что эти расходы будут расти и дальше в 2020 году, поскольку социальная сеть продолжает расширять свои уже существующие кампусы ЦОД и строить новые.

Насколько эффективны дата-центры Facebook?

Дата-центр Facebook в городе Прайнвилл может похвастать коэффициентом эффективности использования энергии (Power Utilization Effectiveness или PUE) в диапазоне от 1,06 до 1,08 единицы. Представители компании заявили, что ее дата-центр в Северной Каролине будет иметь аналогичный уровень эффективности.

Напомним, что метрика PUE позволяет сравнивать отдельные ЦОД через соотношения их общего потребления электроэнергии к количеству электроэнергии, используемой IT-оборудованием. Коэффициент PUE в размере 2 указывает на то, что IT-оборудование использует на 50 процентов меньше электроэнергии, чем вспомогательное оборудование в здании ЦОД.

Добавить комментарий