Новое слово в аналитике больших данных – гиперконвергентная инфраструктура

data
мобильная версия

Каждая компания по мере становления приходит к осознанию очевидных выгод для бизнеса от анализа больших массивов собственных данных, накопленных за годы работы. Для того, чтобы избежать потерь времени и средств на типичные ошибки, совершаемые от недостатка экспертного опыта и знаний для анализа, перевод бизнеса в цифровое состояние гораздо практичнее осуществлять с помощью готовых, уже проверенных на практике решений.

Потребность в аналитике больших данных появилась не вчера. Некоторым отраслям, таким как фундаментальная и прикладная наука, оборонная промышленность, транспорт и производство пришлось столкнуться с этим вопросом много лет назад, в эпоху дефицита соответствующих инструментов и платформ. Сегодня, когда различные аспекты бизнес-структур один за другим переходят в цифровое состояние, аналитика больших данных постепенно становится вопросом конкурентоспособности для многих предприятий, которые еще вчера с трудом понимали суть этого термина.

На горизонте тем временем маячат день завтрашний, с дальнейшим ростом популярности «облаков» во всех ипостасях, и неизбежное взятие на вооружение не очень понятных сегодня сущностей, например интернета вещей. Выживут только те, кто начнет использовать современные инструменты анализа больших данных раньше конкурентов.

Долгожданная встреча

На определенном этапе развития большинство компаний осознают потенциальную выгоду от анализа накопленных массивов больших данных, однако на первых порах всегда сказывается недостаток экспертного опыта и знаний для анализа. Избежать потери времени на типичные ошибки при переводе бизнеса в цифровое состояние можно с помощью готовых, уже проверенных на практике решений.

Сегодня гиперконвергентные инфраструктуры и аналитика больших данных являются крупнейшими трендами развития предприятий, предлагая оптимизированный на аппаратном и программном уровнях способ извлечения максимальной выгоды из «сырых» данных при оптимальных затратах. Как правило, гиперконвергентная инфраструктура строится вокруг программной архитектуры, тесно интегрированной с вычислительными, сетевыми, виртуализационными и накопительными ресурсами аппаратной платформы от единого поставщика. В таких решениях используется распределенная файловая система для управления данными, кластеризации многочисленных вычислительных модулей и масштабирования ресурсов совместного использования.

Аналитика больших данных, в свою очередь, представляет собой набор алгоритмов для обработки гигантских массивов информации с различными типами и форматами данных, с целью обнаружения скрытых закономерностей или взаимосвязи событий, полезных для оптимизации и дальнейшего развития бизнеса.

Все чаще компании выбирают современные технологии для быстрой обработки больших объемов данных, такие как Apache Hadoop – свободно распространяемый комплекс из утилит, библиотек и функций для разработки и выполнения приложений в распределенной вычислительной среде. Файловая система Hadoop способна поддерживать сотни и тысячи вычислительных узлов со скоростной передачей данных между ними. Однако для анализа данных, генерируемых различными источниками , сначала необходимо извлечь, трансформировать и загрузить эти данные в среду Hadoop.

Спектр задач

Сверхмасштабируемая платформа Hitachi Hyper Scale-Out Platform (HSP) представляет собой уникальную платформу для хранения, обработки и аналитики больших данных. HSP представляет собой классическую гиперконвергентную платформу, способную быстро и в больших масштабах поглощать данные, разворачивать виртуальные машины (ВМ) для исполнения приложений с возможностью оперативного распределения данных между всеми ВМ, и выполнять задания Hadoop здесь же, на источнике данных, вместе с другими ВМ. Многие современные программно-аппаратные платформы справляются с одной или другой из выше описанных задач, но только платформа Hitachi HSP способна справиться со всеми этими заданиями, обеспечивая простое управление кластером Hadoop и другими функциями для аналитики больших данных, такими как Apache Spark, Cassandra, обеспечивая тесную интеграцию с OpenStack.

Корпоративная гиперконвергентная масштабируемая платформа хранения данных


Источник: HDS, 2016

Существует ли верхний предел масштабирования системы анализа больших данных на базе платформ Hitachi Hyper Scale-Out Platform 400? «Теоретически платформа HSP не имеет ограничений по масштабированию», – рассказывает Ирина Яхина, руководитель подразделения технологических решений Hitachi Data Systems в России и странах СНГ. – Максимальный объем, поддерживаемый настоящим релизом платформы HSP, составляет 7,5 ПБ. Решение может масштабироваться до 100 узлов, объединенных в единый кластер. Максимальное количество узлов кластера и максимальный объем в данном случае означает, что специалистами компании HDS было оттестировано решение в составе 100 узлов кластера, и мы гарантируем, что данное решение будет обеспечивать надежность функционирования аппаратной и программной составляющих платформы HSP и высокую доступность данных».

Мнение ИТ-лидеров
  • Антон Суворов, вице-президент, дирекция информационных технологий, Московский Кредитный Банк
  • Алексей Евтушенко, CIO, Банк Хоум Кредит
  • Александр Талалыкин, директор департамента информационных технологий, компания «Евросеть»
  • Андрей Никитин, заместитель директора департамента страховых информационных технологий, «ВТБ Страхование»
  • Давид Мартиросов, технический директор, банк «Открытие»
  • Фабрисио Гранжа (Fabricio Granja), президент по информационным технологиям, компания «Эльдорадо»
  • Сергей Сергеев, директор по развитию информационных систем и приложений, компания «М.Видео»
  • Владимир Муравьев, директор по информационным технологиям, группа компаний «Мегаполис»
  • Андрей Педоренко, директор департамента информационных технологий, компания «АльфаСтрахование»
  • Аркадий Затуловский, ИТ-директор, Нордеа Банк
  • Илья Кучугин, директор департамента развития банковских технологий, Бинбанк