Рекрутинг Hadoop-специалистов

За 2 года команда GlobalCareer подобрала 30 инженеров, аналитиков и разработчиков, активно использующих Hadoop. Большая часть кандидатов получили предложения о работе от крупного банка, развивающего новый IT-проект. Сегодня рассказываем, что помогло нам найти столь редких специалистов.

Hadoop — набор программ и процедур с открытым исходным кодом. Проект разработан Apache Software Foundation на основе технологий MapReduce и Google File System Storage в 2006 году. Сегодня является одним из основных инструментов для управления огромными объемами информации. За Hadoop-специалистов в России конкурируют как IT-компании, так и телеком, финтех-проекты, розничные сети.

Задача

Наш постоянный клиент запустил новый масштабный проект по созданию витрин данных и реализации интеграционных процессов между аналитическими и продуктовыми системами компании-заказчика и её партнёров. Предстояла работа с огромным объёмом информации, поэтому требовались специалисты, имеющие опыт работы с Hadoop. Подобных кандидатов, на открытом рынке практически нет, и поиск по традиционным источникам был неэффективным, поэтому заказчик обратился к нам в агентство за помощью в поиске сотрудников.

В рамках данного проекта наши консультанты подбирали таких специалистов, как:

  • Hadoop-инженеры, с опытом разработки на Java и специализирующиеся на КХД,
  • Java-разработчики, знакомые с экосистемой Hadoop,
  • Аналитики, использующие Hadoop на проектах Big Data.

Алена Дараган, консультант GlobalCareer, поясняет: «При поиске инженеров и разработчиков мы смотрим, обладают ли они навыками создания гибких, масштабируемых, управляемых систем, способных выдержать огромные нагрузки, большие объемы данных. На вакансии аналитиков отбираем кандидатов с серьёзной математической подготовкой: анализ big data невозможен без отличного знания статистики, теории вероятности и т. д.».

Процесс работы

Знание технологии Hadoop может встречаться в резюме специалистов самого разного профиля, что усложняет поиск. Мы сформировали команду из рекрутёров, имеющих опыт закрытия подобных вакансий, и выстроили следующую стратегию работы:

  • изучили собственную базу (более 2 млн. резюме) и выбрали из неё около 700 российских специалистов, обладающих подходящими компетенциями — Hadoop, Java/Python/R, SQL, Kafka, Spark, Kassandra и ETL-процессы, — а также кандидатов, которые когда-либо работали в проектах, связанных с Big Data;
  • проанализировали подписчиков Телеграм-каналов @hadoopusers, @datajobschannel, @datajobs и т. п. и сопоставили со своей базой данных;
  • изучили профили авторов публикаций и комментаторов по тематике Big Data на профессиональных интернет-площадках;
  • расширили воронку за счёт молодых специалистов, которые активно участвуют в митапах и хакатонах по тематике Big Data.

С каждым кандидатом, подходящим под профили наших вакансий, мы обсуждали проект и карьерные ожидания, просили порекомендовать коллег с нужными нам компетенциями.

Результат

Мы подобрали требовавшихся клиенту Hadoop-специалистов благодаря максимальному вовлечению команды и использованию множества источников. Длительность подбора — 8 месяцев. На данный момент все вакансии в этот проект успешно закрыты.

В базе GlobalCareer находится больше 2 млн резюме IT-специалистов: начиная от опытных разработчиков со стандартным набором компетенций, заканчивая профессионалами с редкими hard и soft skills. Оставьте заявку, и мы найдём для вас нужного кандидата.


Запросить подробности

Сайт IBS использует cookie. Это дает нам возможность следить за корректной работой сайта, а также анализировать данные, чтобы развивать наши продукты и сервисы. Посещая сайт, вы соглашаетесь с обработкой ваших персональных данных.