Middle Data Engineer в команду SMT
Мы строим корпоративную дата‑платформу следующего уровня — новый сервис с амбициозной задачей: трансформировать наработки компании в единое стандартизированное решение для работы с данными. Отказываемся от легаси, проектируем архитектуру заново, сохраняем лучшее (например, Apache Spark) и постепенно переносим существующие пайплайны на новую платформу.
Начинать с нуля — не значит «с чистого листа». Это возможность заложить фундамент, который будет надёжным, масштабируемым и понятным десяткам инженерных команд. Именно сейчас мы переопределяем техстек, архитектурные подходы и процессы — и сейчас у тебя есть шанс поучаствовать в запуске платформы, куда будут стекаться все корпоративные данные.
Что предстоит делать
- Разрабатывать с нуля MVP новой дата‑платформы и инфраструктуры для ingest/transform.
- Мигрировать существующие пайплайны с Hadoop/HDFS на новую архитектуру (S3, Kafka, Spark, ClickHouse).
- Работать с большими объёмами данных и высоконагруженными Kafka‑топиками.
- Строить отказоустойчивые пайплайны обработки и доставки данных.
- Участвовать в архитектурных решениях, внедрять best practices хранения, мониторинга и качества данных.
- Проектировать витрины данных под продуктовую и управленческую аналитику (OLAP).
- Сопровождать миграцию BI‑отчётов на новую платформу (например, DataLens, Power BI).
Почему это интересно
- Ты действительно будешь создавать платформу с нуля — не просто настраивать Airflow, а проектировать архитектуру верхнего уровня с безопасностью, мониторингом и многопользовательской нагрузкой.
- Влияешь на технологический курс всей компании: твои решения будут использовать десятки команд.
- Работаешь с современным стеком: Spark 3+, Kafka, S3, ClickHouse и BI‑инструментами.
- Сможешь реализовать технические решения, которые трудно внедрить в рамках существующих подходов.
- Решаешь серьёзные инженерные задачи: миграция с Hadoop, масштабируемость, отказоустойчивость и строгие SLA по доставке данных.
Мы будем рады специалисту, который
- Имеет 3+ лет опыта на позиции Data Engineer / Big Data Engineer.
- Хорошо понимает, как работает Spark и умеет его готовить.
- Работал с ClickHouse и знает, как «выжать» из него максимум.
- Знаком с построением дата‑архитектуры (DWH, Lake, OLAP, ETL/ELT, Data Governance).
- Умеет проектировать пайплайны под отказоустойчивость.
- Хорошо владеет одним из языков программирования (например, Python или Scala).
- Знает SQL и может читать логику отчётов без боли.
Плюсом будут
- Опыт построения дата‑платформ (Self‑Service инструменты и процессы).
- Опыт работы с высоконагруженной Kafka (десятки / сотни тысяч событий в секунду).
- Знание инструментов мониторинга и автоматического контроля качества данных (Data Quality, Data Contracts).
- Опыт построения Data Lineage и работы с Data Catalog.
- Инфраструктурный опыт: Docker, Kubernetes, CI/CD.
Как мы работаем
- Не боимся убирать легаси — осознанно избавляемся от устаревших решений.
- Оцениваем эффективность не по объёму кода, а по бизнес‑ценности.
- Любим, когда инженер предлагает нестандартные, но обоснованные решения.
- Считаем, что архитектура важна только тогда, когда её понимают — human‑friendly документация обязательна.
- Умеем договариваться — и с бизнесом, и друг с другом.
Что мы предлагаем
- 2ГИС — аккредитованная IT‑компания.
- Можно работать удалённо или в офисах (Москва, Санкт‑Петербург, Новосибирск) — главное результат, а не локация.
- Полностью «белая» зарплата и дополнительные дни отпуска за стаж работы.
- Заботимся о здоровье: ДМС, онлайн‑консультации терапевта, невролога, психолога и медицинского агента.
- Поддерживаем развитие: учебный центр, курсы, тренинги и книги для прокачки скиллов.
- Если хочешь делиться опытом — поможем с выступлениями на конференциях и публикациями на Хабре.
А ещё мы проводим внутренние хакатоны, отмечаем значимые релизы и устраиваем масштабный фестиваль 2FEST для всего RnD. Делимся опытом на митапах и в подкастах, пишем про технологии на Хабре, а про новое в продуктах - на VC и Доставили, рассказываем о внутрянке в телеграм Dev2GIS, выступаем на CodeFest, HighLoad и многое другое.