Data Platform Engineer (NRT/Spark)
Финтех в Яндексе — это одно из ключевых и наиболее динамично развивающихся направлений компании. Это экосистема финансовых сервисов, встроенная в повседневную жизнь миллионов пользователей и бизнесов. Это молодое, смелое направление, которое уже доказало свою пользу и продолжает активно расти.
Ключевые продукты Финтеха: Яндекс Пэй, Сплит, Сейвы, Карта Плюса, кредитные продукты, Яндекс ID, Яндекс Про и многое другое.
Это сложная инженерная и аналитическая среда, где пересекаются высокая нагрузка, большие данные и жёсткие требования регуляторов.
В команду платформенных данных требуется специалист по Apache Spark с глубоким понимаем внутренней архитектуры фреймворка. Основная задача — развитие платформы для обработки NRT-данных (near real time), повышение отказоустойчивости и производительности потоковых процессов.
Вот с чем вам предстоит столкнуться:
- Высокие нагрузки: миллионы транзакций, таблицы с объёмом далеко за 1 млн записей
- Распределённые данные: используются Greenplum, ClickHouse, Hadoop, Spark для обработки огромных массивов информации
- Архитектура DWH: строятся сложные хранилища данных, витрины для отчётности (регуляторной и управленческой), настраиваются ETL-процессы
- Безопасность и интеграция: проработка интеграций с внешними источниками (БКИ, СМЭВ), автоматизация ручных процессов бэк-офиса, работа с автоматизированными банковскими системами
Стек для ежедневных задач:
- Язык: Python (основной для разработки пайплайнов и скриптов)
- Оркестрация: Apache Airflow (разработка пайплайнов)
- Обработка данных: Apache Spark (Spark SQL, DataFrame)
- Запросы: Trino (работа с данными через движок)
Подробнее о нас — на странице Финтеха.
Задачи и обязанности
Проектирование и развитие облачной дата-платформы
Мы готовимся к кратному росту объёмов обрабатываемых данных. Вы будете оптимизировать инфраструктуру и проектировать новые компоненты платформы с использованием облачных технологий Yandex Cloud.
Построение единой observability-платформы для таблиц DWH
Мы обеспечиваем наблюдаемость и контролируемость процессов. Вам предстоит создать единую точку входа для мониторинга статусов сборки, качества данных и анализа зависимостей, включая построение datalineage и процессы логирования.
Ускорение текущих процессов поставки данных
Наша задача — ускорить обработку растущих потоков данных. Вы будете оптимизировать существующие и выстраивать новые надёжные процессы поставки данных, включая процессы взятия снепшотов, загрузки инкрементов напрямую, из аудит-таблиц и CDC, а также внедрять Spark Streaming или аналогичные решения для обеспечения обновления данных с минимальной задержкой.
Построение тестовых окружений
Мы выстраиваем среду безопасной разработки и повышаем надёжность разрабатываемых решений. В ваши задачи войдёт создание изолированных сред разработки, тестирования и предпрода с автоматизированными процессами проверки.
Развитие фреймворков обработки данных
Для ускорения разработки мы создаём low-code-решения. Вам предстоит развивать внутренние фреймворки для загрузки, трансформации и контроля качества данных.
Больше о разработке в Яндексе — в канале Yandex for Developers
Требования
- Занимались коммерческой разработкой от четырёх лет
- Глубоко понимаете устройство баз данных: оптимизация запросов, планы выполнения, партиционирование, шардирование и индексы
- Владеете СУБД разного типа: PostgreSQL, Oracle, MongoDB, Greenplum
- Имеете опыт работы с CDC (Change Data Capture): понимаете принципы и умеете реализовывать пайплайны
- Уверенно работаете с S3-совместимыми хранилищами