← Все вакансии

ML-разработчик в команду претрейна VLM

В нашей команде вас ждут сложные задачи на стыке research и systems engineering. Мы работаем с огромными мультимодальными данными, исследуем scaling laws, запускаем ресурсоёмкие распределённые обучения и собираем рецепты, которые делают модель сильнее не только на открытых тестах, но и в прикладных сценариях. Если вам хочется влиять на качество VLM на самом глубоком уровне — вам к нам.

Задачи и обязанности

Развивать претрейн мультимодальных моделей

Вам предстоит исследовать архитектурные решения, рецепты и режимы обучения для VLM. Нужно будет находить подходы, которые улучшают базовые способности модели, усиливают связь между визуальной и текстовой модальностями и дают устойчивый прирост качества не только на открытых бенчмарках, но и в реальных продуктовых задачах.

Работать с петабайтами мультимодальных данных

Качество претрейна во многом определяется данными. Вам предстоит работать с огромными массивами мультимодальных данных из разных доменов: image-text, OCR, документы, таблицы, графики, интерфейсы, видео, UGC. Важно принимать решения о составе обучающих данных: какие домены, форматы и пропорции усиливают модель, исследовать scaling laws, как снижать шум и превращать работу с данными в масштабируемый pipeline.

Работать с large-scale-обучением

Претрейн VLM — это длинные и ресурсоёмкие обучения, где важна сильная инженерная база. Вы будете работать с распределённым обучением, профилировать узкие места, следить за эффективностью использования GPU, улучшать стабильность запусков и воспроизводимость экспериментов.

Больше об ML в Яндексе — в канале Yandex for ML

Требования

  • Получили опыт в CV, NLP и хорошо понимаете устройство современных LLM/VLM
  • Понимаете, как устроено распределённое обучение больших моделей
  • Умеете формулировать исследовательские гипотезы и проверять их экспериментально
  • Аккуратно ставите эксперименты, корректно сравниваете подходы и умеете выделять реальные улучшения
  • Умеете писать рабочий и понятный код и доводить идеи до воспроизводимого результата

Дополнительные требования

  • Обучали большие модели или работали с крупными DL-системами
  • Работали с pretrain-пайплайнами для LLM или VLM
  • Знакомы с Megatron, DeepSpeed, FSDP, PyTorch Distributed или аналогичными инструментами
PyTorch LLM
Откликнуться →