Ищите работу Technical Lead — CUDA/Triton Kernel Development for LLM Acceleration? Предлагаем вам рассмотреть прямую вакансию в компании ООО "ХЭДХАНТЕР" в г. Москва person

Вакансия: Technical Lead — CUDA/Triton Kernel Development for LLM Acceleration

Зарплата: руб.

Регион: г. Москва
Опубликовано: 14.12.2025
Компания: ООО "ХЭДХАНТЕР"
Форма занятости: Полная занятость
Метод работы: Режим гибкого рабочего времени
Задачи: Мы создаём самые сильные языковые модели в России и одни из самых больших в мире такие как GigaChat3 Ultra. Создание таких систем требует оптимизации архитектуры под GPU и решение проблем с масштабированием на кластера из тысяч видеокарт. Все это - нетривиальные инженерные вызовы, решение которых закладывается в следующие поколения наших моделей. У нас вы будете работать с современным набором видеокарт: NVIDIA B200/H100. Наш стек полностью интегрирован с PyTorch/TensorRT/ONNX и активно использует Triton, CUDA, CUTLASS и кастомные ядра для оптимизации: FlashAttention, PagedAttention, DeepEP, и др. Среди наших достижений - реализация собственных ядер для распределённого обучения: асинхронный Expert Tensor Parallel, а также Async Liger. Но хочется больше Цель - снизить latency и увеличить throughput, оптимизировать новые архитектуры, делать их обучение экономически выгодным по сравнению с классическими LLM MoE Обязанности лидировать направление по разработке и оптимизации CUDA/Triton-ядер для LLM тесно взаимодействовать с ML-инженерами и research-командами для понимания workload’ов и bottleneck’ов (например: multinode inference, sparse attention, mixture-of-experts, long-context inference) участвовать в open-source инициативах (возможно — форки/патчи в Triton, upstream в PyTorch/TensorRT/SGLang) Мы ожидаем, что вы: имеете 5+ лет опыта в low-level GPU программировании (CUDA C++, PTX/SASS, shared memory/coalescing/warp-shuffle, async memcpy, stream management) глубоко понимаете архитектуру NVIDIA GPU (Tensor Cores, warp execution, occupancy, L2 cache hierarchy) и умеете профилировать через Nsight владеете Triton (или готовы освоить быстро) и понимаете его trade-offs vs чистая CUDA есть опыт работы с современными фреймворками: PyTorch (custom ops, torch.compile), TensorRT (plugins), возможно — SGLang имеете опыт управления технической командой (2+ лет как lead/tech lead) Плюсом будет: понимание сетевой составляющей обучений на больших кластерах (опыт работы с NVSHMEM, NCC) знание CPU/GPU взаимодействия (pinned memory, zero-copy, unified memory pitfalls) опыт оптимизации под конкретные HW — например, Hopper vs Ampere. Условия удалённо по всей России возможность оформления в аккредитованную IT-компанию годовая премия по итогам работы регулярный пересмотр зарплат корпоративный спортзал и зоны отдыха более 400 программ СберУниверситета для роста программа адаптации и помощь руководителя на старте крупнейшее DS AI community – более 600 DS банка, регулярный обмен знаниями, опытом и лучшими практиками, интерактивные лекции и мастер-классы от ведущих ВУЗов и экспертов технологических компаний, дайджест о самых последних разработках в области DS AI и отчеты с крупнейших конференций мира, регулярные внутренние митапы ДМС, льготное страхование для семьи, корпоративная пенсионная программа ипотека для сотрудников по дисконтной программе СберПрайм+ и скидки у партнёров бонус за рекомендации в команду.
Образование: Не указано

Контакты:

Для просмотра контактов необходимо авторизоваться на сайте.

Войти

Черный список работодателей | Отзывы сотрудников | Nahjob
Вакансии вахта