На данный момент мы усиливаем команду, и находимся в поиске нацеленного на результат Machine Learning engineer / AI engineer на один из наших проектов.
Чем предстоит заниматься:
- Разработка и внедрение ML и DL моделей для прогнозирования, анализа и поддержки принятия решений;
- Построение и оптимизация рекомендательных систем.
Работа с мультимедийным контентом:
- Анализ изображений и видео: определение объектов, оценка качества, выявление паттернов;
- Генерация изображений и видео, включая текстовую разметку и описания;
- Дообучение генеративных моделей на собственных данных;
- Контроль качества и автоматическое тестирование контента;
Разработка решений на основе LLM:
- Интеграция больших языковых моделей в продукты;
- Построение Retrieval-Augmented Generation (RAG) систем;
- Создание и управление AI-агентами для решения прикладных задач;
- Полный цикл ML-разработки: от исследования и прототипирования до продакшена и поддержки;
- Построение архитектуры ML-решений, настройка мониторинга и переобучения;
- Работа с векторными БД, API, пайплайнами обработки и хранения данных;
- Плотная работа с продуктовыми командами, разработчиками и аналитиками.
Нам важно в Вас:
- Опыт работы от 3 лет в сфере машинного обучения, глубокого обучения и разработке AI-систем;
- Опыт от 3 лет в области машинного обучения и AI;
Отличное владение Python и инструментами:
- PyTorch, Lightning, scikit-learn, и другие;
- OpenCV, torchvision, albumentations — для CV-задач;
- Diffusers (HuggingFace), ComfyUI, Stable Diffusion — для генеративных моделей;
- LangChain, OpenAI API, Ollama — для работы с LLM.
Знание и опыт работы с основными архитектурами нейросетей, такими как:
- Convolutional Neural Networks (CNN) для задач компьютерного зрения (обнаружение объектов, классификация, сегментация);
- Recurrent Neural Networks (RNN) и Long Short-Term Memory (LSTM) для работы с последовательными данными (например, временные ряды, текстовые данные);
- Transformer и его производные, включая BERT, GPT, ViT, для обработки текста и мультимодальных данных (NLP, генерация текста, обработка изображений);
- Generative Adversarial Networks (GAN) и Variational Autoencoders (VAE) для генерации данных, синтеза изображений и контента;
- Autoencoders (AE) для низкоуровневой обработки данных, таких как денойзинг и сжимающие модели.
Уверенные знания MLOps-подходов:
- Использование MLflow, DVC для трекинга экспериментов и версионирования;
- Контейнеризация и деплой моделей (Docker, FastAPI, OpenAPI);
- Настройка мониторинга, автоматизации и переобучения моделей;
- Уверенная работа в Linux-среде, настройка окружения, скрипты, автоматизация;
- Опыт разработки и оптимизации inference API;
- Работа с векторными базами данных: FAISS, Weaviate, Qdrant, Pinecone;
- Знание SQL и понимание работы с хранилищами (PostgreSQL, ClickHouse и пр.);
- Опыт в NLP, CV, генерации контента и мультимодальных системах;
- Умение работать самостоятельно, брать задачи end-to-end;
- Инициативность и гибкость в выборе подходов и технологий;
- Навык перевода бизнес-целей в ML-задачи;
- Грамотная коммуникация, взаимодействие с продуктовыми и инженерными командами;
- Высокие стандарты к качеству кода, повторяемости и поддерживаемости решений.
Мы предлагаем:
- Работу в Минском офисе, БЦ Александров Пассаж, 250 кв.м. Адрес: просп. Независимости 117a, ст. м. Московская / ст. м. Восток;
- Гибридный формат работы (на период испыт. срока - работа в Минском офисе, после прохождения испыт. срока - 1 день в неделю удаленно);
- Гибкое начало работы с 09/10-00 до 18/19-00, GMT+3;
- Конкурентная заработная плата, обсуждается индивидуально;
- Интересные задачи с возможностью реализации своих идей;
- Официальное оформление в штат компании;
- Отпуск согласно ТК РБ;
- 5 оплачиваемых DAY OFF;
- Подарки на день рождения;
- Насыщенную корпоративную жизнь: игры, челленджи, марафоны и многое другое!
Ключевые навыки
- Machine Learning
- AI
- LLM
- RAG
- Python
- PyTorch
- Lightning
- Scikit-learn
- OpenCV
- CNN
- RNN
- LSTM
- Transformer
- GAN
- VAE
- AE
- MLflow
- DVC
Задайте вопрос работодателю
Где предстоит работать
Вакансия опубликована 7 апреля 2025 в Минске