Проектирование и разработка backend-части системы (модульность, микросервисы, очереди, кеширование).
Интеграция внешних сервисов (платежные системы, email, облачные хранилища и т.д.).
Работа с базами данных (PostgreSQL, Redis, MongoDB): проектирование схем, оптимизация запросов, миграции.
Реализация авторизации и аутентификации (JWT, OAuth2, refresh-токены, роли пользователей).
Настройка очередей задач и фоновых воркеров (Celery / RabbitMQ / Redis Queue / Kafka).
Работа с файловыми хранилищами (S3 / MinIO / локальные решения).
Настройка логирования, мониторинга и алертинга (Sentry, Prometheus, Grafana, ELK).
Разработка системы прав и ролей (RBAC).
Написание автотестов (unit, integration, pytest).
Настройка CI/CD (GitLab CI, Docker, Docker Compose, Kubernetes, Helm).
Безопасность API и данных (rate limiting, CORS, SQL-инъекции, XSS, CSRF).
Оптимизация производительности (асинхронность, кеширование, балансировка нагрузки).
Поддержка DevOps-процессов (деплой, откаты, staging-среда).
Документирование API (Swagger / OpenAPI / Postman-коллекции).
Разработка и тестирование промптов для LLM-моделей (GPT-4, Claude, Mistral и т.п.).
Проектирование цепочек запросов (prompt pipelines) и систем контекстного ввода (few-shot, chain-of-thought, RAG).
Оптимизация формулировок запросов для точных и предсказуемых ответов моделей.
Пост-обработка и структурирование ответов модели (JSON, Markdown, HTML, docx и т.д.).
Интеграция моделей в backend-архитектуру через API (OpenAI SDK, Anthropic SDK, HuggingFace, LangChain и др.).
Мониторинг и логирование промптов — контроль токенов, стоимости, времени отклика.
Настройка систем кэширования и оптимизации для LLM-вызовов.
Разработка инструментов для тестирования качества промптов и анализа ответов моделей.
Обеспечение безопасности LLM-интеграций (защита от prompt injection, управление API-ключами).
Совместная работа с продуктовой и ML-командой для улучшения логики генерации контента.
Требования:
Python (FastAPI / Django / Flask) или Node.js (NestJS / Express).
PostgreSQL / Redis / MongoDB.
Docker, Docker Compose, Linux.
Асинхронное программирование (asyncio / aiohttp / celery).
Опыт интеграции с LLM API (OpenAI, Anthropic, Mistral и т.д.).
Знание принципов построения масштабируемой архитектуры и балансировки нагрузки.
Понимание основ prompt engineering, RAG, LangChain, LlamaIndex — будет преимуществом.
Опыт аналогичной работы от 4-х лет.
Условия:
Проектная деятельность;
Ударенный режим;
Оплата - по договоренности.
График работы: 5/2, 8 часов в день