AI в DevOps
— это срежиссированные тематические маршруты по конференции.
Один стрим развития - одна тема, которая раскрывается последовательно через разнообразные форматы (доклады, воркшопы, дискуссии и др.), чтобы вы получили максимально полное и практическое понимание ключевой темы.
Разрабатываете платформу, строите работу devops-команды? Большое количество стейкхолдеров и у каждого свои цели, задачи, ограничения и даже технологический стек? Вам будет полезен стрим развития о том, как учитывать в работе devops-команды интересы и процессы большого количества акторов.
Выбрать свой стрим развития:
Этот стрим — редкий пример разговора не про код, а про контекст, в котором этот код создается. Вместо абстрактных советов по коммуникации авторы обещают показать, как выстраивать работу DevOps-команды в условиях конфликта целей и технологического разнообразия, не скатываясь в хаос или бюрократию. Будет полезно всем, кто устал от фразы «ну вы же технические люди, сами разбирайтесь».
Программа стрима
Как мы разработали production Kubernetes-оператор за 7 дней вместо 90, используя LLM
При разработке инфраструктурного кода для Kubernetes основная сложность — не написание отдельных фрагментов кода, а работа с большим контекстом: существующая архитектура, ограничения, обратная совместимость и риски изменений. Попытки использовать LLM напрямую, как «умный автогенератор», в таких задачах быстро упираются в ошибки и потерю контроля.
В докладе я разберу реальный кейс разработки production Kubernetes-оператора за 7 дней вместо привычных 2–3 месяцев. Я покажу, как LLM использовался не сам по себе, а внутри инженерного процесса: с декомпозицией задач, поиском контекста в репозитории, проверкой решений и явными точками, где окончательное решение принимает человек.
Доклад будет полезен инженерам, которые работают с Kubernetes и инфраструктурным кодом (в том числе операторами и контроллерами) и хотят понять, в каких задачах LLM реально экономит время, где создаёт риски и почему без процесса и контроля такой подход не даёт устойчивого результата.
От нуля до GPUaaS
Развертывание и управление кластером Kubernetes с поддержкой GPU в изолированном контуре — это вызов, особенно когда нужно обеспечить низкие задержки InfiniBand и изоляцию для множества команд.
Мы расскажем, как решили эту задачу, построив полностью автоматизированный стек на базе операторов. Вы увидите, как:
- “GPU и Network Operator” - берут на себя всю сложность настройки драйверов, SR-IOV VF и сетевых партиций (pkey).
- “Автоматизация на основе квот” - предоставляет разработчикам изолированные неймспейсы с гарантированной долей GPU и высокой производительностью сети.
Будут ли нужны DevOps к 2030 году или вас всех поглотит AI?
Кажется, ещё чуть-чуть — и DevOps можно выкидывать: GitLab сам пишет пайплайны, облака собирают инфраструктуру «по описанию», LLM-ы генерируют Terraform и Helm, а в LinkedIn каждые две недели выходит пост «AI заменит X к 2030 году».
Обсудим за столом и разберёмся, что из этого правда, что хайп, и как вообще будет выглядеть работа DevOps-инженера в мире, где AI умеет писать код, YAML и даже иногда его запускать :)