ИИ в автоматизации разработки и эксплуатации (AI в DevOps)
— это срежиссированные тематические маршруты по конференции.
Один стрим развития - одна тема, которая раскрывается последовательно через разнообразные форматы (доклады, воркшопы, дискуссии и др.), чтобы вы получили максимально полное и практическое понимание ключевой темы.
Разрабатываете платформу, строите работу devops-команды? Большое количество стейкхолдеров и у каждого свои цели, задачи, ограничения и даже технологический стек? Вам будет полезен стрим развития о том, как учитывать в работе devops-команды интересы и процессы большого количества акторов.
Программа стрима
State of AI4SDLC
В этом докладе я поделюсь результатами нашего исследования про влияние ИИ на разработку софта, которое мы проводили в конце прошлого года в качестве микса опроса и мета-исследования (https://ai4sdlc-research.space). Также я расскажу, как мы внутри Т-Банка развиваем это направление и каких результатов нам удалось достигнуть. А напоследок расскажу о том, как мне видится развитие событий на горизонте 1 года и что станет с нашей профессией как инженеров по разработке софта?
Как мы управляем GenAI-трафиком в Istio и Kubernetes
Что такое ИИ-агент c точки зрения Kubernetes — регулярное контейнерное приложение или абсолютно новый вид рабочих нагрузки для кластера с особым трафиком?
Как рулить инференсом моделей для агентов? Протоколы MCP, A2A — это обычный HTTP или что-то большее? И что там с сетевой безопасностью?
Приходите на доклад — все обсудим.
IaC Drift Detection and AI-Driven Remediation Pipelines
AI generates your Terraform now. LLM writes the module, Checkov scans it, PR gets merged, infrastructure deploys. Beautiful workflow. Then drift happens. Someone clicks in the console. A security group gets modified. A network ACL changes outside version control. Your AI-generated infrastructure, your security policies, and your network configurations diverge from declared state. Now what? Drift is not just an infrastructure problem - it's a security incident waiting to happen and a network outage in progress. The generation problem is solved. The operations problem crosses team boundaries. Modern observability stacks, policy engines, and agent frameworks have matured. OPA can enforce policy continuously. State comparison can be automated. LLMs can analyze drift and generate remediation. The engineering challenge is building systems that work across DevOps, SecOps, and NetOps while keeping humans in control.
This session covers the building of unified drift detection pipelines, spanning infrastructure, security policies, and network configurations. We'll explore AI agents that analyze root cause and generate domain-specific remediation PRs, governance guardrails for AI agent behavior using policy-as-code, and GitOps integration with cross-team approval workflows. We'll also cover failure modes: remediation loops, alert fatigue from noisy detection, and compliance risks of over-automation.
Как мы разработали production Kubernetes-оператор за 7 дней вместо 90, используя LLM
При разработке инфраструктурного кода для Kubernetes основная сложность — не написание отдельных фрагментов кода, а работа с большим контекстом: существующая архитектура, ограничения, обратная совместимость и риски изменений. Попытки использовать LLM напрямую, как «умный автогенератор», в таких задачах быстро упираются в ошибки и потерю контроля.
В докладе я разберу реальный кейс разработки production Kubernetes-оператора за 7 дней вместо привычных 2–3 месяцев. Я покажу, как LLM использовался не сам по себе, а внутри инженерного процесса: с декомпозицией задач, поиском контекста в репозитории, проверкой решений и явными точками, где окончательное решение принимает человек.
Доклад будет полезен инженерам, которые работают с Kubernetes и инфраструктурным кодом (в том числе операторами и контроллерами) и хотят понять, в каких задачах LLM реально экономит время, где создает риски и почему без процесса и контроля такой подход не дает устойчивого результата.
Где и что может пойти не так в GPU-кластере: опыт при разработке Stackland
Хочется крутить AI как в облаке, но у себя в контуре? А как там? Арендуешь виртуальные машины у облачного провайдера, выполняешь пару команд — и вот уже на выходе показались первые токены. При этом значительная часть современных AI-нагрузок развернута в Kubernetes.
Но что при этом происходит под капотом, и как добиться такого же пользовательского опыта в контуре компании? В докладе расскажем, как мы решаем эту задачу в Yandex Cloud Stackland.
Вместе мы последовательно переберем «слои», из которых состоит типовой GPU-кластер (оборудование и драйверы, интеграция с Kubernetes, observability) и в каждом случае дадим ответы на четыре вопроса: * как устроено взаимодействие этого слоя с предыдущим и последующим, иными словами, каков контракт? * какие есть опции для реализации этого контракта? * чем они отличаются и как выбрать из них наиболее подходящую, исходя из задачи? * на что обратить внимание при эксплуатации?
Продуктовые AI-агенты и голосовые ассистенты: как это работает в реальности
В докладе Дмитрий Бобров расскажет, как на практике проектировать и эксплуатировать продуктовые AI-агенты и голосовые ассистенты — от архитектуры и инфраструктуры до MLOps и надежности.
Будут разобраны: * архитектура платформ для AI-агентов и голосовых ассистентов; * пайплайны обработки речи: ASR, NLP, LLM, TTS; * интеграция AI-агентов с бизнес-системами и API; * инфраструктура для real-time inference; * MLOps-практики для обучения и обновления моделей; * деплой, масштабирование и отказоустойчивость; * мониторинг, логирование и контроль качества диалогов; * типовые ошибки при запуске AI-ассистентов в продакшене.
Слушатели получат практический фреймворк для построения и эксплуатации AI-агентов и голосовых ассистентов, готовых к реальным нагрузкам и требованиям бизнеса.
Форсайт-сессия «Представим будущее DevOps»
На этой сессии мы попробуем заглянуть в будущее, постараемся понять, что будет с профессией через 3-5-10 лет, как изменятся наши инструменты и наши практики, какие проблемы нам придется решать завтра. Будем работать в группах, обмениваться нашими ощущениями, спорить и выбирать самое важное.
Это будет почти форсайт-сессия*, но проведение обычной форсайт-сессии обычно занимает несколько дней круглосуточной работы, мы же попробуем уложиться в полтора часа.
- Что такое форсайт? Форсайт (от англ. foresight — «предвидение») — это метод группового прогнозирования, где участники анализируют тренды, разрабатывают сценарии будущего и создают стратегии.
Пожалуйста, обратите внимание: видеотрансляция и запись форсайта вестись не будут.
Круглый стол «Будут ли нужны DevOps к 2030 году или вас всех поглотит AI?»
GitLab сам пишет пайплайны, LLM'ы генерируют Terraform и Helm, а в LinkedIn каждые две недели хоронят очередную профессию.
За столом — четыре практика с полярными позициями: одни уверены, что DevOps-команды сокращаются, потому что боль, их породившая, видоизменилась и вшивается в AI-агентов; другие приводят исторические аналогии, где каждая технология-«убийца» лишь увеличивала число специалистов на порядок. Пришло время выйти из своего контейнера, оглянуться по сторонам и честно разобраться, куда движется индустрия.