Как мы разработали production Kubernetes-оператор за 7 дней вместо 90, используя LLM

AI-Driven Engineering: практики, риски и трансформация разработки

Программный комитет ещё не принял решения по этому докладу

Целевая аудитория

Senior DevOps-инженеры, platform-инженеры, SRE, техлиды. Предполагается опыт эксплуатации Kubernetes в production и базовое знание Go.

Тезисы

При разработке инфраструктурного кода для Kubernetes основная сложность — не написание отдельных фрагментов кода, а работа с большим контекстом: существующая архитектура, ограничения, обратная совместимость и риски изменений. Попытки использовать LLM напрямую, как «умный автогенератор», в таких задачах быстро упираются в ошибки и потерю контроля.

В докладе я разберу реальный кейс разработки production Kubernetes-оператора за 7 дней вместо привычных 2–3 месяцев. Я покажу, как LLM использовался не сам по себе, а внутри инженерного процесса: с декомпозицией задач, поиском контекста в репозитории, проверкой решений и явными точками, где окончательное решение принимает человек.

Доклад будет полезен инженерам, которые работают с Kubernetes и инфраструктурным кодом (в том числе операторами и контроллерами) и хотят понять, в каких задачах LLM реально экономит время, где создаёт риски и почему без процесса и контроля такой подход не даёт устойчивого результата.

Михаил Петров

Yandex Cloud, Stackland

Получает деньги за Линукс с 2004 года. Работает с Кubernetes c 2017. 10 лет работал в Яндексе, 5 — в VK.

Видео