Профессиональная конференция по интеграции процессов разработки, тестирования и эксплуатации

7 и 8 апреля 2025

Москва

LLM в работе DevOps-инженера: как сделать анализ логов проще и безопаснее

Применение ИИ в Devops

Программный комитет ещё не принял решения по этому докладу

Целевая аудитория

Devops, support

Тезисы

DevOps-инженеры сталкиваются с рядом рутинных проблем, включая необходимость обработки и анализа больших объёмов логов. Уже не секрет, что применение LLM (Large Language Models) может существенно упростить работу DevOps-инженеров, автоматизировав анализ логов, выявляя паттерны, аномалии в данных и возможные проблемы. Чтобы обеспечить безопасность и конфиденциальность информации, рекомендуется размещать LLM локально на собственных серверах или в облачной инфраструктуре. Такой подход минимизирует риски утечки данных. В докладе рассмотрим, какие модели можно использовать для анализа логов и что для этого потребуется.

Дата сайентист в компании Raft DS. Занимаюсь обучением LLM, созданием агентов и инференсом моделей. Есть научные публикации по классическому ML, а так же по применению LLM в задачах разработки ПО. https://journals.sagepub.com/doi/10.1177/02762374241267105

Raft DS

Ведущий интегратор искусственного интеллекта на российском рынке. Занимается созданием и экспертизой решений, которые улучшают бизнес процессы с помощью искусственного интеллекта.

Видео