LLM в работе DevOps-инженера: как сделать анализ логов проще и безопаснее
Программный комитет ещё не принял решения по этому докладу
Целевая аудитория
Тезисы
DevOps-инженеры сталкиваются с рядом рутинных проблем, включая необходимость обработки и анализа больших объёмов логов. Уже не секрет, что применение LLM (Large Language Models) может существенно упростить работу DevOps-инженеров, автоматизировав анализ логов, выявляя паттерны, аномалии в данных и возможные проблемы. Чтобы обеспечить безопасность и конфиденциальность информации, рекомендуется размещать LLM локально на собственных серверах или в облачной инфраструктуре. Такой подход минимизирует риски утечки данных. В докладе рассмотрим, какие модели можно использовать для анализа логов и что для этого потребуется.
Дата сайентист в компании Raft DS. Занимаюсь обучением LLM, созданием агентов и инференсом моделей. Есть научные публикации по классическому ML, а так же по применению LLM в задачах разработки ПО. https://journals.sagepub.com/doi/10.1177/02762374241267105
Raft DS
Видео
Другие доклады секции
Применение ИИ в Devops