🏋🏻‍♂️Как при помощи OWASP 10 для GEN AI и инструментов мы можем перекрыть риски, связанные с MLOPS/LLMOPS

Безопасность, DevSecOps

Доклад принят в программу конференции

Мнение Программного комитета о докладе

Мы уже много говорили про безопасность для кода в пайплайнах, про статические анализаторы и про безопасность данных. А что же происходит внутри AI в этом отношении? Какие есть риски при использовании AI в продакшне и как их максимально избегать?

Целевая аудитория

Специалисты по MLSecOps, ML-инженеры, DevOps, которым интересна безопасность ML.

Тезисы

Использование генеративных нейросетей внутри компаний дает большие преимущества бизнесу в решении определенных задач. При этом уже известны инциденты безопасности, связанные именно с пайплайном нейросетей: инъекции вредоносного контента, искажение запросов, генерация неэтичного контента, кража обучающих данных и кража моделей.

В своем докладе мы рассмотрим примеры реальных угроз, как данные влияют на риск взлома и какие конкретные шаги можно предпринять, чтобы сделать ML-пайплайн безопаснее.

Артём Семенов

Независимый эксперт

Автор канала t.me/pwnai, строит мир безопаснее.

Независимый эксперт

-

Видео

Другие доклады секции

Безопасность, DevSecOps