
Аноним
Маска Организаторов
Организатор
- Сообщения
- Монеты
- +89.5
- Оплачено
- 5
- Купоны
- 0
- Кешбэк
- 0
- Баллы
- 0
- @Skladchiki
- #1
Складчина: [Udemy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (Start Tech Academy)
- Ссылка на картинку
-
Pentesting GenAI LLM models:
Securing Large Language Models
Освойте безопасность LLM: тестирование на проникновение, Red Teaming и MITRE ATT&CK для защищенных больших языковых моделей.
Чему вы научитесь:
9 разделов • 53 лекций • Общая продолжительность 3 ч 21 мин
1.Введение
2.Введение в LLM Security & Penetration Testing
3.Обзор уязвимостей LLM
4.Основы тестирования на проникновение и Red Teaming
5.Red Teaming для LLM
6.Стратегии отчетности и смягчения последствий
7.Структура MITRE ATT&CK для студентов LLM
8.Уязвимости приложений LLM
9.Заключение
Описание:
Red Teaming & Penetration Testing for LLMs — это тщательно структурированный курс, предназначенный для специалистов по безопасности, разработчиков ИИ и этичных хакеров, стремящихся защитить генеративные приложения ИИ. От основополагающих концепций безопасности LLM до продвинутых методов red teaming, этот курс снабжает вас как знаниями, так и практическими навыками для защиты систем LLM.
На протяжении всего курса вы будете заниматься практическими кейсами и моделированием атак, включая демонстрации по быстрому внедрению, раскрытию конфиденциальных данных, обработке галлюцинаций, отказу в обслуживании модели и небезопасному поведению плагина. Вы также научитесь использовать инструменты, процессы и фреймворки, такие как MITRE ATT&CK, для оценки рисков приложений ИИ структурированным образом.
К концу этого курса вы сможете выявлять и использовать уязвимости в программах LLM, а также разрабатывать стратегии смягчения последствий и отчетности, соответствующие отраслевым стандартам.
Язык курса - Английский с русской аудиодорожкой.
Securing Large Language Models
Освойте безопасность LLM: тестирование на проникновение, Red Teaming и MITRE ATT&CK для защищенных больших языковых моделей.
Чему вы научитесь:
- Понимать уникальные уязвимости больших языковых моделей (LLM) в реальных приложениях.
- Изучите основные концепции тестирования на проникновение и их применение в системах генеративного ИИ.
- Освоите процесс Red Teaming для LLM, используя практические приемы и моделирование реальных атак.
- Проанализируете, почему традиционные тесты не обеспечивают достаточной безопасности GenAI, и изучите более эффективные методы оценки.
- Изучите основные уязвимости, такие как немедленная инъекция, галлюцинации, предвзятые реакции и многое другое.
- Используете фреймворк MITRE ATT&CK для разработки тактики противодействия, направленной против LLM.
- Выявите и устраните угрозы, характерные для конкретных моделей, такие как чрезмерное агентство, кража моделей и небезопасная обработка
- Проведение и предоставление отчетов по результатам эксплуатации приложений на основе LLM
9 разделов • 53 лекций • Общая продолжительность 3 ч 21 мин
1.Введение
2.Введение в LLM Security & Penetration Testing
3.Обзор уязвимостей LLM
4.Основы тестирования на проникновение и Red Teaming
5.Red Teaming для LLM
6.Стратегии отчетности и смягчения последствий
7.Структура MITRE ATT&CK для студентов LLM
8.Уязвимости приложений LLM
9.Заключение
Описание:
Red Teaming & Penetration Testing for LLMs — это тщательно структурированный курс, предназначенный для специалистов по безопасности, разработчиков ИИ и этичных хакеров, стремящихся защитить генеративные приложения ИИ. От основополагающих концепций безопасности LLM до продвинутых методов red teaming, этот курс снабжает вас как знаниями, так и практическими навыками для защиты систем LLM.
На протяжении всего курса вы будете заниматься практическими кейсами и моделированием атак, включая демонстрации по быстрому внедрению, раскрытию конфиденциальных данных, обработке галлюцинаций, отказу в обслуживании модели и небезопасному поведению плагина. Вы также научитесь использовать инструменты, процессы и фреймворки, такие как MITRE ATT&CK, для оценки рисков приложений ИИ структурированным образом.
К концу этого курса вы сможете выявлять и использовать уязвимости в программах LLM, а также разрабатывать стратегии смягчения последствий и отчетности, соответствующие отраслевым стандартам.
Язык курса - Английский с русской аудиодорожкой.
Показать больше
Зарегистрируйтесь
, чтобы посмотреть авторский контент.