المقدمة
ومع تزايد اندماج أنظمة الذكاء الاصطناعي في التطبيقات الحيوية، أصبح تأمينها ضد التهديدات العدائية أكثر أهمية. تغطي هذه الدورة الهجمات العدائية، ومخاطر استغلال النماذج، وتقنيات الدفاع. سيتعلم المشاركون كيف يتلاعب المهاجمون بالمدخلات، أو يسميمون مجموعات البيانات، أو يعكسون النماذج للهندسة العكسية. تساعد التمارين العملية المتعلمين على فهم كيفية ظهور نقاط الضعف وكيفية التخفيف منها. بحلول النهاية، سيتمكن المشاركون من تحديد المخاطر الأمنية للذكاء الاصطناعي والدفاع ضدها.
أهداف الدورة
- فهم مفاهيم التعلم الآلي العدائي
- استكشف أنواع الهجمات على أنظمة الذكاء الاصطناعي
- تعلم استراتيجيات الدفاع للنماذج القوية
- تحليل التهديدات التي تواجه خطوط أنابيب التدريب
- بناء سير عمل آمن للذكاء الاصطناعي
الفئة المستهدفة
- مهندسو التعلم الآلي
- محترفو الأمن السيبراني
- باحثون في سلامة الذكاء الاصطناعي
- مهندسو البيانات
- الطلاب الذين يدرسون تعلم الآلة الخصمي
المنهاج
- 5 Sections
- 0 Lessons
- 5 أيام
Expand all sectionsCollapse all sections
- اليوم الأول: نظرة عامة على أمن الذكاء الاصطناعي• مشهد التهديدات• أنواع الثغرات• أسطح الهجوم• فئات الدفاع• دراسات حالة0
- اليوم الثاني: الهجمات العدائية• هجمات المراوغة• التصنيع الاضطرابي• FGSM، PGD• استخراج النموذج• التفاعل العملي: إنشاء أمثلة خصومية0
- اليوم الثالث: التسميم والهجمات الخلفية• استراتيجيات تسميم البيانات• مخاطر سلسلة التوريد• محفزات الباب الخلفي• ثغرات في خطوط الأنابيب التدريبية• التجربة العملية: محاكاة التسمم0
- اليوم الرابع: الدفاعات والصلابة• التدريب التنافسي• أنظمة الكشف• دفاعات معتمدة• تعقيم المدخلات• التفاعل العملي: الدفاع عن نموذج0
- اليوم الخامس: نشر الذكاء الاصطناعي الآمن• أنظمة الذكاء الاصطناعي بالتعاون مع الفريق الأحمر• المراقبة المستمرة• الحوكمة النموذجية• أطر تقييم المخاطر• مشروع التخرج0







