المقدمة
يسعى الذكاء الاصطناعي القابل للتفسير إلى جعل نماذج التعلم الآلي شفافة وقابلة للتفسير ومفهومة للبشر. تستكشف هذه الدورة الأدوات العملية والأسس النظرية لتفسير النماذج المعقدة. سيتعلم المشاركون طرق التفسير العالمية والمحلية وكيفية تطبيقها بمسؤولية. تظهر أمثلة واقعية كيف أن القابلية للتفسير تحسن الثقة والامتثال التنظيمي. بحلول النهاية، سيتمكن المتعلمون من تقييم وشرح قرارات الذكاء الاصطناعي.
أهداف الدورة
- فهم أهمية قابلية التفسير
- تعلم تقنيات التفسير غير المحايدة للنموذج
- استكشف قابلية التفسير لنماذج التعلم العميق
- تطبيق أدوات XAI على المهام الحقيقية
- فهم المتطلبات التنظيمية للشفافية
الفئة المستهدفة
- مهندسو التعلم الآلي
- علماء البيانات
- مديرو المنتجات
- ضباط الامتثال
- الطلاب الذين يدرسون أخلاقيات الذكاء الاصطناعي
المنهاج
- 5 Sections
- 0 Lessons
- 5 أيام
Expand all sectionsCollapse all sections
- اليوم الأول: أسس التفسير• لماذا يجب شرح النماذج• نماذج قابلة للتفسير مقابل نماذج الصندوق الأسود• أنواع الشروحات• التحديات الرئيسية• التجربة العملية: تفسير النماذج الأساسي0
- اليوم الثاني: تقنيات المحايدة للنماذج• الجير• SHAP• مخططات الاعتماد الجزئي• أهمية الميزة• التجربة العملية: تطبيق أدوات XAI0
- اليوم الثالث: تفسير النماذج العميقة• تصور التفعيل• آليات الانتباه• خرائط البارزة• التأمل النموذجي• التفاعل: تفسير الرؤية/معالجة اللغة الطبيعية0
- اليوم الرابع: متطلبات الصناعة والتنظيمية• اللائحة العامة لحماية البيانات والشفافية• الحوكمة النموذجية• شروحات مباشرة للمستخدم• إدارة المخاطر• دراسات حالة0
- اليوم الخامس: بناء أنظمة قابلة للتفسير• تصميم سير عمل قابل للتفسير• أنظمة اتخاذ القرار من قبل الإنسان في الحلقة• تفسيرات اختبار• مستقبل XAI• مشروع التخرج0







