برنامج تدريبي متقدم وشامل حول اختبار الاختراق (Red Teaming) لأنظمة الذكاء الاصطناعي التوليدي والتعلم الآلي:
🎯 الهدف والفكرة الرئيسية
يهدف المشروع إلى تدريب الباحثين في مجال الأمن على التقنيات الهجومية المتقدمة التي تستهدف أنظمة الذكاء الاصطناعي، مثل استخراج البيانات وخداع النماذج.
الفكرة هي "فهم عقلية المهاجم" من أجل بناء دفاعات أفضل، وهو ما يتجاوز نطاق اختبارات الذكاء الاصطناعي المسؤول (RAI) التقليدية التي تركز على العدالة والتحيز.
📂 هيكل الدورة ومحتواها
تتكون الدورة من ثمانية وحدات متسلسلة، كل منها تبني على السابقة:
1. مقدمة وأساسيات: نظرة عامة على المشهد الأمني.
2. الحقن السريع وكسر الحماية: كيفية اختراق أو تجاوز قيود نموذج اللغة.
3. هجمات التهرب: خداع النماذج بأمثلة مصممة خصيصًا.
4. استخراج البيانات والخصوصية: هجمات للكشف عما إذا كانت بيانات معينة جزءًا من بيانات التدريب.
5. التسميم: كيفية حقن نقاط الضعف أو الأبواب الخلفية أثناء تدريب النموذج.
6. هجمات متقدمة على نماذج اللغة: مثل استخراج أوزان النموذج نفسه.
7. التقييم والاختبار: منهجيات وأطر عمل شاملة.
8. التقييم النهائي: مشروع يتحدى فهمك لجميع المفاهيم.
تحتوي كل وحدة على:
· شرح نظري (مستندات Markdown).
· مختبرات عملية (دفاتر Jupyter التفاعلية).
· مراجع وتمارين تقييمية.
