أكد المستشار حسن البدراوي، نائب رئيس محكمة النقض، أن الذكاء الاصطناعي قائم على الذكاء البشري، مشددًا على ضرورة ضبط العلاقة بين الإنسان والتقنيات الذكية في مجال العدالة الجنائية، بحيث يُستفاد منه كأداة داعمة لرفع كفاءة العمل القضائي دون أن يحل محل العقل البشري أو القيم القانونية الحاكمة للعدالة.
جاء ذلك خلال الجلسة السادسة من فعاليات المؤتمر السنوي الخامس والعشرين للمركز القومي للبحوث الاجتماعية والجنائية، التي انعقدت عصر الثلاثاء 16 ديسمبر 2025 تحت عنوان: “العدالة الجنائية والذكاء الاصطناعي”، وشهدت عرض خمس أوراق بحثية ناقشت أبعادًا تشريعية وقانونية وأخلاقية لهذه القضية.
- الورقة الأولى للقاضي د. فاروق عبيد بعنوان “مواءمة الإطار التشريعي في مصر مع التطورات المتسارعة لتقنيات الذكاء الاصطناعي”، تناولت التحديات التي فرضتها التحولات الرقمية العالمية على النظم القانونية التقليدية.
- الورقة الثانية للمستشار عادل ماجد بعنوان “الذكاء الاصطناعي ومبادئ العدالة الجنائية”، ركزت على تأثير التقنيات الذكية في منظومة العدالة مع الحفاظ على حرية القاضي الجنائي في الاقتناع.
- الورقة الثالثة لأ. محمد منشاوي بعنوان “استخدام الذكاء الاصطناعي في العدالة الجنائية: قراءة نقدية في بعض التجارب الدولية”، استعرضت التجارب الدولية مع تقييم الفوائد والتحديات الأخلاقية والقانونية.
- الورقة الرابعة للقاضي ياسين عبد الكريم بعنوان “الخوارزميات القضائية: معضلة الصندوق الأسود”، ناقشت إشكالية الشفافية في استخدام الخوارزميات القضائية وضمان دور القاضي الإنساني.
- الورقة الخامسة للقاضي محمد مرعي بعنوان “حوكمة أنظمة المساعدة القضائية المدعمة بالذكاء الاصطناعي”، ركزت على حماية الخصوصية وضمان الإشراف البشري لتحقيق التوازن بين الكفاءة التقنية وسيادة القانون.
وقد عقب على الأوراق المستشار وسام بدران رئيس محكمة النقض، إلى جانب نخبة من الخبراء والأكاديميين وصناع القرار، حيث خلصت المناقشات إلى توصيات مهمة أبرزها:
- سنّ تشريعات وطنية واضحة تنظم استخدام الذكاء الاصطناعي في العدالة الجنائية.
- وضع إطار قانوني صارم لحماية البيانات الشخصية وضمان الخصوصية.
- تقييد استخدام الخوارزميات غير القابلة للتفسير في القضايا الجنائية الحساسة.
- اعتبار البيانات والنماذج الخوارزمية جزءًا من الملف القضائي مع ضمانات أمنية.
- تشجيع اعتماد الخوارزميات مفتوحة المصدر في المجالات القضائية.
- تدريب القضاة وأعضاء النيابة والمحامين على فهم وتقييم مخرجات الذكاء الاصطناعي.
- المشاركة الفاعلة في صياغة معايير دولية موحدة لحوكمة الذكاء الاصطناعي














