يضيف الاتحاد الأوروبي تقييم سلامة الذكاء الاصطناعي إلى توجيه CE للآلات

الوقت:May 10, 2026

أدرج الاتحاد الأوروبي رسميًا متطلبات تقييم السلامة باستخدام الذكاء الاصطناعي في توجيهات الاتحاد الأوروبي بشأن الآلات (2006/42/EC)، اعتبارًا من 9 مايو 2026. ويؤثر هذا التحديث بشكل مباشر على مصنعي الآلات ذات القدرات على اتخاذ القرارات الذاتية، والتحكم التكيفي، والتعاون بين الإنسان والآلة، بما في ذلك معدات البناء الذكية، والروبوتات المستقلة في مواقع العمل، والرافعات الشوكية التي تعمل بالذكاء الاصطناعي. ويشير هذا التغيير إلى تحول جوهري في توقعات تقييم المطابقة للمصدرين، ولا سيما المصدرين في الصين، ويستدعي اهتمامًا دقيقًا من جميع الجهات الفاعلة في سلسلة التوريد، لا سيما في مجالات الهندسة الميكانيكية، والأتمتة الصناعية، والامتثال للوائح التصدير.

نظرة عامة على الحدث

في 9 مايو 2026، أقرّ الاتحاد الأوروبي رسميًا إدراج وحدة تقييم السلامة الإلزامية للذكاء الاصطناعي في توجيه CE المُعدّل للآلات (2006/42/EC). اعتبارًا من 1 أكتوبر 2026، يجب على جميع الآلات التي تتضمن وظائف اتخاذ القرارات الذاتية، أو التحكم التكيفي، أو التعاون بين الإنسان والآلة، إثبات امتثالها للمعيارين EN IEC 62443-2-4 وISO/IEC 23894:2023. ويتعين على الشركات الصينية المصنّعة لهذه المعدات والمصدّرة إلى الاتحاد الأوروبي استكمال مراجعة الوثائق الفنية وتقديم تقارير تقييم مخاطر الذكاء الاصطناعي من جهات خارجية بحلول نهاية الربع الثالث من عام 2026.

القطاعات المتأثرة

المصدرون المباشرون (مصنعي المعدات الأصلية ومصنعي العقود)

تواجه هذه الشركات التزامات قانونية مباشرة بموجب التوجيه المُعدَّل. وتخضع منتجاتها، مثل الرافعات الشوكية المُجدولة بالذكاء الاصطناعي أو روبوتات البناء ذاتية التوجيه، لمتطلبات مطابقة جديدة. ويتجلى الأثر بشكل أساسي في زيادة مدة طرح المنتجات في السوق نتيجةً للاختبارات الإضافية، وإعادة هيكلة الوثائق، والتنسيق مع جهات التدقيق الخارجية.

موردي المكونات (مثل موردي وحدات الذكاء الاصطناعي، ومكاملي أجهزة الاستشعار)

قد يُطلب من موردي الأنظمة الفرعية المدمجة للذكاء الاصطناعي، ووحدات التحكم في الوقت الحقيقي، أو وحدات الإدراك، تقديم دليل على توافقهم مع معيار ISO/IEC 23894:2023 ومعيار EN IEC 62443-2-4. ويزداد تأثيرهم على امتثال المنتج النهائي، مما قد يؤدي إلى مراجعات تعاقدية أو بروتوكولات جديدة لتبادل البيانات التقنية.

مقدمو خدمات التوثيق الفني والشهادات

ستشهد الشركات الداعمة لعلامة CE - بما في ذلك الهيئات المعتمدة، ومستشارو الملفات التقنية، والمتخصصون في تقييم مخاطر الذكاء الاصطناعي - ارتفاعًا في الطلب على الخدمات المصممة خصيصًا لوحدة الذكاء الاصطناعي الجديدة. ومن المتوقع أن تزداد أعباء العمل المتعلقة بإعادة بناء ملفات TCF، وتحليل المخاطر للسلوكيات التي يقودها الذكاء الاصطناعي، ورسم خرائط التتبع بين منطق الذكاء الاصطناعي ووظائف السلامة.

مجالات التركيز الرئيسية والإجراءات الفورية لأصحاب المصلحة

متابعة التوجيهات الرسمية الصادرة عن المفوضية الأوروبية والهيئات المُخوّلة

لا تزال تفاصيل تنفيذ التوجيه - وخاصة تفسير مصطلحي "اتخاذ القرارات المستقلة" و"التعاون بين الإنسان والآلة" - بحاجة إلى توضيح. ينبغي على الجهات المعنية متابعة التحديثات الصادرة عن مركز الأبحاث المشترك التابع للمفوضية الأوروبية والهيئات المُخوّلة من الاتحاد الأوروبي التي تُصدر مذكرات توجيهية خاصة بالذكاء الاصطناعي قبل الربع الثالث من عام 2026.

إعطاء الأولوية لتقييم فئات المنتجات عالية المخاطر

من المرجح أن تخضع المنتجات التي تعتمد على التحكم التكيفي ذي الحلقة المغلقة (مثل الأذرع الروبوتية التي تُعدّل القوة في الوقت الفعلي) أو إعادة تخطيط المهام غير الخاضعة للإشراف (مثل أنظمة جدولة الأساطيل ذاتية التشغيل) لتطبيق صارم لوحدة الذكاء الاصطناعي. لذا، ينبغي على الشركات إجراء دراسة داخلية لتحديد النماذج التي تتطلب التحقق الكامل وفقًا لمعياري EN IEC 62443-2-4 وISO/IEC 23894:2023.

ميّز بين الإشارة السياسية والالتزام القابل للتنفيذ

يؤكد إعلان 9 مايو 2026 اعتماد المعايير رسميًا، لكن يبدأ تطبيقها في 1 أكتوبر 2026. وحتى ذلك الحين، لا تملك سلطات مراقبة السوق صلاحية رفض إعلانات المطابقة الأوروبية (CE) استنادًا إلى تقييم الذكاء الاصطناعي فقط. مع ذلك، فإن طرح منتجات غير مطابقة بعد 1 أكتوبر يُرتب مسؤولية قانونية؛ لذا يجب التعامل مع الاستعدادات على أنها عملية تشغيلية، وليست مجرد استراتيجية.

بدء مراجعة الوثائق الفنية والتواصل مع الموردين

يجب أن تتضمن معايير التحكم في التكنولوجيا الآن تقييمات مخاطر خاصة بالذكاء الاصطناعي، ومصفوفات تتبع تربط مخرجات الذكاء الاصطناعي بالوظائف المتعلقة بالسلامة، وسجلات التحقق من صحة سلوك نموذج الذكاء الاصطناعي في حالات استثنائية. ينبغي على المصنّعين البدء بمراجعة معايير التحكم في التكنولوجيا الحالية والتواصل مع موردي المكونات للحصول على مواصفات واجهة محدّثة ووثائق توثيق مصدر بيانات تدريب الذكاء الاصطناعي.

وجهة نظر تحريرية / رصد الصناعة

من الواضح أن هذا التحديث يُمثل إشارة تنظيمية أكثر من كونه إجراءً تنفيذيًا فوريًا، إذ يُحدد جدولًا زمنيًا مُعينًا (الموعد النهائي للوثائق هو الربع الثالث من عام 2026، وطرح المنتج في السوق هو 1 أكتوبر 2026)، ولكنه يترك مجالًا للتفسير فيما يتعلق بالنطاق والمنهجية. تُظهر التحليلات أن الاتحاد الأوروبي يُقرب شهادات الآلات من مبادئ قانون الذكاء الاصطناعي الأوسع نطاقًا، لا سيما فيما يتعلق بالشفافية وضمان الجودة القائم على المخاطر. من منظور الصناعة، لا يتعلق الأمر كثيرًا بتقديم مفاهيم سلامة جديدة كليًا، بل يتعلق أكثر بإضفاء الطابع الرسمي على المساءلة عن سلوك الذكاء الاصطناعي ضمن أطر السلامة الميكانيكية القائمة. يستدعي الأمر مزيدًا من الاهتمام، لأن التعديلات المستقبلية قد تُوسع نطاق وحدة الذكاء الاصطناعي لتشمل مستويات الأتمتة الأقل خطورة، أو تُدخل متطلبات إعادة تقييم دورية.

يُبرز هذا التطور تحولاً هيكلياً: لم تعد وظائف الذكاء الاصطناعي تُعامل كميزة برمجية مستقلة، بل كجزء لا يتجزأ من بنية السلامة في الآلة. بالنسبة للمصنعين الصينيين، لا يُعدّ التكيف السريع مع إطار عمل التحكم في المعاملات (TCF) مجرد إجراء شكلي، بل يعكس استعدادهم لتلبية التعريفات المتطورة لـ"الاستقلالية الآمنة" في الأسواق الخاضعة للتنظيم. ينبغي أن يُنظر إلى هذا الأمر حالياً على أنه إنجازٌ مُلزمٌ للامتثال بمواعيد نهائية واضحة، وليس مجرد اقتراح مبدئي أو أفق بعيد المنال.

المصدر: إعلان رسمي من الاتحاد الأوروبي بتاريخ 9 مايو 2026؛ المعايير المرجعية: EN IEC 62443-2-4 وISO/IEC 23894:2023. ملاحظة: لا تزال إرشادات التنفيذ الإضافية من الهيئات المُخوّلة من الاتحاد الأوروبي قيد المراجعة ولم تُنشر بعد.