توصلت الدول الأعضاء في الاتحاد الأوروبي، في 2 فبراير 2024، إلى اتفاق بالإجماع بشأن قانون الذكاء الاصطناعي للكتلة، بعد مفاوضات مطولة بين ممثلي المجلس وأعضاء البرلمان الأوروبي ومسؤولي المفوضية الأوروبية، وذلك رغم المخاوف التي أُثيرت خلال الأعوام الثلاثة الماضية بشأن احتمال تسبب ذلك القانون في خنق الابتكار الأوروبي، وبذلك يكون قد أُعطِيَ الضوء الأخضر للنص النهائي الخاص بقانون الذكاء الاصطناعي الأوروبي. جدير بالذكر أن قانون الذكاء الاصطناعي الأوروبي قد تم اقتراحه من قِبل المفوضية الأوروبية في أبريل من العام 2021، بغية معالجة التحديات المفروضة من قبل التقدم التكنولوجي المتسارع والمخاطر المحتملة ذات الصلة بالذكاء الاصطناعي، وتجنب استغلاله في العديد من الممارسات غير الأخلاقية، غير أن العملية التشريعية قد واجهت اضطراباً ملحوظاً في ديسمبر 2022، مع صعود شات جي بي تي، وهو ما استلزم إجراء تغيير في مسودة النص، وإنشاء لوائح محددة للذكاء الاصطناعي التوليدي، واستمر الجدل حول ذلك القانون حتى تم اعتماده، ومن المقرر أن يتم تقديمه للتصويت العام المقرر عقده في الفترة من 10 إلى 11 أبريل 2024.
أهداف دافعة
يأمل المشرعون الأوروبيون من خلال قانون الذكاء الاصطناعي في تحقيق عدد من الأهداف والرؤى، يمكن استعراضها على النحو التالي:
1- ترسيخ المعايير الأخلاقية كأساس في التكنولوجيا: أرادت المفوضية الأوروبية من خلال مشروع القانون “التاريخي” كما يُروَّج له، باعتباره الأول من نوعه في العالم الذي يُنظم استخدام الذكاء الاصطناعي، أن تُرسي من خلاله المعايير الأخلاقية ومبادئ حقوق الإنسان التي ينبغي أن تحكم كيفية استخدام التكنولوجيا لا على مستوى الاتحاد الأوروبي فحسب، بل في العالم أجمع.
2- تأكيد الريادة الأوروبية في مجال الذكاء الاصطناعي الأخلاقي: في ضوء الأهمية التي يتمتع بها الذكاء الاصطناعي خاصة في ظل توغله في كافة الصناعات والقطاعات، فإن قانون الذكاء الاصطناعي الأوروبي جاء كمبادرة أوروبية، ترمي إلى جعل الاتحاد الأوروبي رائداً عالمياً في مجال الذكاء الاصطناعي الأخلاقي والمرتكز على الإنسان، مع تعزيز الابتكار والقدرة التنافسية في هذا المجال، وذلك عبر بث عدة إرشادات تنظم آليات توظيف الذكاء الاصطناعي.
3- تنظيم إطار عمل مطوري الذكاء الاصطناعي: يهدف قانون الذكاء الاصطناعي إلى تزويد مطوري الذكاء الاصطناعي وناشريه ومستخدميه بمتطلبات وقواعد واضحة فيما يتعلق بالاستخدامات المحددة للذكاء الاصطناعي. وفي الوقت نفسه، تعمل اللائحة على تقليل الأعباء الإدارية والمالية على الشركات، ولا سيما الشركات الصغيرة والمتوسطة.
4- ضمان السلامة والحقوق الأساسية للأشخاص والشركات: تضمن الخطة المنسقة والمحدثة بشأن الذكاء الاصطناعي، وضع الإطار التنظيمي الذي يتحقق من خلاله السلامة ويضمن الحقوق الأساسية للأشخاص والشركات عندما يتعلق الأمر بالذكاء الاصطناعي، وهو ما من شأنه أن يعزز الاستيعاب والاستثمار والابتكار في الذكاء الاصطناعي في جميع أنحاء الاتحاد الأوروبي.
5- أداة لحماية المجتمع والعلامات التجارية: يُرجى أن يكون قانون الذكاء الاصطناعي الجديد جزءاً من حركة متنامية لحماية المجتمع من أسوأ ما يمكن أن تقدمه التقنيات الناشئة كالذكاء الاصطناعي، ومن الناحية الأخرى يعد وسيلة للشركات لحماية علاماتها التجارية ومخرجاتها النهائية، حتى لو لم ترغب في الحصول على مثل هذه المساعدة.
6- حظر جميع أنظمة الذكاء الاصطناعي الخطيرة: يستهدف القانون حظر جميع أنظمة الذكاء الاصطناعي التي تعتبر تهديداً واضحاً لسلامة الأشخاص وسبل عيشهم وحقوقهم، بدءاً من التسجيل الاجتماعي من قبل الحكومات وحتى الألعاب التي تستخدم المساعدة الصوتية التي تشجع على السلوك الخطير، ما يضمن سلامة المجتمع ككل.
مضامين القانون
حدد القانون الجديد إطاراً تنظيمياً للذكاء الاصطناعي، في ضوء أربعة مستويات للمخاطر، خطر غير مقبول، ومخاطرة عالية، ومخاطر محدودة، ومخاطر ضئيلة أو معدومة، مع توضيح آليات إنفاذ القانون، وهو ما يمكن استعراضه في ضوء المضامين التالية:
1- تحديد سمات التكنولوجيات عالية المخاطر: تشتمل أنظمة الذكاء الاصطناعي التي تم تحديدها في القانون على أنها عالية المخاطر، على تكنولوجيا الذكاء الاصطناعي المستخدمة في البِنَى التحتية الحيوية كالنقل، التي يمكن أن تعرض حياة المواطنين وصحتهم للخطر، والتدريب التعليمي أو المهني الذي قد يحدد إمكانية الوصول إلى الدورة المهنية أو التعليمية في حياة الأشخاص كتسجيل الامتحانات، ومكونات السلامة للمنتجات كتطبيق الذكاء الاصطناعي في الجراحة بمساعدة الروبوت، والتوظيف وإدارة الأعمال والوصول إلى العمل الحر، وإنفاذ القانون الذي قد يتعارض مع الحقوق الأساسية للأشخاص، وإدارة الهجرة واللجوء ومراقبة الحدود كالتحقق من صحة وثائق السفر.
2- وضع أنظمة كافية لتقييم المخاطر والتخفيف من آثارها: وفق القانون، من المقرر أن تخضع أنظمة الذكاء الاصطناعي عالية المخاطر لالتزامات صارمة قبل طرحها في السوق، ومن بينها وضع أنظمة كافية لتقييم المخاطر والتخفيف من آثارها، وضمان جودة البيانات التي يمكن من خلالها تقليل المخاطر والنتائج التمييزية، فضلاً عن إتاحة معلومات واضحة وكافية للمستخدم، ووضع تدابير الرقابة البشرية المناسبة لتقليل المخاطر، بما يضمن مستوى عالياً من الدقة والمتانة.
3- وصف سمات أنظمة الذكاء الاصطناعي ذات المخاطر المحدودة: تشير المخاطر المحدودة بحسب القانون إلى أنظمة الذكاء الاصطناعي التي تنطوي على قواعد تضمن لها قدراً من الشفافية. فعلى سبيل المثال، عند استخدام أنظمة الذكاء الاصطناعي كروبوتات الدردشة، يجب أن يكون المستخدمون على دراية بأنهم يتفاعلون مع آلة حتى يتمكنوا من اتخاذ قرار عن إرادة واعية بالمتابعة أو التراجع.
4- السماح بالاستخدام المجاني لتقنيات الذكاء الاصطناعي ذات المخاطر الأدنى: يسمح قانون الذكاء الاصطناعي بالاستخدام المجاني لتقنيات الذكاء الاصطناعي ذات الحد الأدنى من المخاطر، بما في ذلك تطبيقات ألعاب الفيديو التي تدعم الذكاء الاصطناعي أو مرشحات البريد العشوائي والمقصود بها تصفية البريد غير المرئي، يذكر في هذا الصدد، أن الغالبية العظمى من أنظمة الذكاء الاصطناعي المستخدمة حالياً في الاتحاد الأوروبي تندرج ضمن الفئة.
5- طرح آليات إنفاذ القانون: بمجرد طرح نظام الذكاء الاصطناعي في السوق، تكون السلطات مسؤولة عن مراقبة السوق، فيما يتولى المستخدمون مهمة الإشراف والمراقبة، ويكون لدى مقدمي الخدمات نظام مراقبة لما بعد طرحه في السوق، يتيح لمقدمي الخدمة والمستخدمين الإبلاغ عن الحوادث الخطيرة والأعطال في النظام.
6- فرض جملة من الالتزامات الصارمة على مزودي الخدمة: يفرض قانون الذكاء الاصطناعي التزامات صارمة لا على مقدم نظام الذكاء الاصطناعي عالي الخطورة فحسب، ولكن على “المستورد” و”الموزع” و”الناشر” لتلك الأنظمة كذلك. وتتعلق التزامات المستورد والموزع بصورة أساسية بالتحقق مما إذا كان نظام الذكاء الاصطناعي الذي يقومون باستيراده أو توزيعه عالي المخاطر أم لا.
7- وضع التزامات على هيئات القطاع العام والكيانات الخاصة: بحسب القانون، فإنه يتعين على هيئات القطاع العام والكيانات الخاصة التي تقدم خدمات عامة كالتعليم والرعاية الصحية والإسكان والخدمات الاجتماعية، إجراء تقييم خاص بالمخاطر المُدرجة، وتدابير الرقابة، وطرح تدابير تخفيف المخاطر، مع إدراج الفئات المتضررة من جراء ذلك.
8- الحق في تقديم شكوى إلى هيئة مراقبة السوق: يمنح قانون الذكاء الاصطناعي الحق في تقديم شكوى إلى هيئة مراقبة السوق من جانب أي شخص طبيعي أو اعتباري، لديه أسباب ومبررات تدفعه للاعتقاد بأن قانون الذكاء الاصطناعي قد تم انتهاكه، ويختلف هذا بشكل واضح عن الأدوات الأخرى، مثل اللائحة العامة لحماية البيانات، حيث لا يجوز لأصحاب البيانات تقديم شكوى إلا إذا كانت معالجة البيانات الشخصية تتعلق بهم.
9- صياغة هيكل حوكمة معقّد: من المقرر أن يسير قانون الذكاء الاصطناعي جنباً إلى جنب مع هيكل حوكمة معقد ومتعدد الطبقات، بحيث يضم كيانات متعددة، كالهيئات المبلغة، وهيئات تقييم المطابقة، ومجلس الذكاء الاصطناعي، ومكتب الذكاء الاصطناعي، والسلطات الوطنية المختصة، وسلطات مراقبة السوق، وستكون مهمتهم الرئيسة دعم الابتكار من خلال خلق بيئات الحماية التنظيمية للذكاء الاصطناعي والتدابير الخاصة بالشركات الصغيرة والمتوسطة والشركات الناشئة.
10- التركيز على قانون الملكية الفكرية وقانون حماية البيانات: يندرج تحت قانون الذكاء الاصطناعي الجديد، قانون الملكية الفكرية، والذي يتيح إمكانية الحصول على براءة اختراع للذكاء الاصطناعي، وحماية حقوق الطبع والنشر للبرامج وتراخيص استخدام المحتوى لأغراض التدريب، فضلاً عن قانون حماية البيانات الذي يقوم على مبادئ الشفافية والحظر الأساسي للتنميط ومتطلبات القانون.
تحديات عالقة
ثمّة تحديات قد تقوض فرص تنفيذ قانون الذكاء الاصطناعي الأوروبي الجديد، يمكن تناول أبرزها في ضوء ما يأتي:
1- تحذيرات المنظّمات الحقوقية من مخاطر القانون: ينطوي قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي على استخدام القياسات الحيوية لتحديد الهوية والاعتراف والتصنيف مثل: بصمات الأصابع، والأنظمة التنبؤية لاتخاذ القرار كأجهزة كشف الكذب. ذلك النوع من القياسات دفع عدداً من المنظمات الحقوقية، بما في ذلك Homo Digitalis وAlgorithm Watch وI Have Rights، للتحذير من مخاطر استخدام تلك الأنظمة، خاصة في سياق الهجرة، حيث يرون أن في ذلك استهدافاً بشكل غير عادل للمجتمعات المهمشة بالفعل وتقويض حقوقها القانونية.
2- مخاوف من عرقلة فرص إبداع الشركات الناشئة: قوبل قانون الذكاء الاصطناعي الجديد في البداية بمعارضة من جانب عدد من الدول الأوروبية. فبينما عارضت فيينا أحكام حماية البيانات، فإن باريس وبرلين حذرتا من احتمال أن يترتب على القواعد الخاصة بنماذج الذكاء الاصطناعي المتقدمة عرقلة لفرص إبداع شركات الذكاء الاصطناعي الناشئة في مجال الذكاء الاصطناعي في أوروبا، كشركتي ميسترال الفرنسية وأليف ألفا الألمانية. وبرغم القبول الذي حظي به القانون فيما بعد خلاف محتدم، إلا أن ثمة مخاوف من تجدد ذلك الخلاف حول آليات تنفيذ القانون على أرض الواقع.
3- توقعات بإخفاق مديري المؤسسات في تقدير طبيعة المخاطر: يذهب بعض المحللين للإشارة إلى وجود ثغرات في إمكانية تنفيذ القانون، تتمثل في مدى قدرة المديرين على تقدير مستويات المخاطر المتغيرة لسير العمل، بما في ذلك تطبيقات الذكاء الاصطناعي المختلفة. ولعل الفشل في تقدير مستويات المخاطر، كأن يفترض المدير أن تقنية معينة عالية المخاطر، وهي في الأصل ضئيلة المخاطر، سيترتب عليه جملة توجيهات خاطئة، والعكس صحيح. ومع تراكم التقدير الخاطئ للمخاطر، فإنه من الممكن أن يحدث نوع من التعارض والتداخل في القواعد التي من المفترض تطبيقها. كما قد يؤدي الفشل في التقييم المستمر للبيانات التي يتعلم منها الذكاء الاصطناعي ويتم تحسينه من خلالها إلى مجموعة متنوعة من المشكلات الأخلاقية والتنظيمية، كالوصول إلى مخرجات متحيزة.
4- الحاجة لتطوير قدرات العاملين في مجال تقييم مخاطر الذكاء الاصطناعي: يقع قدر كبير من المسؤوليات المتعلقة بتقييم المخاطر، والامتثال إلى القواعد والمتطلبات التي يفرضها قانون الذكاء الاصطناعي، على عاتق مهندسي البيانات وعلماء البيانات. غير أنه من أجل ضمان نجاح تنفيذ القانون وتجنب العديد من المعوقات والمخاطر، فإنه يتوجب خضوع المديرين والمسؤولين أنفسهم، ممن ليست لديهم خلفية عن أخلاقيات الذكاء الاصطناعي أو لوائحه، لقدر كبير من التعلم والتطوير، كي يتمكنوا من الإشراف ومتابعة سير العمل.
5- وجوب التنظيم الصارم والشامل لأنظمة الذكاء الاصطناعي: يستلزم جانب كبير من قانون الذكاء الاصطناعي التنظيم الصارم والشامل لأنظمة الذكاء الاصطناعي عالية المخاطر. لذلك، فإنه من الأهمية بمكان أن تعمل الشركات في مجال الذكاء الاصطناعي بصورة عملية على تحديد ما إذا كان نظام الذكاء الاصطناعي الذي تم تطويره، أو استيراده أو توزيعه أو نشره، يشكل نظاماً عالي الخطورة للذكاء الاصطناعي أم لا، وفي هذه الحالة فإن المعضلة الرئيسية تتمثل في حقيقة أن مطوري الذكاء الاصطناعي أنفسهم قد يكون لهم رأي مُغاير فيما إذا كانت أنظمتهم عالية المخاطر أم لا، لما سيترتب على ذلك من التزامات ومتطلبات.
إجمالاً، أراد الاتحاد الأوروبي من خلال قانون الذكاء الاصطناعي وضع قواعد أخلاقية تنظم عمل الذكاء الاصطناعي الذي توسعت تطبيقاته في كافة المجالات، وإضفاء الطابع الأخلاقي على استخدامات الذكاء الاصطناعي، بما يضمن عدم إساءة استخدامه فيما يمس السلامة المجتمعية، مع ضمان حقوق الملكية الفكرية للشركات والمبدعين. ويبقى التحدي الرئيسي هو كيفية تطبيق القانون وتعميمه على كافة أنحاء الاتحاد الأوروبي، ومدى قدرة المسؤولين عن إنفاذ القانون على تقييم طبيعة المخاطر، ومن ثم التوجيه الصحيح للقواعد والالتزامات، بما يضمن التطبيق المنضبط للقانون.