“معلومات الوزراء” يستعرض الجهود الدولية في مجال تنظيم الذكاء الإصطناعي

أكد مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، أن العالم يشهد خلال الوقت الحالي ثورة التكنولوجية غير مسبوقة بفضل الذكاء الاصطناعي، حيث بدأ يؤثر بشكل عميق في مختلف جوانب الحياة، وفي مختلف المجالات، مضيفاً أنه على الرغم من الفوائد الكبيرة التي يقدمها، فإن الذكاء الاصطناعي يثير قلقًا متزايدًا بشأن المخاطر المحتملة التي قد تنجم عنه، سواء فيما يتعلق بالوظائف أو الخصوصية أو الأمن.

وأوضح مركز المعلومات خلال تحليل له تناول من خلاله أبرز المخاطر المرتبطة بالاعتماد الواسع على تكنولوجيا الذكاء الاصطناعي، بالإضافة إلى الجهود الدولية الرامية إلى تنظيم هذه التكنولوجيا وحماية المجتمعات من آثارها السلبية، أنه نظرًا للنمو غير المسبوق الذي شهدته تقنيات الذكاء الاصطناعي في الآونة الأخيرة، وكونه جزءًا من حياتنا اليومية، أصبح من الضروري تقييم المخاطر والتحديات المحتملة المرتبطة بالتبني الواسع لتقنيات الذكاء الاصطناعي، نظرًا لأنه يحمل مجموعة من المخاطر الكبيرة، بدءًا من فقدان الوظائف وصولًا إلى القلق بشأن الأمن والخصوصية، كما أن عملية تنظيمه تمثل تحديًا، إذ إنه مثل العديد من التقنيات الأخرى ليس له طبيعة جيدة أو سيئة بحد ذاته، بل يعتمد ذلك على كيفية استخدامه.

وأوضح المركز عدد من المخاطر التي يشكلها الذكاء الاصطناعي ومنها:

-التحيز الخوارزمي والتمييز: إذ تؤدي أنظمة الذكاء الاصطناعي إلى استمرار أو تفاقم التحيزات الاجتماعية بشكل غير مقصود، وذلك نتيجة لاستخدام بيانات تدريب متحيزة أو تصميم خوارزمي غير ملائم، وللحد من التمييز وضمان العدالة، من الضروري استثمار الجهود في تطوير خوارزميات خالية من التحيز ومجموعات بيانات تدريب متنوعة.

-خصوصية البيانات وأمنها: تقوم تقنيات الذكاء الاصطناعي عادةً بجمع وتحليل كميات هائلة من البيانات الشخصية، مما يثير قضايا تتعلق بخصوصية البيانات وأمنها. وللحد من مخاطر الخصوصية، من الضروري وضع لوائح صارمة لحماية البيانات وتبني ممارسات آمنة في التعامل معها.

-القضايا الأخلاقية: حيث تعتبر القضايا الأخلاقية المتعلقة بتعزيز القيم في أنظمة الذكاء الاصطناعي -خاصة في سياق اتخاذ القرارات التي تحمل عواقب كبيرة- تحديًا كبيرًا، وفي هذا الإطار يتعين على الباحثين والمطورين أن يضعوا الآثار الأخلاقية لتقنيات الذكاء الاصطناعي في مقدمة أولوياتهم، وذلك لتفادي التأثيرات السلبية في المجتمع.

-المخاطر الأمنية: مع تزايد تطور تقنيات الذكاء الاصطناعي، تزداد المخاطر الأمنية المرتبطة باستخدامها وإمكانية إساءة استخدامها، حيث يمكن للقراصنة والجهات الخبيثة استغلال قوة الذكاء الاصطناعي لتطوير هجمات إلكترونية أكثر تعقيدًا، وتجاوز التدابير الأمنية، واستغلال الثغرات في الأنظمة، كما أن ظهور الأسلحة المستقلة المدعومة بالذكاء الاصطناعي يثير القلق بشأن مخاطر استخدامها. ولتقليل هذه المخاطر الأمنية، يتعين على الحكومات والمنظمات العمل على تطوير أفضل الممارسات لتأمين تطوير ونشر الذكاء الاصطناعي، وتعزيز التعاون الدولي لوضع معايير وأنظمة عالمية تحمي من التهديدات الأمنية المرتبطة بهذه التكنولوجيا.

-المعلومات المضللة والتلاعب: يسهم المحتوى الناتج عن الذكاء الاصطناعي، مثل: التزييف العميق “الفيديوهات المزيفة”، وهو استخدام تقنية الذكاء الاصطناعي لإنشاء مقاطع فيديو أو صوتيات جديدة بالكامل، بهدف تصوير أحداث لم تحدث في الواقع؛ في انتشار المعلومات الكاذبة والتلاعب بالرأي العام، ومن ثم تعتبر الجهود المبذولة للكشف عن المعلومات المضللة الناتجة عن الذكاء الاصطناعي ومكافحتها أمرًا بالغ الأهمية في الحفاظ على سلامة المعلومات في العصر الرقمي.

أوضح التحليل أن حوكمة الذكاء الاصطناعي تُعد أمرًا بالغ الأهمية، ليس فقط لمواجهة التحديات والمخاطر، ولكن أيضًا لضمان الاستفادة العادلة من إمكاناته بطرقٍ لا تقصي أو تغفل أحدًا، وفي هذا الإطار تبنت بعض الدول خطوات نحو تنظيم استخدام الذكاء الاصطناعي.

وفي هذا الإطار ووفقًا لمؤشر الذكاء الاصطناعي لجامعة ستانفورد لعام 2023، أقرت الهيئات التشريعية في 127 دولة 37 قانونًا بشأن “الذكاء الاصطناعي”.

ففي نوفمبر 2021، اعتمدت الدول الأعضاء جميعًا في منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو)، والبالغ عددها 193 دولة، اتفاقية تاريخية تُحدد القيم والمبادئ المشتركة لتطوير الذكاء الاصطناعي، وتُشدد هذه الاتفاقية على حماية حقوق الإنسان، وخصوصية البيانات، وحظر أنظمة الذكاء الاصطناعي التي قد تمسّ كرامة الإنسان، أو تُسهم في المراقبة الجماعية، كما تُدافع عن دور الذكاء الاصطناعي في مواجهة التحديات العالمية، مثل: تغير المناخ والجوع، مع ضمان ألا تُفاقم التطورات التكنولوجية أوجه عدم المساواة القائمة. ونستعرض فيما يلي عددًا من تجارب الدول فيما يتعلق بتنظيم الذكاء الاصطناعي.

أضاف التحليل أنه كجزء من الاستراتيجية الرقمية، أراد الاتحاد الأوروبي تنظيم الذكاء الاصطناعي لضمان ظروف أفضل لتطوير واستخدام هذه التكنولوجيا المبتكرة. وفي هذا الإطار، اقترحت المفوضية الأوروبية في أبريل 2021، أول قانون للذكاء الاصطناعي في الاتحاد الأوروبي، لإنشاء نظام تصنيف للذكاء الاصطناعي قائم على المخاطر. حيث إن أولوية البرلمان هي التأكد من أن أنظمة الذكاء الاصطناعي المستخدمة في الاتحاد الأوروبي آمنة وشفافة، ويمكن تتبعها كما أنها غير تمييزية. ويقوم هذا القانون بتصنيف أنظمة الذكاء الاصطناعي إلى أربعة مستويات وفقًا لمستوى المخاطر:

-مخاطر غير مقبولة، مثل: حظر استخدام أنظمة التعرف البيومتري، مثل: برامج التعرف على الوجه في الأماكن العامة دون الحصول على إذن، وحظر استخدام الذكاء الاصطناعي في تقييم مخاطر الأفعال الإجرامية الفردية أو التنبؤ بها.

-مخاطر عالية: تُصنّف حالات استخدام الذكاء الاصطناعي التي قد تُشكّل مخاطر جسيمة على الصحة والسلامة والحقوق الأساسية على أنها عالية الخطورة، مثل: حلول الذكاء الاصطناعي المستخدمة في المؤسسات التعليمية، والتي قد تحدد الوصول إلى التعليم ومسار الحياة المهنية لشخص ما (على سبيل المثال تسجيل نتائج الامتحانات)، وتطبيقات الذكاء الاصطناعي في إدارة العدالة والعمليات الديمقراطية، مثل: استخدام الذكاء الاصطناعي في صياغة أحكام المحاكم.

-مخاطر محدودة، مثل: الأنظمة التي تستخدم البيانات الشخصية دون تقديم أي إفصاح أو شفافية.

-مخاطر قليلة، مثل: التطبيقات التي تتيح تعديل الصور والتلاعب بالوسائط الرقمية.

وأوضح التحليل أنه لتسهيل الانتقال إلى الإطار التنظيمي الجديد، أطلقت المفوضية الأوروبية “ميثاق الذكاء الاصطناعي”، وهي مبادرة طوعية تسعى إلى دعم التنفيذ المستقبلي؛ كما أنشأ البرلمان مجموعة عمل للإشراف على تطبيق قانون الذكاء الاصطناعي. ويريد أعضاء البرلمان الأوروبي التأكد من أن قواعد الذكاء الاصطناعي المعتمدة تسهم في تطوير القطاع الرقمي في أوروبا. وتتعاون المجموعة مع مكتب الذكاء الاصطناعي التابع للمفوضية الأوروبية، والذي تم إنشاؤه لتوضيح الأحكام الرئيسة للقانون.

أكد التحليل على دخول قانون الذكاء الاصطناعي حيز التنفيذ في أغسطس 2024، وسيتم تطبيقه بشكل كامل في أغسطس 2026. ومع ذلك، هناك بعض الاستثناءات؛ حيث بدأت الالتزامات المتعلقة بمحو الأمية في مجال الذكاء الاصطناعي في فبراير 2025، وستدخل قواعد الحوكمة والالتزامات الخاصة بنماذج الذكاء الاصطناعي للأغراض العامة حيز التنفيذ في أغسطس 2025، أما بالنسبة لقواعد أنظمة الذكاء الاصطناعي عالية المخاطر، المدمجة في المنتجات المنظمة، فستكون لها فترة انتقالية ممتدة حتى 2 أغسطس 2027.

أشار التحليل إلى أنه في عام 2023، قدم مكتب سياسة العلوم والتكنولوجيا في البيت الأبيض بالولايات المتحدة الأمريكية “مشروع قانون حقوق الذكاء الاصطناعي”، كما أصدر المعهد الوطني للمعايير والتكنولوجيا “إطارًا لإدارة مخاطر الذكاء الاصطناعي”. ومع ذلك، قد تكون الخطوة الأهم في تنظيم الذكاء الاصطناعي هي الأمر التنفيذي الذي أصدره الرئيس الأمريكي السابق جو بايدن بشأن “تطوير واستخدام الذكاء الاصطناعي بشكل آمن وموثوق”، ويتناول هذا الأمر ثماني مجالات سياسية تهدف إلى ضمان “معايير جديدة لسلامة وأمن الذكاء الاصطناعي، وحماية خصوصية المواطنين الأمريكيين”، بالإضافة إلى تعزيز المساواة والحقوق المدنية، والدفاع عن حقوق المستهلكين والعمال، وتعزيز الابتكار والمنافسة، وغيرها من القضايا.

أوضح التحليل أن الصين منذ عام 2021، بدأت في تطبيق قوانين تهدف إلى تنظيم تقنيات الذكاء الاصطناعي بشكل مستمر. وفي عام 2023، أصدرت الصين مجموعة من اللوائح الوطنية المتنوعة، من خلال التركيز على المنصات الرقمية والمحتوى الناتج عن الذكاء الاصطناعي، مثل: التزييف العميق. وتسعى الحكومة الصينية إلى تعزيز الحماية ضد العديد من المخاطر المحتملة المرتبطة بالذكاء الاصطناعي. تركز هذه اللوائح على أربع قطاعات رئيسة: (حماية البيانات والمعلومات الشخصية- الشفافية- إدارة المحتوى ووضع العلامات- الأمن التقني). وستحدث هذه الأحكام تغييرات جذرية في طريقة إنتاج المحتوى الناتج عن الذكاء الاصطناعي لـ 1.4 مليار شخص؛ نظرًا لنطاقها الواسع. وستضع اللائحة قواعد واضحة لكل مرحلة من مراحل عملية استخدام التزييف العميق، بدءًا من الإنشاء وصولًا إلى وضع العلامات والنشر.

أشار التحليل إلى أن المملكة المتحدة أصدرت في مارس 2023، بحثًا يحدد مقترحات لإنشاء إطار تنظيمي للذكاء الاصطناعي يهدف إلى تعزيز الابتكار بشكل آمن ومسؤول. وقد تم وضع خمسة مبادئ للجهات التنظيمية: (السلامة والأمن والموثوقية-الشفافية المناسبة والقدرة على التفسير-العدالة-المسؤولية والحوكمة-إمكانية الطعن والتعويض). كما شملت الوثيقة مقترحات لإنشاء وظيفة مركزية داخل الحكومة تتولى مجموعة من الأنشطة، مثل: تقييم المخاطر والتنسيق التنظيمي، لدعم التكيف والاتساق في النهج المتبع.

وذكر مركز المعلومات أن عملية تنظيم الذكاء الاصطناعي تواجه العديد من التحديات الكبيرة نتيجة لتسارع تطور هذه التقنية وتعقيداتها. ومن أبرز هذه التحديات:

-سرعة تطور التكنولوجيا: فالتسارع في ابتكار الذكاء الاصطناعي يجعل من الصعب على الجهات الحكومية وضع إطار شامل من القوانين. ورغم سعي قانون الذكاء الاصطناعي في الاتحاد الأوروبي إلى معالجة هذه المسألة من خلال تصنيفات متعددة، فإن التطور السريع لتكنولوجيا الذكاء الاصطناعي قد يتجاوز اللوائح الحالية، مما يستدعي ضرورة التكيف المستمر وسرعة الاستجابة.

-توازن التنظيم والابتكار: ففي بعض الأحيان، يمكن أن يؤدي تنظيم تقنية الذكاء الاصطناعي إلى تقليل الابتكار وتقليص فرص النمو الاستكشافي، فتحديد التدابير التنظيمية المناسبة التي تعزز الابتكار، أو تلك التي تعوقه يعد تحديًا كبيرًا، وقد تترتب عليه عواقب وخيمة.

وأفاد التحليل في ختامه أنه برغم التقدم الكبير الذي يحققه الذكاء الاصطناعي في مختلف المجالات، فإنه لا يمكن تجاهل المخاطر المرتبطة به، ومن الضروري أن تتكاتف الحكومات والمؤسسات الدولية لوضع أطر تنظيمية توازن بين الابتكار وحماية المجتمع من التحديات الأمنية والأخلاقية والاجتماعية، والوعي بهذه المخاطر، والعمل على تطوير سياسات شاملة تسهم في ضمان استخدام الذكاء الاصطناعي بشكل آمن ومسؤول، ويعزز مستقبلًا تقنيًا أكثر استدامة وعدلًا.

قد يعجبك ايضا