ما هي عملية هيروشيما التي انضمت إليها الإمارات؟

قادة مجموعة السبعة في هيروشيما في شهر أيار / مايو عام 2023

Getty Images
قادة مجموعة السبعة في هيروشيما في شهر أيار / مايو عام 2023

انضمت الإمارات إلى مجموعة هيروشيما للذكاء الاصطناعي التي انبثقت عن قمة السبع العام الماضي.

وفي تغريدة على منصة “إكس” في السابع من مايو الحالي، قال وزير الدولة الإماراتي للذكاء الاصطناعي والاقتصاد الرقمي، عمر سلطان العلماء: “كما أعلنت اليابان، فقد تم اختيار الإمارات كواحدة من الدول الأعضاء في مجموعة أصدقاء “عملية هيروشيما للذكاء الاصطناعي” وهي الدولة العربية الوحيدة وكذلك الوحيدة من الشرق الأوسط التي تنضم إلى هذه المجموعة التي تضم الولايات المتحدة، بريطانيا، اليابان، كندا، كوريا الجنوبية وغيرها.”

ورأى العلماء أن ذلك يمثل خطوة كبيرة باتجاه التقدم، وأن الإمارات “تلمع كرمز من رموز الابتكار والتعاون”، وتشق طريقها إلى مستقبل من “الامتياز والتقدم والريادة على الساحة العالمية”.

ما هي مجموعة هيروشيما؟ وماذا تفعل فيها الامارات؟

في مايو/أيار من العام الماضي، أطلقت مجموعة السبع خلال قمة لها في مدينة هيروشيما في اليابان ما سمتها “عملية هيروشيما للذكاء الاصطناعي”.

النواة التأسيسية لهذه العملية كانت من مجموعة السبع، وهي أكثر من سبع دول لكنها الآن تشمل كل الاتحاد الأوروبي. ثم انضم عدد من دول منظمة التعاون والتنمية الاقتصادية، إضافة الى الهند وسنغافورة والإمارات، ليصبح العدد الكامل 49 دولة.

الهدف العام للمجموعة هو وضع مبادئ ومعايير لتطوير الذكاء الاصطناعي التوليدي بما يفيد ولا يضر، أي أنها مجموعة دول مهتمة أساسا بتفادي المخاطر الكبيرة التي قد تنجم عن تطور أنظمة الذكاء الاصطناعي بأشكال قد تخرج عن السيطرة أو تتسبب بأضرار غير محسوبة.

بعد مرور أشهر قليلة على إعلان إطلاق المجموعة، صدر عنها في شهر ديسمبركانون الأول الماضي “إطار هيروشيما الشامل للذكاء الاصطناعي”. الإطار حدد مبادئ عامة إرشادية دولية وقواعد سلوك للعاملين في المجال.

يهدف الإطار الى “الترويج عالميا لذكاء اصطناعي “آمن و”جدير بالثقة”، وهو يركز إلى حد كبير على المخاطر المحتملة الناتجة عن تطوير أنظمة الذكاء الاصطناعي.

ما هي أبرز المخاطر؟

تحدد عملية هيروشيما عددا كبيرا من المخاطر المرتبطة بتطور الذكاء الاصطناعي، من بينها انتشار التضليل المعلوماتي وخرق قواعد حقوق الملكية الفكرية، وخرق الخصوصية والبيانات الشخصية، واستخدام الذكاء الاصطناعي في توليد ونشر خطاب الكراهية.

تضيف إلى ذلك، في وثيقة قواعد السلوك، مخاطر أمنية وعسكرية. إذ تخشى هذه الدول أن تطوير الذكاء الاصطناعي بأشكال معينة قد يعطي مجالا لفاعلين جدد – غير دول – لتطوير وتصميم واستخدام أسلحة بتطبيقات كيمائية أو بيولوجية أو نووية، واستخدامها.

ثم هناك المخاطر السيبرانية، وكذلك المخاطر التي قد تنجم عن القدرة على التحكم بأنظمة مادية والتدخل في عمل البنى التحتية الأساسية، إضافة إلى خطر أن يقوم نموذج من الذكاء الاصطناعي بإنتاج نسخة عن نفسه أو تدريب نماذج أخرى، بشكل خارج عن الحسبان.

ثم، هناك ما سمته تلك الدول المخاطر على “القيم الديمقراطية وحقوق الانسان”.

هل تعد المبادئ والقواعد ملزمة؟

المبادئ العامة وقواعد السلوك التي أصدرتها المجموعة أواخر العام الماضي ليست ملزمة قانونيا، لكن كما يشرح هيروكي هابوكا بروفيسور التكنولوجيا والحوكمة في جامعة كيوتو اليابانية، لها قوة وتأثير في الدول المنخرطة في المجموعة، وإن كان بتفاوت بين دولة وأخرى.

يقول هابوكا إن “كل دولة عليها أن تتحقق من احترام تلك المبادئ والقواعد داخل أراضيها، ودول مجموعة السبع تقوم بهذا الآن”. أما سائر أعضاء المجموعة، فإن التأثير القانوني لديها لا يزال “غير واضح.”

لكن حتى داخل مجموعة السبع، هناك اختلاف بين مقاربتين حيال التشريع والقانون المتعلق بالذكاء الاصطناعي، وفقا لهابوكا.

هناك ميل لدى الاتحاد الأوروبي وكندا للبحث عن مقاربة قانونية صارمة، وإطار شامل لكل أنظمة الذكاء الاصطناعي، وهذا الميل ينعكس في مقاربة الاتحاد وكندا التشريعية لموضوع الذكاء الاصطناعي. أما الولايات المتحدة وبريطانيا واليابان فتميل إلى مقاربة تفصل بين قطاعات مختلفة تستخدم الذكاء الاصطناعي، وكذلك إلى مقاربة أكثر مرونة وطوعية.

لكن هذه الاختلافات وفقا لهابوكو لا تحول بالضرورة دون تطبيق هذه المبادئ والقواعد في كل تلك الدول، وإن بأشكال مختلفة.

فحتى في الدول التي تفضل المقاربة الطوعية، يبقى هناك ضغط السوق والضغط الاجتماعي الذي قد يجبر الشركات على اتباع القواعد والمبادئ. إضافة الى ذلك، حين يلحق أي أذى بحقوق أي طرف بسبب الذكاء الاصطناعي ويصبح الموضوع أمام محكمة، قد يكون احترام مبادئ وقواعد إطار هيروشيما – أو عدمه – عاملا مؤثرا في حكمها. كل هذه الأمور قد تعزز الحوافز لدى الشركات بإعلان الالتزام بمبادئ وقواعد هيروشيما.

هل سيكون للإمارات إسهام في المجموعة؟

نعم، وفقا لهابوكو، على الأقل على المستوى التقني، إذ سيكون إسهام الإمارات “موضع تقدير كبير.”

لكنه يفصل بين الجوانب التقنية والجوانب المجتمعية في الذكاء الاصطناعي التوليدي، مع أنه يقر بصعوبة ذلك الفصل وبأن الخط الفاصل متحرك ومبهم.

لكن من حيث المبدأ فإن المقصود بالجوانب المجتمعية هي المواضيع التي قد تدخل فيها قيم مجتمعية وسياسية وأسئلة صعبة عن كيفية تطبيقها، وكيف يجب أن تنعكس في أنظمة الذكاء الاصطناعي. مثال على ذلك النقاشات حول ما هي أنواع المحتوى الذي تنتجه أنظمة الذكاء الاصطناعي التوليدي الذي يجب حجبه أو تقييده.

ويشير هابوكو إلى أن اختلاف القيم السياسية بين الدول يصعّب المهمة، خاصة وأن عددا كبيرا من الدول الأعضاء ترى نفسها في نادي “الدول الديمقراطية”، وأن الديمقراطية من القيم التي تقول إنها تسعى لحمايتها من مخاطر الذكاء الاصطناعي.

وقد تكون هذه المسألة بين الأمور التي تجعل المجموعة غير متحمسة لانضمام دولة كالصين مثلا.

لكن لماذا الإمارات وليس الصين؟ هنا يشير هابوكو إلى أنه رغم أن المجموعة ليست تحالفا عسكريا، إلا أن الذكاء الاصطناعي قد تكون له تطبيقات أمنية وعسكرية حساسة، وبالتالي فإن اصطفاف الدول وتحالفاتها – وعلاقاتها الأمنية والعسكرية – تلعب دورا في مسألة من يدخل هذا النادي ومن يبقى خارجه.

ما أبرز التحديات أمام المجموعة في المستقبل؟

الشيطان في التفاصيل، كما يُقال، ويبدو أن الموضوع كذلك فيما يتعلق بالذكاء الاصطناعي.

فالمبادئ الإرشادية التي أعلنت عنها المجموعة هي مبادئ عامة. وقواعد السلوك، وإن كانت أكثر تفصيلا من المبادئ، لا تزال تفتقر هي أيضا إلى التفصيل العملي.

ثم هناك قضية التحقق من التزام الشركات، وهو أمر معقد، إذ حتى في الحالات التي تعلن فيها شركات معينة التزامها الطوعي بمبادئ وقواعد هيروشيما، ليست هناك آليات واضحة للتأكد من ذلك.

مسؤلية الخبر: إن موقع "سيدر نيوز" غير مسؤول عن هذا الخبر شكلاً او مضموناً، وهو يعبّر فقط عن وجهة نظر مصدره أو كاتبه.

Comments are closed.