هل يؤدي الذكاء الاصطناعي إلى انقراض البشر؟

وجه أنشئ بواسطة الكمبيوتر

Getty Images
وجه أنشئ بواسطة الكمبيوتر

قد يؤدي الذكاء الاصطناعي إلى انقراض البشرية، كما حذر بعض الخبراء بينهم رئيسا شركتي “أوبن إيه آي” و”غوغل ديبمايند”، ولكن متى يمكن للآلات أن تهيمن على البشر؟

منذ إطلاقه في نوفمبر/تشرين الأول 2022، و”تشات جي بي تي”، روبوت الدردشة الذي يستخدم الذكاء الاصطناعي للإجابة على الأسئلة أو إنشاء نص أو حتى كود بناء على طلب المستخدمين، يعد أسرع تطبيق إنترنت نموا في التاريخ.

وخلال شهرين فقط، وصل مستخدموه إلى 100 مليون، وهو رقم استغرق تطبيق انستغرام عامين ونصف للوصول إليه، وفقا لشركة المراقبة التكنولوجية “سينسور تاون”.

الشعبية الهائلة لتشات جي بي تي، الذي طورته شركة “أوبن إيه آي” بدعم مالي من مايكروسوفت، أثارت تكهنات شديدة حول تأثير الذكاء الاصطناعي على مستقبل البشرية.

ودعم عشرات الخبراء بيانا نُشر على صفحة الويب الخاصة بمركز أمان الذكاء الاصطناعي، قائلين: “ينبغي أن يكون الحد من خطر الانقراض بسبب الذكاء الاصطناعي أولوية عالمية، إلى جانب المخاطر المجتمعية الأخرى كالأوبئة والحروب النووية”.

لكن آخرين يقولون إن المخاوف مبالغ فيها.

الذكاء الاصطناعي: خبراء بارزون يحذرون من مخاطره التي قد تؤدي إلى انقراض البشرية

الذكاء الاصطناعي: هل ستنقلب الآلات على البشر؟

محاكاة البشر

إن النصوص (من المقالات والشعر والنكات إلى كود الكمبيوتر) والصور (كالرسوم البيانية واللقطات المصورة والأعمال الفنية) التي تنتجها أنظمة الذكاء الاصطناعي مثل تشات جي بي تي و”دال إي” و”بارد” و “ألفاكود”، لا يمكن تمييزها عن العمل البشري.

ويستخدمها الطلاب لكتابة واجباتهم المدرسية والسياسيون لكتابة الخطب، والمثال على ذلك الخطاب الذي ألقاه الممثل الديمقراطي جيك أوشينكلوس في الكونغرس الأمريكي، باستخدام الذكاء الاصطناعي.

الذكاء الاصطناعي: غوغل تطلق روبوت الدردشة “بارد” لمن تزيد أعمارهم على 18 عاما

الذكاء الاصطناعي: هل تهدّد هذه التكنولوجيا مستقبل وفرص الصحفيين؟

وقالت شركة “آي بي إم” العملاقة للتكنولوجيا إنها ستتوقف عن توظيف أفراد لشغل 7800 وظيفة، طالما يمكن أن يحل محلها الذكاء الاصطناعي.

إذا كانت كل هذه التغييرات ترهقك، فاستعد لذلك:

نحن في المرحلة الأولى فقط من الذكاء الاصطناعي، وهناك مرحلتان أخريان يخشى بعض العلماء أن تهدد بقاء الجنس البشري.

وفيما يلي المراحل الثلاث:

1. الذكاء الاصطناعي ضيق النطاق (NAI)

يركز الذكاء الاصطناعي ضيق النطاق على مهمة واحدة، وأداء عمل متكرر ضمن مجموعة محددة من الوظائف. ويتعلم بشكل عام من الكثير من البيانات عبر الإنترنت، ولكن فقط في المنطقة المحددة التي جرت برمجته من أجلها.

ومن الأمثلة على ذلك برامج الشطرنج، القادرة على التغلب على بطل العالم، لكنها غير قادرة على أداء مهام أخرى.

وتمتلئ الهواتف الذكية بالتطبيقات التي تستخدم هذه التقنية، من خرائط الـ”جي بي إس” إلى برامج الموسيقى والفيديو التي تعرف ذوقك وتقدم اقتراحات بناء عليه.

حتى الأنظمة الأكثر تطورا كالسيارات ذاتية القيادة وتشات جي بي تي، هي أشكال من الذكاء الاصطناعي ذات النطاق الضيق. إنها غير قادرة على العمل خارج نطاق مجموعة من الأدوار، لذا لا يمكنها اتخاذ القرارات بمفردها.

ومع ذلك، يعتقد بعض الخبراء أن الأنظمة المبرمجة للتعلم تلقائيا، مثل تشات جي بي تي وأوتو جي بي تي، يمكن أن تنتقل إلى المرحلة التالية من التطوير.

2. الذكاء الاصطناعي العام (AGI)

يجرى الوصول إلى مرحلة الذكاء الاصطناعي العام، عندما تتمكن الآلة من أداء أي مهمة فكرية يستطيع الإنسان القيام بها.

وتعرف أيضا بـ “الذكاء الاصطناعي القوي”.

الذكاء الاصطناعي: تقرير يحذر من فقدان 300 مليون وظيفة في العالم مستقبلا

توقف لستة أشهر

في مارس/آذار 2022، دعا أكثر من 1000 خبير تقني “جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لمدة 6 أشهر على الأقل، عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من “جي بي تي 4″، أحدث إصدار من تشات جي بي تي.

وكتب أحد مؤسسي شركة “أبل”، ستيف وزنياك، ورواد التكنولوجيا الآخرين ومنهم إيلون ماسك، مالك شركة تيسلا وسبيس إكس: “يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع والإنسانية”. وكان ماسك أحد مؤسسي شركة “أوبن إيه آي”، قبل أن يستقيل من مجلس الإدارة بسبب خلافات مع قيادة الشركة.

الذكاء الاصطناعي: حذر وخوف من ازدياد صعوبة اكتشاف عمليات الاحتيال

الذكاء الاصطناعي: رئيس شركة تشات جي بي تي يقر بمخاطر هذه الصناعة ويطالب واشنطن بتنظيمها

في الخطاب الذي نشره معهد “فيوتشر أوف لايف” غير الربحي، قال الخبراء إنه إذا رفضت الشركات المسارعة بوقف مشاريعها، “ينبغي على الحكومات أن تتدخل وتوقفها” كي يتسنى اتخاذ تدابير السلامة اللازمة وتنفيذها.

غباء بقدر الذكاء

كاريسا فيليز، من معهد أخلاقيات الذكاء الاصطناعي بجامعة أكسفورد، وقعت على الخطاب، لكنها تعتقد أن البيان الأخير الصادر عن مركز أمان الذكاء الاصطناعي، الذي حذر من انقراض البشر، يبالغ كثيرا، وقررت عدم التوقيع عليه.

وقالت لمراسل بي بي سي أندرو ويب: “نوع الذكاء الاصطناعي الذي نصنعه في الوقت الحالي غبي بقدر ما هو ذكي، وإذا جرب أي إنسان “تشات جي بي تي” أو أنظمة ذكاء اصطناعي أخرى، فسيلاحظ فرض قيود شديدة بالغة الأهمية عليها”.

لكن فيليز تقول إنها قلقة من أن الذكاء الاصطناعي قد يلفق معلومات مضللة بمعدل ضخم.

“مع اقتراب موعد الانتخابات الأمريكية في عام 2024، ومع تسريح القائمين على سلامة وأخلاقيات الذكاء الاصطناعي في منصات مهمة مثل تويتر وغيرها، أشعر بقلق أكبر حيال ذلك”.

تعترف حكومة الولايات المتحدة بالتهديدات المحتملة. وقال البيت الأبيض في بيان يوم الرابع من مايو/أيار: “الذكاء الاصطناعي أحد أقوى التقنيات في عصرنا، ولكن لاغتنام الفرص التي يوفرها، ينبغي علينا أولا الحد من مخاطره”.

الذكاء الاصطناعي: البيت الأبيض يحض شركات التكنولوجيا على حماية الجمهور من مخاطره

واستدعى الكونغرس الأمريكي الرئيس التنفيذي لشركة “أوبن إيه آي”، سام التمان، للإجابة على أسئلة حول “تشات جي بي تي”.

خلال جلسة الاستماع في مجلس الشيوخ، قال ألتمان إنه من “الضروري” أن تنظم الحكومة هذا المجال؛ لأن الذكاء الاصطناعي يغدو “قويا بشكل مطرد”.

وأوضح كارلوس إغناسيو غوتيريث، باحث السياسة العامة في معهد مستقبل الحياة، لبي بي سي، أن أحد أكبر التحديات التي يمثلها الذكاء الاصطناعي هو أنه “لا توجد هيئة جماعية من الخبراء تقرر كيفية تنظيم ذلك، كما يحدث على سبيل المثال مع الهيئة الحكومية الدولية المعنية بتغير المناخ”.

وهو ما يقودنا إلى المرحلة الثالثة والأخيرة من الذكاء الاصطناعي.

3. الذكاء الاصطناعي الفائق (ASI)

عندما نصل إلى المرحلة الثانية (AGI)، سننطلق نحو المرحلة النهائية: “الذكاء الاصطناعي الفائق”، والذي قد يحدث عندما يكون الذكاء الاصطناعي أعلى من الذكاء البشري.

ويُعرِّف نيك بوستروم، الفيلسوف وخبير الذكاء الاصطناعي بجامعة أكسفورد، الذكاء الفائق بأنه ذكاء “يتفوق بشكل كبير على أفضل العقول البشرية في كل المجالات تقريبا، بما يشمل الإبداع العلمي والحكمة العامة والمهارات الاجتماعية”.

ويوضح غوتيريث: “لكي يصبح الإنسان مهندسا أو ممرضا أو محاميا، يتعين عليه أن يدرس لفترة طويلة. والمشكلة مع الذكاء الاصطناعي العام هي أنه يمكنه تطوير نفسه باستمرار، في وقت لم نتمكن فيه من ذلك”.

الخيال العلمي

يعود هذا المفهوم إلى فيلم “ذا تيرمينيتور”، حيث تشعل الآلات حربا نووية لتدمير البشرية.

سبق وأن صرح آرفيند نارايانان، عالم الكمبيوتر بجامعة برينستون، لبي بي سي بأن سيناريوهات الكوارث الشبيهة بالخيال العلمي غير واقعية قائلا: “إن الذكاء الاصطناعي الحالي ليس قريبا من امتلاكه القدرة الكافية على تحقيق هذه المخاطر. ونتيجة لذلك، ينصرف الانتباه عن أضرار الذكاء الاصطناعي على المدى القريب”.

ورغم الجدل الدائر حول مدى اكتساب الآلات الذكاء الواسع الذي يتمتع به الإنسان، لاسيما الذكاء العاطفي، إلا أنها من أكثر الأشياء التي تقلق من يعتقدون في أننا نقترب من الوصول إلى المرحلة الثالثة.

في مقابلة حديثة مع بي بي سي، حذر من يلقب بـ “الأب الروحي للذكاء الاصطناعي” جيفري هينتون، الرائد في تعليم الآلات من خلال التجربة، من أننا ربما نقترب من هذه المرحلة.

الذكاء الاصطناعي: جيفري هينتون “عراب” التكنولوجيا الحديثة يستقيل من غوغل ويحذر من مخاطرها

غوغل تطرد مهندسا قال إن تقنيتها للذكاء الاصطناعي لها مشاعر

وقال الرجل البالغ من العمر 75 عاما، والذي استقال حديثا من غوغل: “في الوقت الحالي، الآلات ليست أذكى منا، بقدر ما أستطيع أن أرى، لكنني أعتقد أنها قد تكون قريبة من تحقيق ذلك”.

وفي بيان أرسله إلى صحيفة نيويورك تايمز أعلن فيه مغادرته شركة جوجل، قال هينتون إنه نادم على ما قدمه من عمل؛ لأنه يخشى أن تستخدم “الجهات السيئة” الذكاء الاصطناعي للقيام “بأشياء سيئة”.

وضرب مثالا على “سيناريو الكابوس” لبي بي سي قائلا: “تخيل على سبيل المثال، أن بعض الجهات السيئة مثل [الرئيس الروسي فلاديمير] بوتين، قرر منح الروبوتات القدرة على إنشاء أهداف خاصة بها”

وحذر من أن الآلات يمكنها في النهاية “إنشاء أهداف فرعية مثل:”أنا بحاجة لاكتساب مزيد من القوة”، ما قد يشكل “خطرا وجوديا”.

لكن هينتون قال إنه يعتقد أنه “على المدى القريب” سيحقق الذكاء الاصطناعي فوائد أكثر بكثير من المخاطر، “لذلك لا أعتقد أنه ينبغي علينا التوقف عن تطوير هذه الأشياء”.

الفناء أو الخلود

أطلق الفيزيائي البريطاني ستيفن هوكينغ تحذيرا صارخا.

وقال لبي بي سي في 2014، قبل أربع سنوات من وفاته: “إن تطوير ذكاء اصطناعي بالكامل قد يعني نهاية الجنس البشري”.

وقال إن آلة بهذا المستوى من الذكاء “ستنطلق من تلقاء نفسها وتعيد تصميم نفسها بمعدل متزايد”.

في المقابل، هناك أحد أكبر المتحمسين للذكاء الاصطناعي، وهو المخترع والمؤلف المستقبلي راي كورزويل، الباحث في الذكاء الاصطناعي في غوغل والمؤسس المشارك لجامعة “سينغيولاريتي” في وادي السيليكون.

الروبوتات النانوية والخلود

يعتقد كورزويل أن الإنسان سيكون قادرا على استخدام الذكاء الاصطناعي الفائق، للتغلب على الحواجز البيولوجية.

في عام 2015، توقع أنه بحلول عام 2030 سيكون البشر قادرين على تحقيق الخلود بفضل الروبوتات النانوية (الصغيرة للغاية) التي تعمل داخل أجسامنا، وإصلاح أي ضرر أو مرض.

حوكمة الذكاء الاصطناعي

يوافق غوتيريث على أن المفتاح هو إنشاء نظام حوكمة للذكاء الاصطناعي.

وقال: “تخيل مستقبلا يوجد فيه كيان يمتلك الكثير من المعلومات حول كل إنسان على هذا الكوكب وعاداته [بفضل عمليات البحث على الإنترنت] بحيث يمكنه التحكم بنا بطرق لا ندركها”.

“أسوأ سيناريو ليس اندلاع حروب بين البشر والروبوتات. الأسوأ هو أننا لا ندرك حدوث تلاعب بنا، لأننا نتشارك على هذا الكوكب مع كيان أشد منا ذكاء”.

مسؤولية الخبر: إن موقع "سيدر نيوز" غير مسؤول عن هذا الخبر شكلاً او مضموناً، وهو يعبّر فقط عن وجهة نظر مصدره أو كاتبه.

مواضيع تهمك

Comments are closed.