عبدالرحمن الحبيب
قد يبدو من المبالغة أن يحذر خبراء من مخاطر الذكاء الاصطناعي لأنه قد يصبح خطراً على الوجود البشري نفسه إذا لم يتم التعامل معه بحكمة وتعقل وفرض تنظيمات صارمة, معهد Future of Life وهو منظمة غير ربحية هدفه المعلن الحد من المخاطر الكارثية والوجودية العالمية التي تواجه البشرية، ولا سيما المخاطر الوجودية من الذكاء الاصطناعي المتقدم، دعا في رسالة مفتوحة إلى «وقفة» مدتها ستة أشهر في تطوير أكثر أشكال الذكاء الاصطناعي تقدمًا، وقعتها شخصيات بارزة في مجال التكنولوجيا بمن فيهم إليون ماسك.
هل من الحكمة الدعوة إلى وقفة، وهل هي أساساً قابلة للتنفيذ؟ يقول المحذرون إن قدرات أنظمة الذكاء الاصطناعي تثير مخاوف من التقدم السريع للتكنولوجيا بحيث لا يمكن التحكم فيها بأمان، فلم يعد التخوف على نقص الوظائف والخصوصية وحقوق الملكية الفكرية أو تنامي المعلومات المضللة والمنحازة، بل القلق على الوجود البشري نفسه، فالقدرات المذهلة لهذه الأنظمة يفوق البشر في التلاعب وتوليد اللغة والفكر والقوانين، سواء بالكلمات أو الأصوات أو الصور، مما يشكل اخترقاً للأسس المعرفية في حضارتنا البشرية جمعاء. الأب الروحي للذكاء الاصطناعي جيفري هينتون حذر من أنه يتطور بسرعة مما قد تجعله أكثر ذكاءً من الإنسان، حينها سيشكل خطراً عليه عندما تستغله دول أو منظمات لأغراض شريرة.
قدرات «النماذج اللغوية الكبيرة» وأشهرها حالياً روبوت محادثة شات جي بي تي، مدهشة حيث يمكنها التفكير الإبداعي وحل الألغاز وكتابة الشعر والروايات والفكر والفلسفة والقانون، حتى أن إحداها نجحت مؤخراً في اختبار نقابة المحامين الأمريكية وكان من بين العشرة بالمئة الأفضل نتيجة، وهو اختبار صارم جداً لمهارات المحامين.. ستعمل هذه النماذج على تغيير علاقة البشر بأجهزة الكمبيوتر والمعرفة وحتى مع أنفسهم. كذلك قدرتها على حل العلل الكبيرة عن طريق تطوير عقاقير جديدة، أو تصميم مواد جديدة للمساعدة في مكافحة تغير المناخ، أو حل تعقيدات قوة الاندماج لأشكال الطاقة.. ويتخيل الكثيرون أن الذكاء الاصطناعي في المستقبل سيكون له وصول غير مقيد إلى الطاقة والمال.. ويحذر بعض الخبراء أنه يمكن أن يقضي على عالمنا العقلي والاجتماعي، وقد نجد أنفسنا قريبًا نجري مناقشات مطولة عبر الإنترنت حول تغير المناخ أو عمل عسكري خطير مع كيانات نعتقد أنها بشر لكنها في الواقع ذكاء اصطناعي.
الكابوس المتخيل هو أن الذكاء الاصطناعي المتقدم يسبب ضرراً على نطاق واسع، من خلال صنع السموم أو الفيروسات، أو إقناع البشر بارتكاب أعمال إرهابية. لا يحتاج الأمر إلى نية شريرة فهذه الأجهزة لا تملك نية أو وعياً على الأقل حتى الآن، إنما الخشية أن يكون للذكاء الاصطناعي بالمستقبل أهداف لا تتماشى مع أهداف المبدعين من البشر.
مقابل كل ذلك، هناك خبراء آخرون يرون أن تلك مبالغة وأنه سبق التحذير من سيناريوهات كارثية من الخيال العلمي للآلات التي ستسيطر على البشر أو تفنيهم، فضلاً عن توقعات أن قيام الآلات بعمل البشر سيزيد البطالة كانت تردد منذ ظهور الآلة الحديثة بينما الذي حدث هو العكس.
إذن، كيف يمكننا تقدير خطورة الذكاء الاصطناعي إذا كان الخبراء منقسمين؟ في دراسة استقصائية للباحثين بالذكاء الاصطناعي أجريت عام 2022، أعتقد 48 % أن هناك فرصة بنسبة 10 % على الأقل أن تأثير الذكاء الاصطناعي سيكون «سيئًا للغاية (على سبيل المثال، الانقراض البشري)»، لكن 25 % قالوا إن الخطر كان صفراً. قدر الباحثون الخطر حسب الناتج الوسيط عند 5 %، حسبما نشرته مجلة الإيكونيميست التي أوضحت أنه لا ينبغي رفض مثل هذه السيناريوهات، ولكن جميعها تنطوي على قدر هائل من التخمين. هناك حاجة إلى التنظيم، ولكن لأسباب أكثر واقعية من إنقاذ البشرية عبر الموازنة بين الفرص الواعدة للذكاء الاصطناعي وتقييم المخاطر والاستعداد للتكيف.
لكن ما هو التنظيم المناسب؟ تتبنى الحكومات حتى الآن ثلاث مقاربات مختلفة تتراوح من مخففة إلى صارمة، توضحها الإيكونيميست. الأولى أقرب أمثلتها في بريطانيا وأمريكا، باقتراح نهجٍ «خفيفٍ» بدون قواعد أو هيئات تنظيمية جديدة، لكنها تطبق اللوائح الحالية على أنظمة الذكاء الاصطناعي. الهدف هو تعزيز الاستثمار ودعم الذكاء الاصطناعي.
النهج الثاني يتخذه الاتحاد الأوروبي بصرامة أكبر، حيث يصنف قانونها المقترح الاستخدامات المختلفة للذكاء الاصطناعي حسب درجة المخاطرة، ويتطلب مراقبة وكشف أكثر صرامة مع ارتفاع درجة المخاطر، فبعض استخدامات الذكاء الاصطناعي محظورة تمامًا، مثل الإعلانات اللاشعورية والقياسات الحيوية عن بُعد، وسيتم تغريم الشركات التي تنتهك القواعد. بالنسبة لبعض النقاد، هذه اللوائح خانقة للغاية.
النهج الثالث أكثرها صرامة، حيث يرى آخرون أنه يجب على الحكومات التعامل مع الذكاء الاصطناعي مثل الأدوية، مع وجود منظم مخصص، واختبار صارم وموافقة مسبقة قبل الإصدار العام. تقوم الصين ببعض من هذا، حيث تطلب من الشركات تسجيل منتجات ذكاء اصطناعي والخضوع لمراجعة أمنية قبل إصدارها.
تحقيق التوازن بين الفرص والمجازفة في الذكاء الاصطناعي يعني السير بحذر مع تقدير المخاطر الجديدة وتعديل النهج الحالي والأنظمة والقواعد وفقاً لما يلوح من خطر، فقد حان الوقت للبدء في تأسيس تلك التنظيمات.