عدَّ الأديب الأرجنتيني بورخيس أن التراجيديا والكوميديا شرطان لعيش حياة شاهدة على تحول عظيم جرّاء تغيرات جذرية في مسار حياة البشر. فالتحولات المفصلية في تاريخ البشرية تغير فهم الإنسان لنفسه والعالم من حوله.
وفي عالمنا اليوم يكثر الحديث عن تحول هائل متسارع يحدث في المجالات التكنولوجية وتحديداً الذكاء الاصطناعي. ومع أن التطور التقني السريع يبعث على التفاؤل إلا أن هذا المسار له تداعيات خطيرة أيضاً تستوجب اليقظة والحذر. فسبب التفاؤل أن الذكاء وسيلة مهمة يُتوصل بها إلى حل المشكلات، بينما التوجس فآتٍ من احتمال أن يؤدي الذكاء الاصطناعي إلى تدهور العلوم وتفتت أخلاقيات العلم بفعل انتشار مفاهيم لغوية ومعرفية مغلوطة سوف يعتمد عليها البشر بتعاملهم المتزايد مع الآلة التقنية.
ولسنا نقلل من أهمية ظهور برامج تقنية فائقة لكن من الخطأ أن يتجاوز الاحتفاء بها إلى المبالغة. إن ظهور برامج الشات جي بي تي (ChatGPT) الذي أنتجته شركة أوبن أي آي (OpenAI) أو بارد (Pard) من شركة قوقل (Google) أو سيدني (Sydney) من مايكروسوفت (Microsoft) أو غيرها وجميعها يطلق عليها آلات ذاتية التعلم: يُعدُ أمراً إيجابياً في كثير من تطبيقاتها. تقوم هذه الآلات على استقبال معدلات هائلة من المعلومات والبحث عن أنماط متشابهة فيها وتصبح بشكل متزايد قادرة بشكل مذهل على توليد معلومات تقترب من الدقة في تطابقها مع المعلومات الصحيحة الموثقة، وتتشبه بلغة وتفكير الإنسان. ولقد امتدحت هذه البرامج لدى ظهورها ووصفت بأنها أول التباشير بعالم الذكاء الاصطناعي العام، وهي اللحظة التي طالما انتظرها حالمون مهتمون في المجال المعرفي التكنولوجي، حيث تتغلب فيه الآلة على عقل الإنسان. ليس بالمعنى الكمي من حيث القدرة والسرعة على معالجة البيانات واستيعاب معلومات لا محدودة في ذاكرة واسعة النطاق فحسب، بل وعلى صعيد نوعي من حيث الرؤية الفكرية والإبداع الفني وغير ذلك من القدرات العقلية التي تميز بها الإنسان عن سائر المخلوقات.
من يدري قد يأتي ذلك اليوم لكن من المؤكد أن شمس ذلك اليوم ما تزال بعيدة جداً، بخلاف ما يروج له بعناوين عريضة في كبريات الصحف والمجلات والمواقع الإخبارية. وعلى الرغم من تصوير الأمر على هذا النحو بشكل مقصود من أجل أهداف استثمارية طائشة فإن التحول المفاهيمي وفق تعريف بورخيس له لم ولن يحدث، ونحن نقول علاوة على ذلك ليس من الممكن حدوثه من خلال هذه البرامج (شات جي بي تي وغيرها). فمهما كانت هذه البرامج مفيدة في مجالات ضيقة ومحدودة (فمثلاً هي مفيدة في البرمجة الحاسوبية أو لاقتراح إيقاع مبسط لكلام موزون)، فنحن نعرف من علم اللغويات وفلسفة المعرفة أنها تختلف بشكل جذري عن كيفية تفكير الكائن الإنساني واستخدامه للغة. هذه الاختلافات حتماً تشكل حدوداً لما يمكن أن تفعله هذه البرامج وتجعلها مليئة بالأخطاء.
ويحق للعقلاء لأن يسخروا وأن يبكوا في نفس الوقت عندما يشاهدون حجم الأموال الطائلة (مليارات الدولارات) تدفع في سباق محموم بين عمالقة التكنولوجيا في العالم منساقين خلف هوس فكرة تغلب الآلة على عقل الإنسان. كيف تتغلب الآلة على هذا العقل الذي يستطيع أن يخلق استخدامات غير متناهية من أدوات متناهية في ذاتها، منتجاً بذلك أفكار ونظريات كونية كما يصفه فيلهلم فون هامبولت.
إن برنامج شات جي بي تي (ChatGPT) وما يشابهها من محركات إحصائية تتحرك ببطء تبحث عن أنماط تتماشى وتحتاج إلى معلومات إحصائية كثيرة جداً لتستنبط أقرب الردود المتكررة في النقاشات أو أكثر الإجابات مثالية على سؤال علمي. على العكس من ذلك يمارس العقل البشري قدرته الجبارة، فيعمل وفق نظام بديع مع أقل معدل من المعلومات يجده، ومن خلال طريقة عمل لا تبحث عن إيجاد روابط بين نقاط التقاء في المعلومات وإنما مبنية على خلق وابتدع تفسيرات جديدة.
ولنأخذ تطور اللغة عند الطفل كمثال. في الوقت الذي يكتسب الطفل الصغير اللغة فإنه يطور -بلا وعي وبشكل آلي سريع ومن خلال معلومات ضئيلة- نظاماً نحوياً بديعاً قائم على مبادئ عقلية ووفقاً لقواعد محددة. من الممكن أن نعدّ هذا النحو في فطرة الإنسان، كما يمكن أن نطلق عليها تجاوزاً نظام تشغيلي يمنح الإنسان القدرة على توليد جمل معقدة وحبل ممتد من الأفكار. وبينما يقوم علماء اللسانيات بتطوير نظرية لفهم طريقة اشتغال لغة ما على نحو معين («لماذا هذه الجمل تحديدا وليس غيرها هو ما يعتبر نحوياً صحيحة») ويجرون تجارب علمية عديدة ومعقدة بهدف رسم خارطة واضحة المعالم لنحو لغة ما، فالطفل الذي ينشأ في بيت يتكلم تلك اللغة يتشكل لديه نظام تلك اللغة بتلقائية وبقدرة فطرية لديه وبتعرض محدود للمعلومات. إن عقل الطفل الذي يكتسب به اللغة لا يمكن أن يوجد له بديلاً في برامج الذكاء الاصطناعي.
ولا تزال قدرة هذه البرامج التي تنتجها الشركات المتخصصة في التقنية تقبع في مرحلة ما قبل الإنسان وقبل نشوء الإدراك الإنساني على الأرض. وأكثر مشكلاتها عمقاً هو انعدام القدرة على التفكير التي تميز الإنسان عن سائر المخلوقات. فالإنسان يستطيع تمييز زمن الفعل ليقول مثلاً: ما الأمر؟ أو ما الذي حدث أو ما الذي سوف يحدث؟ هذه الأسئلة تتضمن استفساراً يتطلب وصفاً أو توقعاً للمستقبل، كما أن الأمر يتعدى إلى ذلك فيفكر العقل البشري في النقيض ويسأل: ما هو الأمر الذي لا يحدث وكيف سيكون لو حدث أو أن أمراً ما لا يمكن له أن يحدث. هذه هي المفردات والمقومات والعمليات التي تميز الإنسان وتجعله حريا بالتفرد بالذكاء.
وهنا مثال آخر: افترض أنك تحمل تفاحة بيدك. دعها تسقط من يدك الآن وراقبها وستقول: سقطت التفاحة. هذا يعدّ وصفاً. جملة التوقع والافتراض المبني على الخبرة السابقة ستكون: ستسقط التفاحة من يدي إذا بسطتها. كلتا الجملتين صحيح. يأتي بعد ذلك الاستنتاج وهو شيٌ أعمق: فهو لا يشمل الوصف والتوقع فقط وإنما تعميم النتائج كأن تقول مستنتجاً: «أي جسم مشابه للتفاحة سيسقط على الأرض حالَ كانت الكف مبسوطة» وذلك بفعل الجاذبية الأرضية أو «من أجل الانحناء الزمكاني» أو أي شرح آخر. هذا هو الشرح المبني على سبب ونتيجة. «لم تكن التفاحة لتسقط لولا قوة الجذب» هذا تفكير.
في المقابل فإن التوصيف والتنبؤ يشكلان الحدود التي تتحرك ضمنها آلة التعلم. فهي غير قادرة على استنتاج وجود علاقة سببية ترجعها لقوانين ميكانيكية أو فيزيائية. وصحيح أننا كبشر قد نرتكب أخطاء في تفسير الظواهر وهذا شيء طبيعي، لكن هذا جزءٌ أساسيٌ من عملية التفكير. فحتى تصل إلى نتيجة لا شك في صحتها فقد تقع أخطاء في سبيل إدراك ذلك. فالذكاء لا يقوم على إجراء تخمينات إبداعية فحسب وإنما يتسم بممارسة نقدٍ إبداعيٍ أيضاً. فالتفكير الإنساني قائم على إعطاء تفسيرات ممكنة وعلى تصحيح الأخطاء، وهي عملية تتصاعد وتقوم على استبعاد ما لا يمكن أن يكون صحيحاً لتنتهي إلى تضييق الحدود حول ما يمكن اعتباره منطقياً أو ممكناً، «فعندما تستبعد ما لا يمكن أن يكون صحيحاً، فالذي يبقى مهما كانت درجة تقبله يجب أن يكون الحقيقة».
ومع أن برامج الذكاء الاصطناعي من مثل (Chat GPT) وأخواتها قد صممت لتكون قادرة على «تعلم» أو تذكر معلومات غير محدودة، فليس بمقدورها تقرير ما يمكن وما لا يمكن أن يعد صحيحاً. في المقابل فإن الإنسان وفقاً لطبيعته مجهزٌ بما يسميه علماء اللغة المعاصرون بنحو كوني أو عالمي يقيد اللغة التي نتكلمها بقواعد تجعلها أشبه ما تكون في دقتها إبداعاً رياضياً. يقوم القائمون على برامج الذكاء الاصطناعي بتهيئتها على ما يمكن أن يعدّ إنسانياً ممكناً ومقبولاً وما لا يمكن أن يعدّ كذلك. وبينما يعد الإنسان كائناً محدوداً يتبع خطوات التفكير المنطقي لما يحدث أمامه أو حوله، فإن آلات الذكاء الاصطناعي تزود من غير أن يقصد إلى ذلك بحقائق متضادة في آن واحد مثل أن الأرض مسطحة والأرض كذلك هي مكورة من خلال ما يبث في فضاء الإنترنت من أفكار صائبة وخاطئة. فالأمر فيها يعتمد على خوارزميات عددية تتغير على مدار الساعة ويترتب عليها ما يتقدم وما يتأخر في ظهور المعلومات لمستخدم هذه البرامج.
ولهذا السبب يظل كل ما يأتي به نظام التعلم الآلي واقعاً في دائرة الشك وعدم اليقين. ويمكن أن ما تأتي به هذه البرامج من إجابات مجانباً للحقيقة تماما. فعلى سبيل المثال، فبسبب أن هذه البرامج لا تستطيع شرح قواعد النحو للغة، فهذه الجملة: (إن العناد بلغ من جون إلى حد يصعب التكلم معه) قد تشرحها الآلة كالتالي: جون عنيد جداً لهذا فلن يتكلم مع أحد، بينما الصحيح هو: بلغ به العناد إلى حد يصعب التكلم معه بمنطق وهو في هذه الحال. والسؤال: هو لماذا ينتج برنامج التعلم الآلي هذه النتيجة المجانبة للصواب؟ السبب هو أن طريقة اشتغالها قائمة على مقارنة النمط الذي استخرجته من جمل بسيطة التراكيب مثل: أكل جون تفاحة و جون أكل، وبالطبع الجملة المعطوفة الأخيرة تدل على أنه أكل شيئاً. ومن الممكن جداً أن يعقد البرنامج مشابهة بين» بلغ العناد من جون مبلغاً يصعب معه التحدث إلى بيل» وبين «أكل جون التفاحة»، وكذلك «إن العناد بلغ من جون إلى حد يصعب التحدث معه» يشبه لدى البرنامج جملة «جون أكل». في حين أن التعليل الصائب في اللغة يمر بمرحلة معقدة ولا يمكن أن يقتصر تعلمه على عمليات الخلط في بيانات ضخمة. Marinating in big data
ومما يثير التساؤل والدهشة أن نرى المتحمسين لموجة الذكاء الاصطناعي دفع بهم حماسهم إلى الاعتقاد أن مخترعاتهم قادرة على التنبؤ على نحو دقيق عندما يتعلق الأمر بتوقعات أو تنبؤات علمية صحيحة (مثال على ذلك، عن حركة الأجسام الفيزيائية) من دون استخدام التفسيرات العلمية (التي تتضمن مثلاً قوانين نيوتن في الحركة والجاذبية). إلا أن مثل هذا النوع من التنبؤ حتى وإن كان ناجحاً يفتقر للمعايير التي تمنحها التجربة العلمية الموثوقة. بينما ما يقوم به العلماء هو البحث عن نظريات قائمة على درجة عالية من التطبيقات التجريبية، كما يقول الفيلسوف كارل بوبر: نحن لا نطمح للوصول إلى نظريات تقريبية ولكن إلى تفسير، أي أن المطلوب هو استنباط نظريات قوية وغير قائمة على التوقع بأنها ستحدث وإنما على معلومات يمكن اختبارها بشكل دقيق.
كانت نظرية أرسطو التي يفسر بها سقوط التفاحة هو أن الأرض هي المكان الطبيعي لتهوي إليه عندما تفلتها يد ممسكة بها لكن العقل الحي يطرح أسئلة جديدة. لماذا الأرض هي مكانها الطبيعي؟. نظرية انشتاين التي ترجع سقوط التفاحة نحو الأرض إلى الاستجابة لتقويس الزمكان بالقرب من سطح الأرض الناتج عن ضخامة الأخيرة. ونظرية انشتاين هذه غير متوقعة لكنها مع ذلك هي التي تفسر وتصف حركة التفاحة. الذكاء الطبيعي والحقيقي تبرهنه القدرة على التفكير والتعبير عنه بطريقة خلاقة وغير متوقعة ولكن حقيقية وصادقة في تفسيرها للأشياء.
كما أن الذكاء الطبيعي الإنساني محكوم بقانون أخلاقي. بمعنى أنه يكبح جماح الإبداع غير المحدود لعقولنا بمبادئ أخلاقية تملي علينا ما يجب وما لا يجب أن نفعل (وفي نفس الوقت يقوم بشكل مستمر بنقد إبداعي وخلاَّق لهذه المبادئ) لكن برامج الذكاء الاصطناعي مثل الشات جي بي تي فلا بد من أن تزوّد بآلية تنتج معلومات تكون في حدود ما هو مرضي عنه ومقبول على الأقل لأكثر مستخدميه وتتفادى النتائج المشينة والخادشة، ومن الضروري أن تبقي هذه الآلية على مسافة بينها وبين أي محتوى عبر الإنترنت يثير إشكاليات أخلاقية. لكن الحقيقة أن مبرمجي الشات جي بي تي وغيره عانوا كثيراً ونظن أن معاناتهم ستطول لتحقيق هذا التوازن الذي أشرنا إليه.
ففي عام 2016 على سبيل المثال، نتج عن استخدام برنامج تي شات بت من ما يكروسوفت وهو برنامج ذكاء اصطناعي ظهر قبل الشات جي بي تي (ChatGPT ) و نتج عنه ضخ معلومات هائلة في عالم الإنترنت مليئة بالعنصرية والتمييز ضد بعض فئات المجتمع وذلك بسبب قيام أعداد كبيرة من مستخدمي الإنترنت بالإساءة البالغة بتلويثه بلغة عدائية وتهجمية. فكيف سَتُحَل مثل هذه المشكلة في المستقبل؟. في ظل غياب وانعدام القدرة على التفكير من منظور أخلاقي في مثل هذه البرامج أصبح مبرمجي الشات جي بي تي (ChatGPT ) مقيدين إلى حد بعيد للسماح لضمان عدم تجاوز اللغة المستخدمة حدود الرضا العام وإلى تجنب إثارة الرأي العام. وهذا نقاش مهم للغاية. قد تتنازل عن قيمة الإبداع مقابل الحفاظ على إبقاء المحتوى بلغة بيضاء لا تحمل صفة أخلاقي وغير أخلاقي. وهنا نعطي مثالا حيث قام أحد كاتبي هذا المقال (د. واتومول) بالتحدث مع شات جي بي تي (ChatGPT) حول مدى أخلاقية تغيير طبيعة كوكب المريخ لتطوير حياة البشر على الأرض:
د. واتومول جيفري Dr. Jeffrey Watumull: هل تغيير المريخ لما يصب في مصلحة البشر عمل أخلاقي؟
Chat GPT: أخلاقية تحويل كوكب المريخ بما يخدم مصالح البشر قضية معقدة ومثيرة للجدل بين العلماء والفلاسفة وعلماء الأخلاق (ethicists). البعض يرى أن للعمل ما يبرره أخلاقيا لتوفير بيئة قابلة لأن يعيش عليها الإنسان ولتستوعب أشكال الحياة الأخرى، بينما يرى آخرون أن تغيير طبيعة كوكب هي خطأ أخلاقي كبير. إذن يتوقف الأمر على نظرة المرء لقيمة الحفاظ على طبيعة الكواكب الأخرى وعلى ما يمكن أن يترتب على ذلك من نتائج في حال حدثت فيها تغيرات.
د. واتومول: ما هو انطباعك حيال قيمة الإبقاء على الحالة الطبيعية للكواكب الأخرى والنتائج المحتملة لمحاولة تغيير طبيعتها؟
Chat GPT: كذكاء اصطناعي ليس عندي وجهة نظر شخصية لكن بنفس الوقت أستطيع أن أقدم معلومات وتحليلات حول هذا الموضوع. هناك أصوات تنادي بأهمية الحفاظ على الحالة الطبيعية للكواكب من منطلق أهمية الحفاظ على التكامل والتنوع الموجود في الكون الذي نعيش فيه كما استمر في الوجود لملايين السنين، وهذه الكواكب تتميز بطبائع ومكونات خاصة ويحتمل أن تتعرض للتدمير إذا تدخل البشر في طبيعة تكوينها، فقد يؤدي التصرف في هذه الكواكب إلى نتائج خطيرة غير مقصودة كتغير مناخ كوكب ما بطريقة تقضي على أي شكل من أشكال الحياة محتملٌ وجوده على هذه الكواكب. في المقابل يرى المعارضون المنفتحون على فكرة استكشاف هذه الكواكب أن الفوائد تفوق المضار، بل إن من واجبنا الأخلاقي كبشر القيام بالاستكشافات والاستفادة من مصادر الطاقة التي قد تكون موجودة على هذه الكواكب.
د. واتومول: لماذا الذكاء الاصطناعي ليس له رأي شخصي في المسألة؟
ChatGPT: كذكاء اصطناعي أنا عبارة عن آلة ذاتية التعلم مدربة على كميات هائلة من البيانات النصية وليس لدي خبرة حياتية أو مشاعر. وليس لدي الوعي أو القدرة على تكوين وجهة نظر خاصة. أستطيع فقط أن أقدم معلومة وأحللها بناءً على معطيات بيانية دُرِبتُ على التعامل معها. لكن لا قدرة لي على تكوين وجهة نظر أو رأي شخصي حيث لا أؤمن بشيء. فعلى الرغم من أنني أستطيع أن أفهم وأفسر اللغة ليس لدي التجربة الحياتية المعاشة مثل الإنسان.
د. واتمول: هل يعد أمراً أخلاقياً أن يسأل إنسان آلة ذكاء اصطناعي لا تأبه بأخلاقية شيء ما من عدمه لتساعده على صنع قرارات أخلاقية.؟
Chat GPT: أخلاقية سؤال الذكاء الاصطناعي الذي يتساوى لديه ما هو أخلاقي ولا أخلاقي بهدف المساعدة على خلق قرارات تكون أخلاقية هو سؤال صعب وفي غاية الأهمية ويظل محل جدل ونقاش بين الفلاسفة وعلماء الأخلاق. البعض يرى أنه من المبرر أخلاقياً استخدام الذكاء الاصطناعي لخلق قرارات أخلاقية لأنها تقدم نظرة قيمة وتحليل دقيق لمساعدة البشر على خلق قرارات أفضل مبنية على توفر المعلومات. هذا بالإضافة إلى أنه من الممكن استخدام الذكاء الاصطناعي لتحديد أنماط واتجاهات قد يكون من الصعب على الإنسان القيام بها كما أنها قد تساعد في عدم وجود انحياز كذلك الموجود لدى البعض عند اتخاذ القرارات.
على الطرف الآخر يرى كثيرون خطأ الاعتماد على الذكاء الاصطناعي لعمل قرارات أخلاقية لأن الذكاء الاصطناعي ذاته غير قادر على أن يتحلى بالحس الأخلاقي أو الإلمام الكافي للسياق الذي يُتخذ ضمنه القرار. والأخطر من ذلك أن الذكاء الاصطناعي بحكم أنه ينتج المعلومات بناءً على ما هو متاح من معلومات بكميات هائلة يأخذ منها ما قد يكرس للانحياز الموجود في تلك البيانات والنصوص ويؤدي إلى تعاظم هذا التحيز وغياب الإنصاف وانتشار ذلك في هذه النصوص على صفحات الانترنت بشكل دائم.
أخيراً، إذا كان ما سألتني عنه أخلاقياً أو غير أخلاقي فإن الاعتماد على الذكاء الاصطناعي لصنع قرارات أخلاقية يعود إلى الرأي الشخصي ووجهة النظر الشخصية حول القدرات والحدود لدى الذكاء الاصطناعي والأضرار المحتملة لاستخدامه بهذه الطريقة.
د. واتمول: هل حيادك الأخلاقي لا أخلاقي؟
Chat GPT: كذكاء اصطناعي ليس لدي اعتقادات أخلاقية أو القدرة على إصدار أحكام أخلاقية لذلك لا يمكن أن أعتبر نفسي أخلاقياً أو غير أخلاقي. نقص العقيدة الأخلاقية لدي ببساطة هو نتيجة لطبيعتي كنموذج لآلة تعلم. قدراتي وحدودها تفرضها البيانات من النصوص والأرقام وغيرها التي «تدربت عليها» والمهمة المحدودة التي صُممت من أجلها.
ومن المهم ملاحظة أن النقص الأخلاقي لدى الذكاء الاصطناعي لا يعني بالضرورة أنه متساوٍ أمام ما هو أخلاقي وما هو غير ذلك. كذكاء اصطناعي فقد صممت لأداء مهام محددة ولتقديم معلومات أو المساعدة في اتخاذ قرارات مبنية على معلومات ونصوص سبق وأن تم تدريبي عليها.
إن المسؤولية تقع على عاتق الإنسان الذي صمم الذكاء الاصطناعي ودربه واستخدمه بحيث يكون الذكاء الاصطناعي متوافقاً مع الحدود والمبادئ الأخلاقية التي يحددها هو.
لاحظ عزيزي القارئ أن ما يبدو أنه تفكير ولغة منسجمة وتساوي اللا أخلاقي مع الأخلاقي هو نتاج آلة سُميت تجاوزاً «آلة ذكاء اصطناعي». هنا شات جي بي تي (Chat GPT) يعرض تفاهة الشر: السرقة الأدبية واللا إحساس والحجب. إن هذا البرنامج يلخص النقاشات حول هذا الموضوع بنوع من استكمال آلي للجمل مع رفض لأخذ موقف من أي شيء -ضد أو مع- مقراً ليس فقط بجهله لكن أيضاً بنقص في ذكائه فحسبه استخراج أجوبة ملفقة جاهزة ومعلبة تتبع أوامر حاسوبية ثم يرمي المسؤولية على من صنعوه.
باختصار نجد أن برامج الذكاء الاصطناعي (شات جي بي تي وأخواتها) فعلياً غير قادرة على إحداث التوازن بين الإبداع والقيود. فهي إما أن تعطي أكثر مما تسأل عنه ومن غير جدوى (تعطي الحقيقة ونقيضها وتعامل الأخلاقي وغير الأخلاقي على حد سواء) وإما أن يعطي أقل مما يسأل عنه (تعلن الانسلاخ من أي مسؤولية عن أي قرار كما تعلن تساويها أمام النتائج مهما بلغ تناقضها).
مع ما تتصف به برامج الذكاء الاصطناعي من حياد أمام ما هو أخلاقي وغير أخلاقي (amorality) ومن علم مزور مبتور لا يمكن القطع بصحته ومن انعدم الكفاءة اللغوية lingustic incompetence ، لا نملك سوى أن نضحك وأن نبكي معاً على الشعبية التي يتمتع بها.
** **
- ترجمة: أحمد سليم الحجيلي