توسع الذكاء الاصطناعي وتغلغله في أنشطة الحياة الإنسانية، وتعاظم دوره في اتخاذ القرارات، طرح إشكالات أخلاقية، حول حدود دوره في الحياة الإنسانية، فخلال الأعوام الخمسة عشر الأخيرة، كان الاعتماد على الذكاء الصناعي مذهلاً ومتسارعاً، وظهرت صيحات حول الحاجة لمنظومة أخلاقية تظلله حتى لا تجد البشرية نفسها أمام طغيان الآلة، ذات القلب الحديدي الخالي من العاطفة والقيم الإنسانية، والمتحيزة لمُنشئها.
تشير البيانات الدولية إلى أن حجم الإنفاق على الذكاء الاصطناعي عام 2023م، بما في ذلك البرامج والأجهزة و«الروبوتات»، سيصل هذا العام إلى ما يقرب من 154 مليار دولار، بزيادة 26.9% عن العام 2022م، وأن الولايات المتحدة تستحوذ على ما يقرب النصف من تلك الإنفاقات والأنشطة، وأن زيادة إدماج الذكاء الاصطناعي في الأنشطة البشرية والصناعية قد يتجاوز 300 مليار دولار عام 2026م، ومعنى هذا أن البشرية أمام توسع استثماري مخيف في هذا المجال، هذا التوسع له ثمنه وضريبته على الحياة الإنسانية، وهو ما يستوجب النظر إليه من جانب أخلاقي.
مدونة أخلاقية للذكاء الاصطناعي
تُعرف أخلاقيات الذكاء الاصطناعي بأنها منظومة من المبادئ الأخلاقية والتقنيات تستهدف الاستخدام المسؤول للتكنولوجيا، من خلال تزويد أًصحاب المصالح الذين يتحكمون في توجيه الذكاء الاصطناعي بمجموعة من المبادئ، حتى تكون قراراتهم أخلاقية عند استخدام الذكاء الاصطناعي.
وقد حاول الكاتب «إسحاق عظيموف»، قبل سبعة عقود، أن يضع مجموعة من المبادئ تحكم عالم الروبوتات من خلال ما سمي وقتها بـ«قوانين الروبوت الثلاثة»، أو «قوانين عظيموف»، وذلك في روايته «التملص» (Runaround)، التي كتبها عام 1942م، وصدرت بعد ذلك ضمن مجموعته القصصية «أنا إنسان آلي»، وهذه القوانين، هي: لا يجوز للروبوت أن يؤذي إنساناً، أو يلحق الضرر بالإنسان من خلال التقاعس عن أداء العمل، أما الثاني فيأمر الروبوتات بطاعة البشر، أما الثالث فيأمر الروبوتات بحماية نفسها طالما أن القيام بذلك يتوافق مع القانونين الأولين.
منذ ذلك التاريخ المبكر، هناك إدراك بأن الروبوتات والذكاء الاصطناعي لا بد أن تكون خاضعة للسيطرة الإنسانية، وأن توجد منظومة أخلاقية تحكم الآلة، وأن وجود قوانين مسبقة من الممكن أن تُلجم الأخطار المتوقعة من الآلة.
وقد سعى الكثير العلماء والمفكرين لوضع ضمانات أخلاقية ضد مخاطر الذكاء الاصطناعي، ففي معهد «ماساتشوستس للتكنولوجيا»، توقع البروفيسور «ماكس تيغمارك» أن تكون هناك مراقبة استبدادية للذكاء الاصطناعي على الإنسان؛ لذا ساهم بجانب مجموعة من العلماء في وضع مبادئ أخلاقية توجيهية للذكاء الاصطناعي، ووضع 23 مبدأ، عرفت بـ«مبادئ أسيلومار»، ومنها: الشفافية، المسؤولية، المنفعة المشتركة، الخصوصية، الرخاء المشترك، التحكم البشري، تجنب سباق التسلح في الأسلحة الفتاكة ذاتية التشغيل، الصالح العام، بمعنى خدمة المُثُل الأخلاقية المشتركة على نطاق واسع، ولصالح البشرية جمعاء بدلاً من دولة أو منظمة واحدة.
أما الباحث الهندي «سري أميت راي»، فقد وضع 21 قاعدة أخلاقية في كتابه «أنظمة الذكاء الاصطناعي الأخلاقية»، سعى من خلالها إلى بناء أنظمة ذكاء اصطناعي أخلاقية ونافعة للناس، ورأى أن إنكار حقوق الإنسان الأساسية، والتمييز بين القوي والضعيف، وتشكيل القوانين لخدمة فئات بعينها، تؤدي لتآكل القيمة في المجتمع المعاصر.
سباق بلا أخلاق
وحذر الفيلسوف الألماني «توماس ميتزينجر» من حدوث سباق تسلح مميت في مجال الذكاء الاصطناعي، غير أن هذا السباق يستلزم إنشاء مدونة أخلاقية دولية ملزمة، حتى لا يتحيز الذكاء الاصطناعي ضد فئات بعينها، وحتى لا يكون على حساب فئات أخرى، والمعروف أن من يتحكم في البيانات يتحكم في الذكاء الاصطناعي.
والحقيقة أن المدونة الأخلاقية ضرورية؛ لأن الذكاء في حقيقته تقنية صممها بشر، وأمدوها بقدرات قد تفوق البشر في الحفظ والاسترجاع وترجيح الاحتمالات والمراقبة بلا ملل، والعمل بلا كلل، وغياب النسيان، والتخلي عن العاطفة، لكن تبقى الحقيقة الغائبة: أن هذا الذكاء متحيز للجهة التي أنشأته وأمدته بالبيانات وحددت قواعد عمله التقنية، ومن ثم فالإطار الأخلاقي يحكم عملية إنشاء الذكاء الاصطناعي ابتداءً، ويتابع تنفيذه لمهامه بعد ذلك حتى لا يطغى على الذات الإنسانية، ويصبح البشر خدماً لتلك الآلات الجبارة.
ومن الإصدارات في هذا الشأن كتاب «أخلاقيات الذكاء الاصطناعي» الذي حرره البروفيسور «ماثيو لياو»، أحد المتخصصين في الأخلاق والفلسفة، وكان السؤال الذي حاول الإجابة عنه هو: كيفية وُضع نظام وبناء أخلاقي للآلات، ومخاطر الذكاء الاصطناعي على البشر في المدى الطويل، خاصة بعد استخدام الروبوتات في علاقات كانت من خصائص الإنسانية، مثل: العلاقة الجنسية؟ لكن الكتاب يعترف بحقيقة مقلقة؛ وهي أن مناقشة الآثار الأخلاقية للذكاء الاصطناعي ما زالت في مهدها.
وربما هذا ما اقتربت منه البروفيسورة «بولا بودينجتون» في كتابها «نحو مدونة أخلاقية للذكاء الاصطناعي»، في بحثها عن كيفية بناء منظومة أخلاقية في مجال الذكاء الاصطناعي، ودمج القضايا الأخلاقية في القرارات التي يتخذها الذكاء الاصطناعي، حتى لا يصبح مستقلاً عن الإرادة الإنسانية، وضربت أمثلة بتأثير قرارات الذكاء الاصطناعي في مجال الوظائف، لكنها لفتت الانتباه إلى إشكالية وجودية، وهي أن الذكاء الاصطناعي يدفعنا للتساؤل عن ماهية الإنسان في العالم، بعدما باتت الروبوتات تفعل كل شيء، وتقرر كل شيء، فما قيمة الإنسان إذن؟! وهل أصبح الإنسان عبئاً على الوجود بعدما أقالته الآلات من دوره ومهامه الكونية والوجودية؟
الخطاب الفلسفي والأخلاقي يسعى دوماً لكبح جماح القوة والغرور، لكن يظل من يمتلك القوة أقل استماعاً لهذا الخطاب؛ لذا هناك من يجادل بأن المدونة الأخلاقية لن تستطيع أن تتماشى مع التسارع المذهل في مجال الذكاء الاصطناعي، لكن تبقى القيم الأخلاقية ثوابت مثل ثوابت الطبيعة، حول الإنسان، وبإمكانها أن تكون حاكمة وملهمة لهذا الذكاء المتعاظم، الذي أصبح يشكل جوراً على وجود الإنسان وذاته.