حوكمة الذكاء الاصطناعي

10 مخاطر وتحديات للذكاء الاصطناعي وكيفية إدارتها

جمال خطاب

25 ديسمبر 2025

1228

 يتمتع الذكاء الاصطناعي (AI) بقيمة هائلة، ولكن اقتناص فوائده الكاملة يعني مواجهة عثراته المحتملة والتعامل معها. إن نفس الأنظمة المتطورة المستخدمة لاكتشاف أدوية جديدة، وفحص الأمراض، ومعالجة تغير المناخ، والحفاظ على الحياة البرية وحماية التنوع البيولوجي، يمكنها أيضاً أن تنتج خوارزميات متحيزة تسبب الضرر، وتقنيات تهدد الأمن والخصوصية وحتى الوجود البشري.

إليك نظرة فاحصة على 10 مخاطر للذكاء الاصطناعي واستراتيجيات قابلة للتنفيذ لإدارة المخاطر.

يمكن الحد من العديد من مخاطر الذكاء الاصطناعي المدرجة هنا، ولكن لا يزال يتعين على خبراء الذكاء الاصطناعي والمطورين والمؤسسات والحكومات التصدي لها.

 

1-    التحيز (Bias)

البشر منحازون بطبعهم، والذكاء الاصطناعي الذي نطوره يمكن أن يعكس تحيزاتنا. تتعلم هذه الأنظمة دون قصد التحيزات التي قد تكون موجودة في بيانات التدريب والتي تظهر في خوارزميات تعلم الآلة (ML) ونماذج التعلم العميق التي تدعم تطوير الذكاء الاصطناعي. قد تستمر تلك التحيزات المكتسبة أثناء نشر الذكاء الاصطناعي، مما يؤدي إلى نتائج مشوهة.

يمكن أن يكون لتحيز الذكاء الاصطناعي عواقب غير مقصودة ذات نتائج ضارة محتملة. تشمل الأمثلة أنظمة تتبع المتقدمين للوظائف التي تميز ضد نوع اجتماعي معين، وأنظمة تشخيص الرعاية الصحية التي تعطي نتائج أقل دقة للفئات السكانية التي عانت تاريخياً من نقص الخدمات، وأدوات الشرطة التنبؤية التي تستهدف المجتمعات المهمشة نظامياً بشكل غير متناسب، من بين أمور أخرى.

وللتغلب على تلك المشكلات ينبغي:

  • وضع استراتيجية لـ حوكمة الذكاء الاصطناعي تشمل أطر عمل وسياسات وعمليات توجه التطوير والاستخدام المسؤول لتقنيات الذكاء الاصطناعي.
  • إنشاء ممارسات تعزز العدالة، مثل تضمين مجموعات بيانات تدريبية تمثيلية، وتشكيل فرق تطوير متنوعة، ودمج مقاييس العدالة، وإشراك الرقابة البشرية من خلال مجالس أو لجان مراجعة أخلاقيات الذكاء الاصطناعي.
  • وضع عمليات للحد من التحيز عبر دورة حياة الذكاء الاصطناعي. يتضمن ذلك اختيار نموذج التعلم الصحيح، وإجراء معالجة البيانات بوعي، ومراقبة الأداء في العالم الحقيقي.
  • البحث في أدوات عدالة الذكاء الاصطناعي، مثل مجموعة أدوات (AI Fairness 360) مفتوحة المصدر من IBM.

2-    تهديدات الأمن السيبراني

يمكن للجهات السيئة استغلال الذكاء الاصطناعي لشن هجمات سيبرانية. فهم يتلاعبون بأدوات الذكاء الاصطناعي لاستنساخ الأصوات، وتوليد هويات مزيفة، وإنشاء رسائل تصيد احتيالي مقنعة—كل ذلك بقصد الاحتيال أو الاختراق أو سرقة هوية الشخص أو تعريض خصوصيته وأمنه للخطر.

وبينما تستفيد المؤسسات من التقدم التكنولوجي مثل الذكاء الاصطناعي التوليدي، فإن 24% فقط من مبادرات الذكاء الاصطناعي التوليدي مؤمنة. وهذا النقص في الأمن يهدد بكشف البيانات ونماذج الذكاء الاصطناعي للاختراقات، والتي بلغ متوسط تكلفتها العالمية 4.88 مليون دولار أمريكي في عام 2024.

وفيما يلي بعض الطرق التي يمكن للمؤسسات من خلالها تأمين مسار الذكاء الاصطناعي الخاص بها، وفقاً لتوصيات معهد IBM لقيمة الأعمال (IBM IBV):

  • وضع خطة لاستراتيجية سلامة وأمن الذكاء الاصطناعي.
  • البحث عن الثغرات الأمنية في بيئات الذكاء الاصطناعي من خلال تقييم المخاطر ونمذجة التهديدات.
  • حماية بيانات تدريب الذكاء الاصطناعي واعتماد نهج "الأمن عبر التصميم" لتمكين التنفيذ والتطوير الآمن لتقنيات الذكاء الاصطناعي.
  • تقييم نقاط ضعف النماذج باستخدام الاختبارات الهجومية (Adversarial testing).
  • الاستثمار في التدريب على الاستجابة السيبرانية لرفع مستوى الوعي والجاهزية والأمن في مؤسستك.

3-    قضايا خصوصية البيانات

تعد النماذج اللغوية الكبيرة (LLMs) هي نماذج الذكاء الاصطناعي الأساسية للعديد من تطبيقات الذكاء الاصطناعي التوليدي، مثل المساعدات الافتراضية وروبوتات المحادثة. وكما يوحي اسمها، تتطلب هذه النماذج اللغوية حجماً هائلاً من بيانات التدريب.

ولكن عادةً ما يتم الحصول على البيانات التي تساعد في تدريب النماذج اللغوية الكبيرة عن طريق زحافات الويب التي تقوم بكشط وجمع المعلومات من المواقع الإلكترونية. غالباً ما يتم الحصول على هذه البيانات دون موافقة المستخدمين وقد تحتوي على معلومات تحديد الهوية الشخصية (PII). قد تجمع أنظمة الذكاء الاصطناعي الأخرى التي تقدم تجارب مخصصة للعملاء بيانات شخصية أيضاً.

ولذلك وجب اتخاذ الاحراءات التالية:

  • إبلاغ المستهلكين بممارسات جمع البيانات لأنظمة الذكاء الاصطناعي: متى يتم جمع البيانات، وما هي معلومات تحديد الهوية الشخصية المضمنة (إن وجدت)، وكيف يتم تخزين البيانات واستخدامها.
  • منحهم خيار الانسحاب من عملية جمع البيانات.
  • استخدام البيانات الاصطناعية (Synthetic Data) المنشأة حاسوبياً بدلاً من ذلك.

4-    الأضرار البيئية

يعتمد الذكاء الاصطناعي على حسابات كثيفة الاستهلاك للطاقة مع بصمة كربونية كبيرة. يتطلب تدريب الخوارزميات على مجموعات بيانات كبيرة وتشغيل نماذج معقدة كميات هائلة من الطاقة، مما يساهم في زيادة انبعاثات الكربون. تقدر إحدى الدراسات أن تدريب نموذج واحد لـ معالجة اللغات الطبيعية ينبعث منه أكثر من 600,000 رطل من ثاني أكسيد الكربون؛ أي ما يقرب من 5 أضعاف متوسط انبعاثات السيارة طوال عمرها.

يعد استهلاك المياه مصدر قلق آخر. تعمل العديد من تطبيقات الذكاء الاصطناعي على خوادم في مراكز البيانات، والتي تولد حرارة كبيرة وتحتاج إلى كميات كبيرة من المياه للتبريد. وجدت دراسة أن تدريب نماذج GPT-3 في مراكز بيانات مايكروسوفت في الولايات المتحدة يستهلك 5.4 مليون لتر من المياه، ومعالجة 10 إلى 50 أمراً يستهلك حوالي 500 ملليلتر، وهو ما يعادل زجاجة مياه قياسية.

اتخذ إجراءً:

  • استخدام الطاقة المتجددة.
  • اختير نماذج أو أطر عمل ذكاء اصطناعي موفرة للطاقة.
  • التدريب على بيانات أقل وتبسيط بنية النموذج.
  • إعادة استخدام النماذج الحالية والاستفادة من تعلم النقل (Transfer Learning)، الذي يستخدم نماذج مدربة مسبقاً لتحسين الأداء في المهام أو مجموعات البيانات ذات الصلة.
  • استخدام بنية بدون خوادم وأجهزة محسنة لأعباء عمل الذكاء الاصطناعي.

5-    المخاطر الوجودية

في مارس 2023، بعد 4 أشهر فقط من تقديم OpenAI لبرنامج ChatGPT، دعت رسالة مفتوحة من قادة التكنولوجيا إلى وقف فوري لمدة 6 أشهر لـ "تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4". بعد شهرين، حذر جيفري هينتون، المعروف بأنه أحد "عرابي الذكاء الاصطناعي"، من أن التطور السريع للذكاء الاصطناعي قد يتجاوز قريباً الذكاء البشري. وتبع ذلك بيان آخر من علماء الذكاء الاصطناعي وخبراء علوم الكمبيوتر وشخصيات بارزة أخرى، يحث على اتخاذ تدابير للتخفيف من خطر الانقراض بسبب الذكاء الاصطناعي، مساوين إياه بالمخاطر التي تشكلها الحرب النووية والأوبئة.

وبينما يُنظر إلى هذه الأخطار الوجودية غالباً على أنها أقل إلحاحاً مقارنة بمخاطر الذكاء الاصطناعي الأخرى، إلا أنها تظل قائمة. الذكاء الاصطناعي القوي أو الذكاء الاصطناعي العام، هو آلة نظرية ذات ذكاء شبيه بالبشر، بينما يشير الذكاء الاصطناعي الفائق إلى نظام ذكاء اصطناعي متقدم افتراضي يتجاوز الذكاء البشري.

و رغم أن الذكاء الاصطناعي القوي والذكاء الاصطناعي الفائق قد يبدوان كأنهما خيال علمي، إلا أنه يمكن للمؤسسات الاستعداد لهذه التقنيات بما يلي

  • البقاء على اطلاع بأبحاث الذكاء الاصطناعي.
  • بناء بنية تكنولوجية صلبة والبقاء منفتحين على تجربة أحدث أدوات الذكاء الاصطناعي.
  • تعزيز مهارات فرق الذكاء الاصطناعي لتسهيل اعتماد التقنيات الناشئة.

6-    انتهاك الملكية الفكرية

أصبح الذكاء الاصطناعي التوليدي محاكياً بارعاً للمبدعين، حيث يولد صوراً تلتقط أسلوب الفنان، أو موسيقى تعكس صوت المغني، أو مقالات وقصائد تشبه أسلوب الكاتب. ومع ذلك، يبرز سؤال رئيسي: من يملك حقوق الطبع والنشر للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، سواء تم إنشاؤه بالكامل بواسطة الذكاء الاصطناعي أو بمساعدته؟ لا تزال قضايا الملكية الفكرية المتعلقة بالأعمال الناتجة عن الذكاء الاصطناعي في طور التطور، ويشكل الغموض المحيط بالملكية تحديات للشركات.

ولذلك وجب اتخاذ اجراءات مثل:

  • تنفيذ فحوصات للامتثال للقوانين المتعلقة بالأعمال المرخصة التي قد تُستخدم لتدريب نماذج الذكاء الاصطناعي.
  • توخي الحذر عند إدخال البيانات في الخوارزميات لتجنب كشف الملكية الفكرية لشركتك أو المعلومات المحمية بملكية فكرية للآخرين.
  • مراقبة مخرجات نماذج الذكاء الاصطناعي بحثاً عن محتوى قد يكشف عن الملكية الفكرية لمؤسستك أو ينتهك حقوق الملكية الفكرية للآخرين.

7-    فقدان الوظائف

من المتوقع أن يحدث الذكاء الاصطناعي اضطراباً في سوق العمل، مما يثير مخاوف من أن الأتمتة المدعومة بالذكاء الاصطناعي ستزيح العمال. فوفقاً لتقرير صادر عن المنتدى الاقتصادي العالمي، تتوقع ما يقرب من نصف المؤسسات التي شملها الاستطلاع أن يخلق الذكاء الاصطناعي وظائف جديدة، بينما يرى ربعها تقريباً أنه سبب في فقدان الوظائف.

وبينما يدفع الذكاء الاصطناعي النمو في أدوار مثل متخصصي تعلم الآلة، ومهندسي الروبوتات، ومتخصصي التحول الرقمي، فإنه يؤدي أيضاً إلى تراجع المناصب في مجالات أخرى. وتشمل هذه الأدوار الكتابية، والسكرتارية، وإدخال البيانات، وخدمة العملاء، على سبيل المثال لا الحصر. وأفضل طريقة للتخفيف من هذه الخسائر هي اعتماد نهج استباقي ينظر في كيفية استخدام الموظفين لأدوات الذكاء الاصطناعي لتعزيز عملهم؛ مع التركيز على التعزيز بدلاً من الاستبدال.

و يعد إعادة تأهيل الموظفين ورفع مهاراتهم لاستخدام الذكاء الاصطناعي بفعالية أمراً ضرورياً على المدى القصير. ومع ذلك، يوصي معهد IBM لقيمة الأعمال بنهج طويل الأجل ثلاثي المحاور:

  • تحويل نماذج الأعمال والتشغيل التقليدية، والأدوار الوظيفية، والهياكل التنظيمية، والعمليات الأخرى لتعكس الطبيعة المتطورة للعمل.
  • إقامة شراكات بين الإنسان والآلة تعزز عملية صنع القرار وحل المشكلات وخلق القيمة.
  • الاستثمار في التكنولوجيا التي تمكن الموظفين من التركيز على المهام ذات القيمة الأعلى وتدفع نمو الإيرادات.

8-    غياب المساءلة

أحد مخاطر الذكاء الاصطناعي الأكثر غموضاً وتطوراً هو افتقاره إلى المساءلة. من المسؤول عندما يخطئ نظام الذكاء الاصطناعي؟ من يتحمل المسؤولية في أعقاب قرار ضار تتخذه أداة ذكاء اصطناعي؟

تتصدر هذه الأسئلة المشهد في حالات الحوادث المميتة والتصادمات الخطيرة التي تشمل سيارات ذاتية القيادة والاعتقالات الخاطئة بناءً على أنظمة التعرف على الوجه. وبينما لا تزال هذه القضايا قيد المعالجة من قبل واضعي السياسات والهيئات التنظيمية، يمكن للمؤسسات دمج المساءلة في استراتيجية حوكمة الذكاء الاصطناعي الخاصة بها من أجل ذكاء اصطناعي أفضل.

ولذلك يوصى باتخاذ اللازم

  • الاحتفاظ بمسارات وسجلات تدقيق يسهل الوصول إليها لتسهيل مراجعات سلوكيات نظام الذكاء الاصطناعي وقراراته.
  • الاحتفاظ بسجلات مفصلة للقرارات البشرية المتخذة أثناء عمليات تصميم وتطوير واختبار ونشر الذكاء الاصطناعي بحيث يمكن تتبعها عند الحاجة.
  •  استخدام أطر العمل والإرشادات الحالية التي تدمج المساءلة في الذكاء الاصطناعي، مثل الإرشادات الأخلاقية للمفوضية الأوروبية للذكاء الاصطناعي الجدير بالثقة، ومبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي، وإطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتقنية (NIST)، وإطار مساءلة الذكاء الاصطناعي التابع لمكتب محاسبة الحكومة الأمريكية.

9-    الافتقار إلى الشفافية وقابلية التفسير

غالباً ما يُنظر إلى خوارزميات ونماذج الذكاء الاصطناعي على أنها صناديق سوداء تظل آلياتها الداخلية وعمليات صنع القرار فيها لغزاً، حتى بالنسبة لباحثي الذكاء الاصطناعي الذين يعملون عن كثب مع هذه التكنولوجيا. يشكل تعقيد أنظمة الذكاء الاصطناعي تحديا كبيرا عندما يتعلق الأمر بفهم سبب توصلهم إلى استنتاج معين وتفسير كيفية وصولهم إلى تنبؤ محدد.

تؤدي هذه الضبابية وعدم القابلية للفهم إلى تآكل الثقة وحجب المخاطر المحتملة للذكاء الاصطناعي، مما يجعل من الصعب اتخاذ تدابير استباقية ضدها.

يقول كوش فارشني، العالم المتميز ومدير الأبحاث في IBM Research®: "إذا لم تكن لدينا تلك الثقة في تلك النماذج، فلن نتمكن حقاً من الحصول على فائدة ذلك الذكاء الاصطناعي في المؤسسات".

ولذلك يجب:

  • اعتماد تقنيات الذكاء الاصطناعي القابل للتفسير والتي تتضمن بعض أمثلة التقييم المستمر للنماذج، واستخدام تقنية (LIME) للمساعدة في شرح تنبؤات المصنفات بواسطة خوارزمية تعلم الآلة، وتقنية (DeepLIFT) لإظهار رابط وتبعية قابلة للتتبع بين الخلايا العصبية في الشبكة العصبية.
  • حوكمة الذكاء الاصطناعي قيمة هنا مرة أخرى، مع فرق التدقيق والمراجعة التي تقيم إمكانية تفسير نتائج الذكاء الاصطناعي وتضع معايير للقابلية للتفسير.
  • استكشاف أدوات الذكاء الاصطناعي القابلة للتفسير، مثل مجموعة أدوات (AI Explainability 360) مفتوحة المصدر من IBM.

10-                        المعلومات المضللة والتلاعب

كما هو الحال مع الهجمات السيبرانية، يستغل الفاعلون الخبثاء تقنيات الذكاء الاصطناعي لنشر معلومات مضللة وكاذبة، مما يؤثر على قرارات الناس وأفعالهم والتلاعب بها. فعلى سبيل المثال، تم إجراء مكالمات آلية تم إنشاؤها بواسطة الذكاء الاصطناعي لتقليد صوت جو بايدن لثني العديد من الناخبين الأمريكيين عن الذهاب إلى صناديق الاقتراع.

بالإضافة إلى المعلومات المضللة المتعلقة بالانتخابات، يمكن للذكاء الاصطناعي إنشاء "التزييف العميق" (Deepfakes)، وهي صور أو مقاطع فيديو معدلة لتمثيل شخص ما وهو يقول أو يفعل شيئاً لم يفعله أبداً. يمكن أن تنتشر هذه التزييفات العميقة عبر وسائل التواصل الاجتماعي، مما يضخم المعلومات المضللة ويضر بالسمعة ويؤدي إلى مضايقة الضحايا أو ابتزازهم.

تساهم هلوسة الذكاء الاصطناعي أيضاً في المعلومات المضللة. تتراوح هذه المخرجات غير الدقيقة والظاهريّة من عدم الدقة في الحقائق البسيطة إلى المعلومات الملفقة التي يمكن أن تسبب الضرر.

ولذلك لا بد من:

  • تثقيف المستخدمين والموظفين حول كيفية اكتشاف المعلومات المضللة والكاذبة.
  • التحقق من صحة وصدق المعلومات قبل التصرف بناءً عليها.
  • استخدام بيانات تدريب عالية الجودة، واختبار نماذج الذكاء الاصطناعي بصرامة، وتقييمها وتحسينها باستمرار.
  • الاعتماد على الرقابة البشرية لمراجعة مخرجات الذكاء الاصطناعي والتحقق من دقتها.
  • البقاء على اطلاع بأحدث الأبحاث لاكتشاف ومكافحة التزييف العميق وهلوسة الذكاء الاصطناعي والأشكال الأخرى من المعلومات المضللة والكاذبة.

اجعل حوكمة الذكاء الاصطناعي أولوية للمؤسسة

يحمل الذكاء الاصطناعي الكثير من الوعود، ولكنه يأتي أيضاً مع أخطار محتملة. إن فهم المخاطر المحتملة للذكاء الاصطناعي واتخاذ خطوات استباقية لتقليلها يمكن أن يمنح المؤسسات ميزة تنافسية.

باستخدام ادوات حوكمة ومراقبة الذكاء الاصطناعي يمكن للمؤسسات توجيه وإدارة ومراقبة أنشطة الذكاء الاصطناعي في منصة واحدة متكاملة ومن ثم تقييم دقة النموذج ومراقبة العدالة والتحيز والمقاييس الأخرى.

----------

المصدر: آي بي إم

 

الرابط المختصر :

اترك تعليقاً

التعليقات (0)

لا توجد تعليقات بعد. كن أول من يعلق!

تابعنا

الرئيسية

مرئيات

جميع الأعداد

ملفات خاصة

مدونة