الغباء الاصطناعي.. عندما تنافس الآلة البشر هكذا تكون النتيجة

على الرغم من أن مصلح "الذكاء الاصطناعي" أصبح مألوفًا لدى العديد من الناس، وأضحت جميع الألسنة تردد هذا المصطلح بشكل دائم، وتُروِّج له على أنه الثورة التكنولوجية والتقنية التي ستغير العالم، فإن العديد من الدراسات أكدت أن هذه الأنظمة ليست ذكية كما يعتقد البعض، وأصبح هناك ما يعرف بـ "الغباء الاصطناعي"، وما يدعم هذه النتائج التقرير الصادر عن معهد (MIT) للتكنولوجيا، حيث أشار التقرير إلى أن خوارزميات الذكاء الاصطناعي تخطئ بنسبة تتراوح بين 7% إلى 35% في التعرف على الصور؛ عند حدوث تغيير بسيط في ألوانها أو زواياها، على حين  أن طفلًا في الخامسة من عمره يمكنه تصحيح هذه الأخطاء بكل سهولة ويسر.


ووجدت دراسة أخرى لجامعة ستانفورد أن 40% من روبوتات الدردشة الذكية تقدم إجابات خاطئة عند التعامل مع الأسئلة غير الاعتيادية أو غير المألوفة، كما ارتكبت أنظمة الذكاء الاصطناعي أخطاء فادحة في عالم السيارات ذاتية القيادة، حيث أظهرت بيانات الإدارة الوطنية للسلامة المرورية على الطرق السريعة أن السيارات التي تم تزويدها بأدوات الذكاء الاصطناعي، تورطت في أكثر من 400 حادث، وذلك خلال عام واحد فقط بسبب القرارات غير الصحيحة الناتجة عن صعوبة التعرف على المشاة، أو عدم القدرة على قراءة إشارات المرور، من هنا يمكن أن نتساءل؛ إذا كان الذكاء الاصطناعي متفوقًا على الإنسان كما يزعم البعض، فكيف يقع في أخطاء ساذجة لا يرتكبها الشخص العادي؟ فهل هو حقًا ذكاء حقيقي، أم أنها أنظمة تتقن الغباء الاصطناعي بأسلوب جديد؟

 

تعريف الغباء الاصطناعي:

الغباء الاصطناعي عبارة عن مصطلح يستخدم لوصف التصرفات غير المقبولة أو الخاطئة التي يقع فيها الذكاء الاصطناعي نتيجة محدوديته، وعدم وصوله إلى درجة الذكاء البشري، فعلى الرغم من التقدمات الهائلة التي يشهدها الذكاء الاصطناعي، فإنه ما زال يفتقر إلى الوعي البشري، والفهم الحقيقي، مما يجعله عرضة لاتخاذ قرارات غير متوقعة.

 

فمصطلح الغباء الاصطناعي لا يعني بالضرورة فشل الذكاء الاصطناعي وأدواته في القيام بمهامها، بل يعني أنه لا يمكنه فهم الأشياء بنفس الطريقة التي يفهم بها البشر، ولذا فإن من أكبر التحديات التي يعاني منها المطورون في هذا المجال هو؛ تدريب نماذج الذكاء الاصطناعي بشكل يمكنها من فهم اللغة الطبيعية بشكل جيد، ويتطلب ذلك الكثير من البيانات والتدريب، كما لا يمكن فهم الأسباب التي تؤدي إلى اتخاذ القرارات، أي يتم اتخاذ القرار دون فهم لأسبابه، ودوافعه، فالقرارات التي يتخذها الـ AI تعتمد على البيانات التي يتم تغذيته بها.


أسباب الغباء الاصطناعي:

على الرغم من أن الذكاء الاصطناعي سهّل العديد من المهام، واختصر الوقت والجهد الذي كانت تستغرقه الأعمال التي يتم ممارستها بالوسائل التقليدية، فإن هناك العديد من الأخطاء التي تسببت في ظهور ما يعرف بالغباء الاصطناعي، وتتمثل هذه الأسباب في:

·        عدم فهم السياق:

ذلك لأن الذكاء الاصطناعي يعتمد على البيانات والأنماط، لكن لا يمكنه فهم المعلومات مثل البشر، وذلك مثل برامج الترجمة الآلية التي تقوم بترجمة النصوص، إلا أنها قد تقدم معاني حرفية خاطئة.

·        التحيز في البيانات:

حيث يتعلم الذكاء الاصطناعي من البيانات المتاحة التي تم إدخالها، فإن كانت هذه البيانات متحيزة، ستكون النتيجة كذلك، وذلك مثل أنظمة التوظيف التي تقوم باستبعاد فئات معينة نتيجة بيانات تدريب غير متوازنة.

·        القيود البرمجية والخوارزمية: فأنظمة الذكاء الاصطناعي تعمل وفق قواعد محددة، مما يجعلها عاجزة عن التفكير الإبداعي أو النقدي، وذلك مثل أنظمة القيادة الذاتية التي تسببت في العديد من الحوادث.

·        صعوبة التعامل مع الحالات النادرة غير المألوفة:

فالذكاء الاصطناعي يجيد التعامل مع الأنماط المتكررة، إلا أنه يفشل في التعامل مع المواقف النادرة غير الشائعة، وذلك مثل أنظمة كشف الاحتيال التي تعطي نتائج خاطئة عند مواجهة طرق احتيال جديدة.

 


المخاطر المحتملة للغباء الاصطناعي:

رغم التقدم الكبير الذي شهده الذكاء الاصطناعي، فإن الغباء الاصطناعي من الممكن أن يؤدي إلى العديد من المخاطر في مختلف المجالات، ومن أبرز هذه المخاطر ما يلي:

·        اتخاذ قرارات خاطئة في مجالات حساسة:

 مثل الطب، حيث يمكن أن تقدم هذه الأنظمة تشخيصات عير دقيقة، مما يؤدي إلى علاجات غير مناسبة للمرض، كما قد تستبعد هذه الأنظمة مرشحين أكفاء اعتمادًا على معايير متحيزة.

·        نشر المعلومات المضللة والأخبار الكاذبة: وتوليد صور مزيفة بشكل مقنع، مما قد يؤدي إلى التلاعب بالرأي العام.

·        أخطاء في أنظمة القيادة الذاتية:

 مما يؤدي إلى تعدد الحوادث والضحايا الناتجة عنها.

·        البطالة التكنولوجية وفقدان الوظائف:
 وذلك نتيجة استبدال العمال البشريين بأدوات الذكاء الاصطناعي.

·        الاختراقات والمخاطر الأمنية:

 فالذكاء الاصطناعي يحتوي على بعض الثغرات التي يمكن استغلالها لاختراق الأنظمة، وذلك مثل الهجمات السيبرانية المتقدمة، والاحتيال المالي.

·        تأثيرات سلبية على الحياة الاجتماعية:
وذلك نتيجة انتهاك الخصوصية، والتقليل من التفاعل البشري الحقيقي، مما يؤثر سلبًا على الروابط الاجتماعية.

·        فقدان التحكم على الذكاء الاصطناعي:
 مما قد يؤدي إلى العديد من السلوكيات الخطيرة غير المتوقعة.

 

انظر أيضًا: الذكاء الاصطناعي والتعليم.. الأخطار والفرص


 

كيفية الحد من الغباء الاصطناعي:
على الرغم من المشاكل المتعلقة بالأخطاء، والتحيز وعدم الفهم العميق التي تواجه الذكاء الاصطناعي، فإنه يمكن الحد من الغباء الاصطناعي من خلال عدة أمور، ومنها:

·        تحسين جودة البيانات:
 وذلك بالتخلص من التحيز من خلال تنويع المصادر، ومراقبة أي تحيز في المحتوى.

·        تنظيف البيانات:

 وإزالة الازدواجية والأخطاء التي قد تؤدي إلى استنتاجات غير دقيقة.

·        العمل على تطوير خوارزميات أكثر مرونة وذكاء:
وذلك حتى يتم تحسين فهم السياق، والمعاني المتعمقة الدقيقة، بالإضافة إلى الفكر النقدي.

·        وجود إشراف بشري أكثر فاعلية وكفاءة: خاصة في المجالات الحساسة، وذلك من خلال إعداد فرق للمراجعة المستمرة.

·        تعزيز الشفافية في عمل الذكاء الاصطناعي: حيث يتم توضيح الأسباب التي يتم بناءً عليها اتخاذ قرار معين، بالإضافة إلى توفير معلومات للجمهور عن الكيفية التي تعمل بها أدوات الذكاء الاصطناعي.

·        التعامل مع المخاطر الأمنية:
 وتعزيز الأمان السيبراني، وحماية الأنظمة من الهجمات الإلكترونية التي تستهدف الاختراق أو التلاعب بالبيانات.

·        تطوير لوائح وقوانين تعمل على تنظيم الذكاء الاصطناعي:
حيث يتم إلزام الشركات بمراجعة تأثير أنظمتها، وضمان الاستخدام الآمن للذكاء الاصطناعي.

·        تعزيز الأبحاث والتطورات في الذكاء الاصطناعي:
وذلك من خلال التعاون مع الشركات المتخصصة، والجامعات والمؤسسات الأكاديمية ذات الصلة بالمجال، وذلك لضمان تطوير تقنيات أكثر ذكاءً وأمانًا.

 


الخاتمة:

مما سبق يتبين أن الغباء الاصطناعي ليس مجرد مشكلة تقنية، بل يمثل تحديًا خطيرًا قد يؤثر على الأمان الشخصي، والاقتصاد، والمجتمع بشكل عام، ولذا فمن الضروري تطوير الذكاء الاصطناعي ليكون أكثر أمانًا، والعمل على تعزيز وتحسين الرقابة البشرية، والحد من الاعتماد الأعمى على هذه الأدوات، كما يجب أن يكون هناك توازن بين الابتكار والمسؤولية لضمان الاستخدام الآمن والمفيد للذكاء الاصطناعي، ذلك لأنه في نهاية الأمر يتم من خلال آلات، لا يمكن أن تصل إلى مستوى الذكاء والفهم الذي يتمتع به العقل البشري.

 


الرئيسية

مرئيات

العدد

ملفات خاصة

مدونة