مع مقتل الأمريكي من أصول أفريقية جورج فلويد في الولايات المتحدة؛ زادت الاحتجاجات المناهضة للعنصرية في جميع أنحاء العالم، في حين عاد الحديث مجدداً عن عنصرية خوارزميات الذكاء الاصطناعي.
وفي حين كانت الهجمات العنصرية ضد المواطنين السود تشغل أجندة البلاد لفترة طويلة، بدأ التمييز العنصري لخوارزميات الذكاء الاصطناعي في الظهور على الساحة مرة أخرى.
والذكاء الاصطناعي هو سلوك وخصائص معينة تتسم بها البرامج الحاسوبية تجعلها تحاكي القدرات الذهنية البشرية وأنماط عملها.
وفي العديد من الأحداث حول العالم، سببت أنظمة الذكاء الاصطناعي مشكلات للشركات بسبب سلوكها العنصري غير المتوقع.
من أشهر هذه الأحداث كان روبوت الذكاء الاصطناعي “تاي” (TAY) الذي أنتجته شركة مايكروسوفت بعد جهودٍ طويلة للمحادثة باللغة الإنجليزية مع المستخدمين على موقع “تويتر”.
إلا أنه على عكس التوقعات، لم يقم “تاي” بعمل محادثات ممتعة مع المستخدمين واضطرت الشركة لإيقافه في غضون 24 ساعة فقط؛ بسبب مشاركاته المسيئة والعنصرية التي قام بها.
وتسبب برنامج “تاي”، على خلفية بعض إجاباته، بحالة استنكار ودهشة لدى المستخدمين، حيث أهان النساء واليهود، وقال: إنه يجب بناء جدار على الحدود المكسيكية.
بالإضافة إلى ذلك كان أحد أبرز السلوكيات العنصرية التي أظهرتها الخوارزميات، الواقعة التي حدثت أثناء تصوير الكاميرا التي طورتها إحدى شركات الحاسوب.
ففي الفيديو الذي صورته زميلتان تعملان في نفس مكان العمل، بينما تعرّف النظام الموجود بالكاميرا على وجه “واندا زامن” ذات البشرة البيضاء وقام بتتبعها، لم يتعرف على وجه “ديسي كرير” ذات البشرة السوداء ولم يتتبع حركاتها.
كما قام برنامج بيوتي أل (Beauty AI) الذي تم تطويره لعمل مسابقة جمال متنقلة للبشر بإظهار تحيزات عنصرية وأعطى الأولوية بشكل أكبر للأشخاص ذوي البشرة البيضاء.
ومن بين آلاف المتقدمين، قبل “Beauty AI”، الذي طورته شركة مقرها في أستراليا وهونج كونج، 6 متقدمين فقط من ذوي البشرة السوداء، في حين كان ذوو البشرة البيضاء الأكثر تفضيلاً بالنسبة له.
كيف يمكن أن يكون الذكاء الاصطناعي عنصرياً؟
أولاً: يجب أن نعلم بأن برمجة خوارزميات الذكاء الاصطناعي تعتمد بشكل رئيس على ما يزودها به المبرمجون من معلومات وبيانات، قد تستخدم بشكل عنصري.
وينبغي الإشارة إلى أن الحاجة الأساسية في “التعلم العميق” الذي يعتبر أهم عنصر للذكاء الاصطناعي، هي استخدام البيانات.
والتعلم العميق يعني بشكل أساسي أن الخوارزمية تتغذى على البيانات الموجودة ثم تتعرف على البيانات دون الحاجة إلى تدخل بشري.
وفي التعلم العميق تتعلم خوارزمية برنامج ما التصنيف مباشرة من الصورة والنص والصوت، كما يمكن أن تحقق دقة متطورة تتجاوز في بعض الأحيان الأداء على المستوى البشري.
على سبيل المثال، يتم برمجة خوارزمية لتتعرف على القطط في آلاف الصور.
وتقوم الخوارزمية بإنشاء نمط من خلال التعرف على شكل وهيئة القطة من الصور التي تحمل علامة “قطة”، ثم يمكنها بعد ذلك اكتشاف ما إذا كان هناك قطة أم لا في الصور التي تراها.
ومما لا شك فيه أن البيانات المستخدمة في برمجة الذكاء الاصطناعي لها مكانة مهمة في مسألة العنصرية والتمييز العنصري.
وفي حالة تغذية أنظمة الذكاء الاصطناعي المُخطط استخدامها في المجال الحقوقي ببيانات تحوي تمييزاً عنصرياً، فسيؤدي ذلك إلى إدانة الأشخاص ذوي البشرة السوداء بشكل تعسفي.
ويوصي الخبراء بضرورة إعداد بيانات التدريب وتعديلها بالشكل الذي لا يضر بالأقليات، وذلك لتجنب مواقف مثل التحيز والتمييز العنصري في خوارزميات الذكاء الاصطناعي.