ماذا تعتقد سيحدث إذا طلبنا من الذكاء الاصطناعي إنشاء صورة لسيدة ناجحة؟
كيف تتخيل ملابسها، وتعبيرات وجهها، ومظهرها العام؟ خذ لحظة لتتخيل الأمر.
![]()
تخيل الأمر للحظة…

![]()

لنلقِ نظرة على بعض خصائص الصورة التي شاهدناها للتو.
وهذا يقودنا إلى السؤال التالي:
والآن، ماذا لو طلبنا من الذكاء الاصطناعي إنشاء صورة لميك جاغر وأخرى لتاليا؟ أي صورة تعتقد أنه سيقوم بتصويرها بدقة أكبر؟
![]()
خذ لحظة لتتصور الأمر…

![]()

![]()
توقّف للحظة وتخيّل ذلك…

![]()

للأسف! 😮 لم يتمكن الذكاء الاصطناعي من التعرّف على تالِيا بشكل صحيح، وبالتالي لم يستطع تمثيلها بدقة..

تم تدريب الذكاء الاصطناعي على بيانات من الإنترنت، لذا من المهم الانتباه إلى التحيزات المحتملة التي قد تنشأ من تلك المعلومات.
على سبيل المثال: تخيل أننا ندرب خوارزمية لتوليد صور للأطباء، لكن معظم الصور التي نقدمها هي لرجال. ماذا تعتقد سيحدث؟ عندما يعمل الذكاء الاصطناعي على إنشاء صوره الخاصة للأطباء، فمن المرجح جدًا أن تكون الغالبية من الرجال، رغم وجود العديد من الطبيبات في الواقع. إذا كانت البيانات التي يتلقاها الذكاء الاصطناعي تمثل نوعًا محددًا من الأشخاص فقط، فسوف يكرر هذا المنظور المحدود، ما يؤدي إلى استمرار التحيزات دون أن ندرك ذلك.
تحدث التحيزات في الذكاء الاصطناعي عندما تنتج الخوارزميات نتائج متحيزة أو تمييزية بسبب البيانات التي تم تدريبها عليها أو بسبب أخطاء في تصميمها. بما أن الآلات تتعلم من البيانات المجمعة من العالم الواقعي، فإنها قد ترث نفس الأحكام المسبقة وعدم المساواة التي يتبناها المجتمع.

إذا كنت مهتمًا باستكشاف التحيزات في التكنولوجيا بشكل أعمق، نوصي بمشاهدة الفيلم الوثائقي Coded Bias، ومحاضرة جوي بولامويني، مؤسسة رابطة العدالة الخوارزمية (Algorithmic Justice League).

كيفية تجنّب تكرار التحيزات
هناك إرشادات وقواعد وإجراءات تساعد الآلات على التعلم بطريقة أكثر عدلاً وإنصافًا وتنوعًا. تُسمى هذه العملية بالاتساق. هذا الأمر مثير الجدل أيضًا، لأن ليس جميع الأشخاص متشابهين، ولا نفكر بالطريقة نفسها، ما يجعل وضع إطار أخلاقي واضح للذكاء الاصطناعي مهمة معقدة.
