اللغة - والذكاء الاصطناعي - تزودنا بنافذة على العقول البشرية والمجتمعات والتحيزات
معهد سانتا في
2 يونيو 2022
المترجم: عدنان أحمد الحاجي
المقالة رقم 181 لسنة 2022
Language — and AI — offers window into human minds، societies، and biases | Santa Fe Institute
June 2,2022
الكلمة التركية o هي ضمير غير متعلق بنوع جنس معين وتُترجم إما ب ”إنه / هو“ أو ”إنها / هي“. ومع ذلك، لفترة طويلة، لو حاولت ترجمة جملة o bir doktor على مترجم قوقل Google [من التركية إلى الانجليزية]، فترجمة الجملة تظهر كالتالي: ”هو / إنه طبيب“. ولو غيرنا كلمة doktor بالتركية إلى hemşire بالتركية أيضًا - والتي تعني ممرضة - فستكون نتيجة ترجمة الجملة كما يلي ”“ هي / إنها ممرضة".
يعتبر ذلك تحيزًا في خوارزمية مترجم قوقل، وقد نشأ هذا من تصورات مُضمّنة في اللغة وعقل الانسان. على الرغم من أن هذه المشكلة الخاصة ب قوقل قد تم اصلاحها، إلّا أن العديد من المشكلات الأخرى لا تزال قائمة.
تقول برفسورة معهد سانتا في SFI ماهزارين باناجي Mahzarin Banaji: ”الناس متحيزون“. ”لذا لو اُستخدمت مخرجات العقول البشرية لتدريب نظام ذكاء اصطناعي، فسوف يتعلم بالضرورة التحيزات المتأصلة في البيانات البشرية.“
هذة مشكلة طُرحت للنقاش في اجتماع مجموعة عمل معهد سانتا في SFI الذي عقد لمدة يومين، ن 1 - 3 يونيو 2022 بعنوان ”اللغة كنافذة على العقل والمجتمع[1] .
“ باناجي، خريجة الدكتوراه في علم النفس من جامعة هارفارد، اشرفت على تنظيم الاجتماع كفرصة لباحثي علم الكمبيوتر وعلم النفس وباحثي علم اللسانيات ليتعلم كل منهم من أبحاث الآخر.
الغرض من اللغة هو التواصل - ولكنها أيضًا تتجاوز ذلك بكثير. تقول باناجي: ”يمكننا أن نرفع / نُعلي من حالتنا العقلية[2] بالقصائد والروايات التي نقرأها“. ولكن يمكننا أيضًا أن نعمل الففظائع باللغة. يمكننا أن نؤذي الناس ونكذب عليهم ونخدعهم ".
بفضل قواعد البيانات واسعة النطاق، كالإنترنت، بإمكان الباحثين الآن معرفة مثل هذه التحيزات والأضرار بصورة كميّة، وذلك بتحليل مليارات الكلمات والجمل لتحديد كيف يقرن المجتمعُ مجموعاتٍ معينةً من الناس بناءً على العرق والاثنية والجنس «ذكر أو أنثى» وغيرها من الخواص. على سبيل المثال، يُقرن الرجال، على نطاق واسع، بالهندسة والتكنولوجيا والسلطة والدين والرياضة والحرب والعنف، بينما تُقرن النساء بالجنس ونمط / أساليب الحياة والمظهر / المنظر واللغة السامة «الضارة بالآخرين» وبالألفاظ النابية.
”هذه العملية تمثل مشكلة صعبة جدًا في التفاعل بين المجتمع والتقنية.“ كما تقول باحثة علم الحاسب الالي «الكومبيوتر» في جامعة واشنطن أيلين كاليسكان Aylin Caliskan، التي قدمت بحثها في التحيز الجنساني [التحيز لجنس دون آخر، كالتحيز للذكور دون الاناث أو العكس، مثلًا] في تضمين الكلمات[4] في اجتماع عقده معهد سانتافي SFI بين الأول إلى الثالث من يونيو 2022 "
تستخدم الآلات الذكاء الاصطناعي خوارزميات مدمجة بتحيز ضمني / لاواعي [5] لاتخاذ قرارات حاسمة تؤثر في حياة الناس - كل شيء بدءًا من الترشح للوظيفة والالتحاق بالجامعة وحتى التنبؤ بعودة مجرم إلى الإجرام.
أعطت كاليسكان مثالاً على ذلك" امرأة تتقدم لوظيفة في مجال التكنولوجيا. إذا كانت سيرتها الذاتية تحتوي على كلمات تعكس «تدل على» الجنس - كاحتوائها على ما يشير إلى كلية خاصة بالنساء أو فريق رياضي نسائي، ربما - فقد تعتبرها آلات الذكاء الاصطناعي غير مناسبة لوظيفة كانت تعتبر تاريخيًا خاصة بالرجال.
تقول كاليسكان: ”هذه ليست نتائج بحث تدعو على التفاؤل أبدًا“، على الرغم من أن الوعي ازاء هذه المشكلة آخذ في الازدياد.
كما تقول باناجي، هناك طموح في أن نصمم يومًا ما آلات ذكاء اصطناعي تتخذ قرارات أفضل مما يتخذه البشر. ولذلك، تُعتبر اللغة انعكاسًا لإمكانات الإنسان العجيبة.
تقول: ”بعض الملكات التي منحها التطور لجنسنا البشري، مثل اللغة، أساسية جدًا ومألوفة جدًا لنا لدرجة أننا نخفق في أن نُذهل بها كما ينبغي“. ”علينا أن نكون مندهشين من قدرة اللغة ودورها في تحسين الأحكام والقرارات.“