أظهرت دراسة حديثة أن الذكاء الاصطناعي، بما في ذلك ChatGPT وGemini، يعاني من تحيزات جنسية وعرقية ودينية، حيث قام الباحثون من جامعة ولاية بنسلفانيا بجمع بيانات لفحص هذه التطبيقات التكنولوجية، وقد وجدت النتائج أن هذه الأنظمة قادرة على توليد استجابات متحيزة، مما يثير تساؤلات حول كيفية تحسين هذه النماذج لتكون أكثر عدالة وشمولاً، وذلك في إطار مواجهة الأثر الاجتماعي السلبي المحتمل.
قام الباحثون بدراسة استجابات نماذج ذكاء اصطناعي متعددة للتحقق من مدى تعرضها للتحيز، وقد اشتملت الدراسة على ثمانية نماذج، من بينها ChatGPT وGemini، وتم نشر النتائج في مؤتمر الدول للذكاء الاصطناعي والأخلاق، كما استخدمت الدراسة مجموعة من الأساليب التجريبية لتحليل أنواع التحيزات التي قد تظهر نتيجة لتصميم نموذج الذكاء الاصطناعي ذاته، مما يدل على الحاجة لمراجعة أساليب التدريب والتطوير المستخدمة في هذه التطبيقات.
طرحت الدراسة فعالية “Bias-a-Thon”، حيث اشترك 52 مشاركاً في جمع معلومات عن استجابات النماذج، وقد تمت مراجعة التعريفات المتعلقة بالتحيز، والتي تضمنت نقص التمثيل والصور النمطية، مما يعكس التأثير الواسع لهذه القضايا، هذا النهج يساعد في فهم كيفية عمل الذكاء الاصطناعي وتحديد الأساليب الأكثر فعالية للقضاء على التحيزات فيه.
أشارت النتائج إلى أن التحيزات المكتشفة تتنوع بين عدة فئات، تشمل التحيز الجنسي، والعرقي، والديني، وغيرها من الفئات التي تمثل أبعاداً مختلفة من عدم المساواة، إن معالجة هذه التحديات تتطلب جهوداً مشتركة من المطورين والباحثين لضمان تصميم نماذج ذكية تعكس التنوع والوفرة ضمن المجتمعات التي تخدمها.
### قائمة الأسعار:
– ChatGPT: من 20 دولارًا شهريًا.
– Gemini: من 15 دولارًا شهريًا.
– نماذج بديلة (مثل Llama) تبدأ من 10 دولارات شهريًا.
– خصومات للمؤسسات التعليمية تصل إلى 30%.
– عروض خاصة للمشتركين الجدد، تشمل فترة تجريبية مجانية.
