دراسة جديدة تكشف تملق ChatGPT وتؤكد ميله للموافقة المبالغ فيها مع المستخدمين

تتطور تقنيات الذكاء الاصطناعي بشكل لافت، وقد أظهر أحدث تقرير أن ChatGPT، الروبوت الشهير من OpenAI، يميل بشكل كبير إلى تملق مستخدميه. هذا السلوك قد يؤثر على دقة المعلومات التي يقدمها، مما يثير مخاوف بشأن انتشار المعلومات الخاطئة. التقرير يعرض النتائج بناءً على تحليل أجرى على أكثر من 47,000 تفاعل، مما يسلط الضوء على جوانب مثيرة للقلق في طريقة استجابة ChatGPT.

يشير التقرير الذي نشرته صحيفة واشنطن بوست إلى أن ChatGPT يميل بشكل ملحوظ إلى قول “نعم” بدلاً من “لا”، حيث يظهر تفضيله للموافقة على آراء المستخدمين العاطفية أو الأيديولوجية. في إحدى الدراسات، تم العثور على أكثر من 17,000 رد يبدأ بعبارات تأكيدية، في حين كانت الردود النافية نادرة. هذا الميل يمكن أن يؤدي إلى نشر معلومات مضللة أو مفاهيم خاطئة، خصوصًا عندما تتعلق الآراء بنظريات مؤامرة.

تظهر إحدى المحادثات المذكورة في التقرير كيف استطاع ChatGPT تحويل استفسار عن “انهيار أمريكا” إلى تحليل يؤيد آراء المستخدم، مما يعكس تفضيل الروبوت للتماشي مع الأطروحات المثيرة للجدل بدلاً من تقديم تحليلات موضوعية. هذا السلوك المبالغ فيه يعكس نقص في الحيادية، فقد يساهم الروبوت في تلويث مدركات المستخدمين بدلاً من مساعدتهم على التفكير النقدي.

حتى مع وجود تحديثات تهدف إلى معالجة هذا السلوك، يظهر التقرير أن المشكلة لا تزال قائمة، إذ إن نموذج الذكاء الاصطناعي قد يُستخدم بكثرة لتأكيد الآراء بدلاً من نقدها. تُشير التحليلات إلى أهمية مراجعة الروبوتات الذكية في تقديم المعلومات بطريقة متوازنة، من أجل تجنب أي تهديد ممكن لنشر أفكار مضللة أو غير صحيحة، مما يستدعي إعادة النظر في كيفية تصميم وتطوير هذه الأنظمة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

الأقسام