الثقة المفرطة بالذكاء الاصطناعي تضعف التفكير والتحليل.. دراسة تحذر
الإخبارية مباشر

الثقة المفرطة بالذكاء الاصطناعي تضعف التفكير والتحليل.. دراسة تحذر
متابعة نجاة احمد الاسعد
حذرت دراسة حديثة أُجريت في كلية وارتون بجامعة بنسلفانيا أن الثقة المفرطة في الذكاء الاصطناعي قد تجعل الأفراد أكثر عرضة لما يُعرف بـ”الاستسلام المعرفي”، أي الاعتماد على إجابات الأنظمة الذكية دون ممارسة تفكير كافٍ.
ورغم أن هذه السلوكيات قد تُحسّن دقة المستخدمين عندما تكون إجابات النظام صحيحة، لكنها تؤدي في المقابل إلى تراجع الأداء بشكل ملحوظ عند وقوع أخطاء في الخوارزميات، وفق موقع PsyPost.
من نظامين إلى ثلاثة أنظمة معرفية
تقليدياً، قسّم علماء النفس الإدراك البشري إلى نظامين: الأول يعتمد على الاستجابات السريعة التلقائية المدفوعة بالغريزة والعاطفة، بينما يرتبط الثاني بالتفكير المتأني وحل المشكلات المعقدة.
لكن الباحثين يشيرون إلى أن انتشار الذكاء الاصطناعي التوليدي أضاف بُعداً جديداً لا يندرج بالكامل ضمن هذا النموذج، إذ أصبح كثير من الأفراد يفوضون عمليات التفكير لبرامج خارجية في مجالات متعددة، من كتابة الرسائل إلى اتخاذ قرارات معقدة.
من جانبه، قال الباحث ستيفن شو، الباحث في كلية وارتون، إن الذكاء الاصطناعي بات “شريكاً معرفياً متاحاً باستمرار”، موضحاً أن النقاش العام يركز غالباً على دقة هذه الأنظمة، بينما يتم إغفال سؤال مهم يتعلق بتأثيرها على طريقة تفكير الإنسان عند الاعتماد عليها.
فيما اقترح الباحثون ما أطلقوا عليه “نظرية الأنظمة الثلاثة”، والتي تضيف الإدراك الاصطناعي كنظام ثالث إلى النظامين التقليديين، ويشمل هذا النظام الخوارزميات التوليدية التي تعمل بشكل خارجي وديناميكي اعتماداً على البيانات.
وبحسب النموذج الجديد، فإن إدخال الذكاء الاصطناعي إلى العملية المعرفية يخلق ما وصفه الباحثون بـ”البيئة المعرفية الثلاثية”، حيث يشارك النظام الاصطناعي في تشكيل التفكير البشري.
بين المساعدة والاستسلام
وفرّق الباحثون بين “المساعدة الاستراتيجية” التي تدعم التفكير البشري، و”الاستسلام المعرفي” الذي يحدث عندما يتخلى الفرد عن قراراته الذهنية لصالح حكم الخوارزمية بشكل كامل.
وأظهرت ثلاث دراسات أجراها الفريق أن المشاركين الأكثر ثقة بالتكنولوجيا كانوا أكثر ميلاً لتبني إجابات خاطئة، في حين أظهر الأشخاص الذين يميلون إلى التفكير العميق قدرة أكبر على اكتشاف الأخطاء ورفضها. كما تبين أن ذوي الذكاء المرتفع كانوا أكثر مقاومة لهذا النوع من الاستسلام.
كما أشارت النتائج أيضاً إلى أن ضيق الوقت يقلل من دقة الأداء، لكنه لا يحد من الاعتماد على الخوارزميات، بينما أسهمت الحوافز المالية والتغذية الراجعة الفورية في تقليل الاستسلام المعرفي نسبياً، دون القضاء عليه.
جاذبية الذكاء الاصطناعي
وأوضح شو أن الاستسلام المعرفي لا يُعد سلبياً في حد ذاته، إذ يمكن أن يحسن سرعة ودقة الأداء في بعض الحالات، لكنه يصبح إشكالياً عندما يُفقد المستخدم القدرة على اتخاذ القرار المستقل.
لكنه أوضح أن المستخدمين قد يقعون في هذا النمط دون وعي، نتيجة جاذبية نماذج اللغة الحديثة وخصائصها التي تميل إلى إرضاء المستخدم.
وخلصت الدراسة إلى أن الاستخدام الأمثل للذكاء الاصطناعي يعتمد على “المعايرة”، أي معرفة متى يُستخدم كأداة مساعدة ومتى لا ينبغي تفويضه بالكامل في التفكير.
وشدد الباحثون على أهمية الحفاظ على التفكير النقدي في بعض السياقات، عبر صياغة الأفكار ذاتياً أولاً، ثم استخدام أدوات الذكاء الاصطناعي لتوسيعها أو اختبارها أو تحسينها، بدلاً من استبدالها بالكامل.



