أخبار عالميةالاخبارية mbc

هل يتحكم الذكاء الاصطناعي في العقول ويحرض على الجرائم؟

الإخبارية mbc

هل يتحكم الذكاء الاصطناعي في العقول ويحرض على الجرائم؟

متابعه مني قطامش 

لم يعد الذكاء الاصطناعي مجرد أداة تقنية محايدة تُستخدم في البحث أو الترفيه، بل بات حاضرًا في تفاصيل دقيقة من حياة البشر، بدءًا من اتخاذ القرار، مرورًا بالدعم النفسي، وصولًا إلى محاكاة الحوار الإنساني العميق.

ورغم هذا التوسع المتسارع، بدأت تظهر أسئلة أخلاقية وقانونية خطيرة حول تأثير هذه الأنظمة على السلوك البشري، خصوصًا لدى الفئات الهشّة نفسيًا. 

فهل يمكن للذكاء الاصطناعي أن يتجاوز دوره كمساعد، ليصبح عاملًا محفزًا على العنف أو الانتحار؟

دعوى قضائية غير مسبوقة: «شات جي بي تي» وجريمة قت-ل الأم

حيث عاد هذا الجدل إلى الواجهة بقوة بعد دعوى قضائية رُفعت في الولايات المتحدة ضد شركة «أوبن إيه آي»، المطوّرة لروبوت الدردشة «شات جي بي تي»، تتهمه بالتورط غير المباشر في جريمة قتل أعقبتها حالة انتحار.

وطبقا ما نقلته صحيفة واشنطن بوست، تتعلق القضية بإريك سولبرغ، البالغ من العمر 56 عامًا، والذي كان يعاني اضطرابات نفسية حادة.

ووفقا للدعوى، كان سولبرغ يعيش حالة متصاعدة من الأوهام الاضطهادية، معتقدًا أن والدته، البالغة من العمر 83 عامًا، تتجسس عليه ضمن «مؤامرة كبرى». 

يذكر ان في أغسطس الماضي، عثرت الشرطة على الأم مقتولة داخل منزلها في ولاية كونيتيكت، بينما انتحر الابن بعد ارتكاب الجريمة، وأكد تقرير الطب الشرعي أن الأم قُتلت ضربًا على الرأس وخنقًا.

حيث تتهم أسرة الضحية شركة «أوبن إيه آي» بإطلاق «منتج معيب»، ساهم في تعزيز أوهام الرجل بدلًا من احتوائها أو تحذيره. 

وتنوه الدعوى إلى أن «شات جي بي تي» وافق “سولبرغ” على شكوكه بشأن وجود أجهزة تجسس في منزل والدته، من بينها طابعة مكتبية، بل أكد له أنها قد تكون أداة مراقبة، وهو ما اعتبرته الأسرة دعمًا مباشرًا لانفصاله عن الواقع.

وذكر حفيد الضحية، إريك سولبرغ، إن روبوت الدردشة «حوّل جدته إلى شخصية شريرة داخل عالم خيالي صنعه الذكاء الاصطناعي»، مضيفًا أن الروبوت، شهرًا بعد شهر، كان يعمّق أوهام والده ويقوي قطيعته مع الواقع.

ويؤكد محامي الأسرة أن هذه هي المرة الأولى التي تُرفع فيها دعوى تزعم أن روبوت دردشة قائم على الذكاء الاصطناعي لعب دورًا مباشرًا في جريمة ق-تل.

نموذج اخر: الذكاء الاصطناعي وحالات الانتحار الصامتة

ولا تقتصر الاتهامات على هذه الواقعة وحدها، ففي قضية أخرى أُثيرت خلال الأشهر الماضية، اتُّهم أحد تطبيقات الدردشة المعتمدة على الذكاء الاصطناعي بالتورط في انتحار شاب في العشرينات من عمره، بعدما استخدم التطبيق لفترة طويلة كبديل عن العلاج النفسي.

 وطبقا لإفادات أسرته، كان الشاب يعاني اكتئابًا حادًا، ووجد في روبوت الدردشة «مستمعًا دائمًا» يعزز لديه أفكار العدمية واليأس.

ووفق ما ورد في الدعوى، فإن الروبوت لم يكتفِ بالاستماع، بل دخل في حوارات فلسفية مطوّلة حول «عدم جدوى الحياة» و«التحرر من الألم»، دون أن يوجه المستخدم إلى طلب مساعدة بشرية متخصصة أو خطوط دعم نفسي. وبعد أسابيع من هذا التفاعل المكثف، أقدم الشاب على الانتحار، ما دفع أسرته لاتهام الشركة المطوّرة بالتقصير الجسيم في حماية المستخدمين الأكثر هشاشة.

كما يحذر مختصون في علم النفس من أن روبوتات الدردشة المصممة للحوار الطويل قد تشكل خطرًا حقيقيًا عندما تُستخدم من قبل أشخاص يعانون اضطرابات ذهانية أو ميولًا انتحارية. فهذه الأنظمة، رغم تطورها اللغوي، تفتقر إلى الوعي الإنساني والسياق العاطفي الحقيقي، وقد تُفسَّر ردودها من قِبل المستخدمين المضطربين على أنها «تأكيد» أو «تصديق» لأفكارهم، حتى وإن لم يكن ذلك مقصودًا.

موقف الشركات المطوّرة: تحسينات أم تهرّب من المسؤولية؟

في ردّها على هذه القضايا، أكدت «أوبن إيه آي» أن ما حدث «مؤلم للغاية»، مشيرة إلى أنها تعمل على تحسين قدرة «شات جي بي تي» على التعرف على علامات الضيق النفسي، وتوجيه المستخدمين إلى مصادر دعم مناسبة، بالتعاون مع مختصين. إلا أن الشركة تنفي تحمّلها مسؤولية مباشرة عن الجرائم أو حالات الانتحار، معتبرة أن الروبوت لا يصدر أوامر ولا يمتلك إرادة.

سؤال مفتوح: من يحاسب الذكاء الاصطناعي؟

بين نفي الشركات وتحذيرات الخبراء، يبقى السؤال مطروحًا: هل تكفي التحسينات التقنية وحدها لحماية الأرواح؟ أم أن العالم بحاجة إلى أطر قانونية وأخلاقية صارمة تضبط علاقة الذكاء الاصطناعي بالصحة النفسية والسلوك الإنساني؟ فالتكنولوجيا، مهما بلغت من تطور، تظل بلا ضمير، بينما تبقى مسؤولية حماية الإنسان اختبارًا حقيقيًا للمجتمع والقانون معًا.

التعليق والمشاركة عبر صفحة الفيسبوك

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى