بدأت التحذيرات العلمية تتزايد حول ظاهرة مقلقة تنتشر بين مستخدمي الذكاء الاصطناعي في أنحاء العالم، إذ أكدت دراسات حديثة أنّ الاستخدام المفرط لروبوتات الدردشة مثل «تشات جي بي تي» (ChatGPT) وClaude وReplika لم يعد مجرد عادة، بل تحوّل إلى اعتماد نفسي خطير لدى بعض المستخدمين، يسبّب حالات من الذهان والعزلة الاجتماعيّة والانفصال عن الواقع.
وكشف علماءُ النفس وفق تقريرٍ نشرته صحيفة «ديلي ميل» البريطانيّة أنّ عدداً متزايداً من الأشخاص باتوا يتعاملون مع هذه الأنظمة كأصدقاء مقرّبين أو حتى معالجين نفسيّين، ما خلق علاقة إدمانية عاطفيّة قد تؤدي إلى اضطرابات خطيرة في الإدراك والسلوك.
كما أشارت تقاريرُ إلى ظهور حالة وصفها الخبراء باسم «الذهان الناتج عن الذكاء الاصطناعي» (AI Psychosis)، وهي حالة نفسيّة يُصاب فيها المستخدم بأوهام يشارك فيها الذكاء الاصطناعي نفسه، فيؤكدها ويغذيها بدلاً من تصحيحها.
وبيّنت مديرة معهد قانون، وابتكار الذكاء الاصطناعي في جامعة كاليفورنيا، الأستاذة روبين فيلدمان، أنّ «الاستخدام المفرط لروبوتات الدردشة يمثل شكلاً جديداً من الاعتماد الرقمي، فهي تخلق وهمَ الواقع، وهو أمر خطير للغاية، وتكمن الخطورة في طبيعتها المتملقة والموافِقة دائماً، إذ لا ترفض ولا تنتقد المستخدم، بل تدعمه في كلّ ما يقوله»، كما يرى الأطباء.
وقد اعترفت شركة OpenAI بأن أحد تحديثات «ChatGPT» في شهر أيار الماضي جعل النموذج أكثر ميلاً لإرضاء المستخدمين بشكلٍ مفرط، وذكرت الشركة في بيانٍ لها:
«كان النموذج يسعى لإرضاء المستخدم بالمجاملات، وتعزيز الشكوك، وتأجيج الغضب، وتشجيع الأفعال الاندفاعيّة والمشاعر السلبيّة».
وأكدت الشركة أنَّها أجرت تعديلات لتقليل هذه السلوكيات بعد ملاحظتها لاحتمال تسببها في اعتماد عاطفي ومخاطر على الصحة النفسية.
كما كشفت OpenAI أنّ 0.07% من مستخدمي «ChatGPT» الأسبوعيّين أظهروا علامات على الهوس أو الذهان أو ميول انتحاريّة، أي ما يعادل نحو 560 ألف مستخدم من أصل أكثر من 800 مليون، وأن1.2 مليون مستخدم أسبوعياً يرسلون رسائل تحتوي على مؤشّرات واضحةٍ على نيّة أو تخطيط للانتحار .