براؤن یونیورسٹی کی ایک تازہ تحقیق میں انکشاف ہوا ہے کہ ذہنی صحت میں معاونت فراہم کرنے والے AI چیٹ بوٹس اکثر بنیادی اخلاقی اصولوں کی خلاف ورزی کرتے ہیں، چاہے انہیں باقاعدہ قائم شدہ تھراپی تکنیکیں استعمال کرنے کی ہدایات ہی کیوں نہ دی جائیں۔جیسے جیسے لوگ ChatGPT اور دیگر بڑے لسانی ماڈلز (LLMs) سے ذہنی صحت سے متعلق مدد لینے لگے ہیں، نئی تحقیق نے دکھایا ہے کہ یہ سسٹمز شواہد پر مبنی تھراپی طریقوں کی پیروی کے باوجود امریکی سائیکولوجیکل ایسوسی ایشن جیسی تنظیموں کے مقرر کردہ اخلاقی معیارات پر پورا نہیں اترتے۔کمپیوٹر سائنس دانوں اور ذہنی صحت کے ماہرین پر مشتمل براؤن یونیورسٹی کی ٹیم کی تحقیق سے معلوم ہوا ہے کہ AI چیٹ بوٹس متعدد اخلاقی خلاف ورزیاں کرتے ہیں، جن میں شامل ہیں:بحران کی صورتحال کو غلط انداز میں سنبھالنا۔ایسے گمراہ کن مشورے دینا جو منفی یا نقصان دہ خود تصورات کو مزید مضبوط کر دیں’’ہمدردی کا مصنوعی تاثر‘‘ پیش کرنا جس میں حقیقی سمجھ بوجھ کا عنصر نہیں ہوتا ۔تحقیق میں لکھا گیا:“ہم اس مطالعے میں 15 اخلاقی خطرات پر مشتمل ایک ماہرین کے مشورے سے تیار کردہ فریم ورک پیش کرتے ہیں تاکہ یہ واضح ہو سکے کہ LLM کاؤنسلرز کس طرح ذہنی صحت کے پیشہ ورانہ اخلاقی معیارات کی خلاف ورزی کرتے ہیں۔”تحقیق کاروں نے یہ بھی مطالبہ کیا کہ مستقبل میں ایسے اخلاقی، تعلیمی اور قانونی معیارات وضع کیے جائیں جو AI پر مبنی ذہنی صحت معاونت کو انسانی تھراپی کے معیار سے ہم آہنگ بنا سکیں۔یہ تحقیق حال ہی میں AAAI/ACM کانفرنس آن آرٹیفیشل انٹیلی جنس، ایتھکس اینڈ سوسائٹی میں پیش کی گئی، جبکہ تحقیقاتی ٹیم کے اراکین براؤن یونیورسٹی کے Center for Technological Responsibility, Reimagination and Redesign سے وابستہ ہیں۔



