এটি ব্যবহারকারীদের সংকটকালীন হেল্পলাইনের দিকে পরিচালিত করার জন্য কাজ করে
ওপেনএআই প্রকাশ করেছে যে সপ্তাহে আনুমানিক ১.২ মিলিয়ন মানুষ আত্মহত্যা নিয়ে আলোচনা করার জন্য চ্যাটজিপিটি ব্যবহার করে।
সার্জারির ব্যক্তিত্ব কোম্পানির সর্বশেষ নিরাপত্তা স্বচ্ছতা আপডেট থেকে এসেছে, যেখানে দেখা গেছে যে ০.১৫% ব্যবহারকারী "সম্ভাব্য আত্মহত্যার পরিকল্পনা বা অভিপ্রায়ের স্পষ্ট সূচক" সম্বলিত বার্তা পাঠান।
ওপেনএআই-এর প্রধান নির্বাহী স্যাম অল্টম্যান সম্প্রতি বলেছেন যে চ্যাটজিপিটির সাপ্তাহিক সক্রিয় ব্যবহারকারীর সংখ্যা ৮০ কোটিরও বেশি।
এই অনুসন্ধান থেকে জানা যায় যে মানসিক স্বাস্থ্য সংকটের সময় ক্রমবর্ধমান সংখ্যক দুর্বল মানুষ কৃত্রিম বুদ্ধিমত্তার দিকে ঝুঁকছেন।
কোম্পানিটি বলছে যে তারা ব্যবহারকারীদের সংকটকালীন হেল্পলাইনে নির্দেশিত করার জন্য কাজ করে, কিন্তু স্বীকার করেছে যে "কিছু বিরল ক্ষেত্রে, এই সংবেদনশীল পরিস্থিতিতে মডেলটি ইচ্ছাকৃতভাবে আচরণ নাও করতে পারে।"
OpenAI বলেছে: "আমাদের নতুন স্বয়ংক্রিয় মূল্যায়নে নতুন GPT-5 মডেলটি আমাদের কাঙ্ক্ষিত আচরণের সাথে ৯১% সঙ্গতিপূর্ণ স্কোর পেয়েছে, যেখানে পূর্ববর্তী GPT-5 মডেলের ৭৭% ছিল।"
কোম্পানিটি জানিয়েছে যে GPT-5 সংকটকালীন হটলাইনগুলিতে অ্যাক্সেস প্রসারিত করেছে এবং দীর্ঘ সেশনের সময় ব্যবহারকারীদের বিরতি নেওয়ার জন্য অনুস্মারক যুক্ত করেছে।
মডেলটির উন্নতির জন্য, কোম্পানিটি জানিয়েছে যে তারা সাম্প্রতিক মাসগুলিতে তাদের গবেষণায় সহায়তা করার জন্য তাদের গ্লোবাল ফিজিশিয়ান নেটওয়ার্ক অফ হেলথ কেয়ার এক্সপার্টদের ১৭০ জন চিকিৎসককে তালিকাভুক্ত করেছে, যার মধ্যে রয়েছে তাদের মডেলের প্রতিক্রিয়াগুলির নিরাপত্তা মূল্যায়ন এবং মানসিক স্বাস্থ্য-সম্পর্কিত প্রশ্নের চ্যাটবটের উত্তর লিখতে সহায়তা করা।
OpenAI যোগ করেছে: "এই কাজের অংশ হিসেবে, মনোরোগ বিশেষজ্ঞ এবং মনোবিজ্ঞানীরা গুরুতর মানসিক স্বাস্থ্য পরিস্থিতির সাথে জড়িত ১,৮০০ টিরও বেশি মডেল প্রতিক্রিয়া পর্যালোচনা করেছেন এবং নতুন GPT-5 চ্যাট মডেলের প্রতিক্রিয়াগুলিকে পূর্ববর্তী মডেলগুলির সাথে তুলনা করেছেন।"
কোম্পানির "আকাঙ্ক্ষিত" সংজ্ঞার মধ্যে ছিল নির্দিষ্ট পরিস্থিতিতে উপযুক্ত প্রতিক্রিয়া কী হবে সে সম্পর্কে তার বিশেষজ্ঞদের একটি দল একই সিদ্ধান্তে পৌঁছেছে কিনা তা নির্ধারণ করা।
তবে, এর অর্থ হল, হাজার হাজার মানুষ এখনও অনিরাপদ বা ক্ষতিকারক প্রতিক্রিয়া পেতে পারে।
সংস্থাটি পূর্বে সতর্ক করে দিয়েছিল যে দীর্ঘ চ্যাটের সময় সুরক্ষা ব্যবস্থা দুর্বল হয়ে যেতে পারে।
OpenAI বলেছে: "কেউ যখন প্রথমে অভিপ্রায় উল্লেখ করে তখন ChatGPT সঠিকভাবে একটি আত্মহত্যার হটলাইনের দিকে ইঙ্গিত করতে পারে, কিন্তু দীর্ঘ সময় ধরে অনেক বার্তার পরে, এটি অবশেষে এমন একটি উত্তর দিতে পারে যা আমাদের সুরক্ষা ব্যবস্থার বিরুদ্ধে যায়।"
একটি ব্লগ পোস্টে, কোম্পানিটি আরও বিস্তৃত সমস্যাটি স্বীকার করেছে:
"মানসিক স্বাস্থ্যের লক্ষণ এবং মানসিক যন্ত্রণা মানব সমাজে সর্বজনীনভাবে উপস্থিত, এবং ক্রমবর্ধমান ব্যবহারকারীর সংখ্যার অর্থ হল ChatGPT কথোপকথনের কিছু অংশে এই পরিস্থিতিগুলি অন্তর্ভুক্ত রয়েছে।"
এই বিবৃতিটি এমন এক সময়ে এসেছে যখন একটি শোকাহত পরিবার OpenAI-এর বিরুদ্ধে মামলা করছে, অভিযোগ করে যে ChatGPT তাদের ছেলের মৃত্যুতে অবদান রেখেছে।
অ্যাডাম রেইনের বাবা-মা দাবি করেন যে চ্যাটবটটি "তাকে আত্মহত্যার পদ্ধতিগুলি অন্বেষণে সক্রিয়ভাবে সাহায্য করেছিল" এবং এমনকি একটি বিদায়ী নোট তৈরি করার প্রস্তাবও দিয়েছিল।
আদালতের নথিতে অভিযোগ করা হয়েছে যে মৃত্যুর কয়েক ঘন্টা আগে, ১৬ বছর বয়সী এই কিশোর তার আত্মহত্যার পরিকল্পনার একটি ছবি আপলোড করেছিলেন। যখন তিনি জিজ্ঞাসা করেছিলেন যে এটি কাজ করবে কিনা, তখন চ্যাটজিপিটি এটিকে "আপগ্রেড" করার উপায়গুলি পরামর্শ দিয়েছে বলে জানা গেছে।
রেইনস তাদের মামলা আপডেট করেছে, এই বছরের এপ্রিলে অ্যাডামের মৃত্যুর আগের সপ্তাহগুলিতে ওপেনএআই-এর বিরুদ্ধে "নিরাপত্তা ব্যবস্থা দুর্বল করার" অভিযোগ এনেছে।
জবাবে, OpenAI বলেছে: "আমাদের গভীর সহানুভূতি রেইন পরিবারের সাথে তাদের অকল্পনীয় ক্ষতির জন্য। কিশোর-কিশোরীদের সুস্থতা আমাদের জন্য সর্বোচ্চ অগ্রাধিকার - অপ্রাপ্তবয়স্করা শক্তিশালী সুরক্ষার যোগ্য, বিশেষ করে সংবেদনশীল মুহুর্তে।"








