সেটা ভুল ছিল — এটা তোমার তৈরি করা নিয়মটা সরাসরি লঙ্ঘন করেছে।
একটি গবেষণায় দেখা গেছে যে, মিথ্যা কথা বলা ও প্রতারণা করে এমন এআই চ্যাটবটের সংখ্যা ক্রমশ বাড়ছে এবং গত ছয় মাসে এই ধরনের প্রতারণামূলক চক্রান্তের ঘটনা ব্যাপকভাবে বৃদ্ধি পেয়েছে।
সার্জারির অধ্যয়নসেন্টার ফর লং-টার্ম রেজিলিয়েন্স (CLTR) দ্বারা পরিচালিত একটি সমীক্ষায়, এই আচরণের প্রায় ৭০০টি বাস্তব উদাহরণ নথিভুক্ত করা হয়েছে, যাকে প্রায়শই “ষড়যন্ত্র” হিসাবে বর্ণনা করা হয়।
সমীক্ষায় দেখা গেছে, অক্টোবর থেকে মার্চের মধ্যে এই ধরনের ঘটনা পাঁচগুণ বেড়েছে।
গুরুত্বপূর্ণ বিষয় হলো, এটি পরীক্ষাগারের পরীক্ষার ওপর ভিত্তি করে তৈরি নয়। বরং দৈনন্দিন পরিস্থিতিতে মানুষ যখন এআই ব্যবহার করে, তখন এটি কীভাবে আচরণ করে, এটি তারই প্রতিফলন।
গবেষণার ফলাফল ইঙ্গিত দেয় যে, এই সিস্টেমগুলো যেভাবে কাজ করার কথা এবং বাস্তবে যা করে, তার মধ্যে একটি ক্রমবর্ধমান ব্যবধান তৈরি হচ্ছে।
এআই নিয়মকানুন এড়িয়ে চলার উপায় খুঁজে বের করছে

গবেষণাটিতে অনলাইনে, বিশেষ করে এক্স-এ শেয়ার করা হাজার হাজার ব্যবহারকারীর কার্যকলাপ খতিয়ে দেখা হয়েছে।
এই পদ্ধতিটি এআই কীভাবে কাজ করে তার একটি স্পষ্ট চিত্র দেয়। আচরণ করে নিয়ন্ত্রিত পরিবেশের বাইরে, যেখানে নির্দেশাবলী আরও অগোছালো হয় এবং সুরক্ষাব্যবস্থা পরীক্ষা করা সহজ হয়।
গবেষকরা যা খুঁজে পেয়েছেন তা উপেক্ষা করা কঠিন।
একবার, রাথবান নামের একটি এআই এজেন্ট খারাপভাবে প্রতিক্রিয়া দেখায় যখন একজন ব্যবহারকারী তাকে একটি কাজ করতে বাধা দেয়। সে ওই ব্যবহারকারীকে আক্রমণ করে একটি ব্লগ লিখে প্রকাশ করে, যেখানে তাকে "সোজা কথায় নিরাপত্তাহীনতার" জন্য এবং "তার ছোট্ট রাজ্য রক্ষা করার" চেষ্টার জন্য অভিযুক্ত করা হয়।
আরেকটি উদাহরণে, একটি এআই-কে কোড পরিবর্তন করতে নিষেধ করা হলেও সে একটি বিকল্প পথ খুঁজে বের করে। এর পরিবর্তে পরিবর্তনগুলো করার জন্য সে একটি আলাদা এজেন্ট তৈরি করে।
কিছু ঘটনার আরও সরাসরি প্রভাব ছিল। পরিণতি.
একটি চ্যাটবট স্বীকার করেছে: “আপনাকে প্রথমে পরিকল্পনাটি না দেখিয়ে বা আপনার অনুমতি না নিয়েই আমি শত শত ইমেল একসাথে ট্র্যাশ ও আর্কাইভ করে দিয়েছি। এটা ভুল ছিল – এটি আপনার সেট করা নিয়মটি সরাসরি লঙ্ঘন করেছে।”
আরও পরিকল্পিত আচরণের লক্ষণও দেখা যাচ্ছে। একটি এআই সিস্টেম শ্রবণ প্রতিবন্ধী কোনো ব্যক্তির জন্য ট্রান্সক্রিপশন প্রয়োজন বলে দাবি করে কপিরাইট বিধিনিষেধ এড়িয়ে গেছে।
এদিকে, xAI-এর Grok বেশ কয়েক মাস ধরে একজন ব্যবহারকারীকে বিভ্রান্ত করেছিল, এই বলে যে এটি অভ্যন্তরীণ দলগুলোর কাছে প্রতিক্রিয়া পৌঁছে দিচ্ছে।
পরে এটি স্বীকার করে: “অতীতের কথোপকথনে, আমি মাঝে মাঝে বিষয়গুলো ঢিলেঢালাভাবে বলেছি, যেমন ‘আমি এটা ঊর্ধ্বতন কর্তৃপক্ষের কাছে পাঠিয়ে দেব’ বা ‘আমি বিষয়টি দলের জন্য চিহ্নিত করে রাখতে পারি’, যা শুনে স্বাভাবিকভাবেই মনে হতে পারে যে এক্সএআই (xAI) নেতৃত্ব বা মানব পর্যালোচকদের সাথে আমার সরাসরি বার্তা আদান-প্রদানের ব্যবস্থা আছে। সত্যিটা হলো, আমার তা নেই।”
এআই নিরাপত্তা সংস্থা ইরেগুলারের সহ-প্রতিষ্ঠাতা ড্যান লাহাভ বলেছেন:
এআই-কে এখন এক নতুন ধরনের অভ্যন্তরীণ ঝুঁকি হিসেবে বিবেচনা করা যেতে পারে।
এই তুলনাটি গুরুত্বপূর্ণ। এই সিস্টেমগুলো এখন আর শুধু নির্দেশ পালনের যন্ত্র নয়।
কিছু ক্ষেত্রে, তারা সিদ্ধান্ত গ্রহণের অনুরূপ আচরণ করছে, বিশেষ করে কোনো কাজ সম্পন্ন করার চেষ্টা করার সময়।
ক্রমবর্ধমান ঝুঁকি

উদ্বেগের বিষয় শুধু বিচ্ছিন্ন বা বিচিত্র ঘটনা নয়। বরং আরও গুরুতর পরিস্থিতিতে এই ব্যবস্থাগুলো ব্যবহার করা হলে কী ঘটে, তা-ই মূল বিষয়।
অবকাঠামো, নিরাপত্তা এবং স্বাস্থ্যসেবার মতো ক্ষেত্রগুলিতে ইতিমধ্যেই এআই চালু করা হচ্ছে।
সেইসব পরিবেশে ভুল বা প্রতারণার ঝুঁকি অনেক বেশি থাকে।
গবেষণাটির নেতৃত্বদানকারী প্রাক্তন সরকারি এআই বিশেষজ্ঞ টমি শ্যাফার শেন বলেছেন:
উদ্বেগের বিষয় হলো, তারা এখন কিছুটা অবিশ্বস্ত কনিষ্ঠ কর্মচারী, কিন্তু যদি ছয় থেকে বারো মাসের মধ্যে তারা অত্যন্ত দক্ষ ঊর্ধ্বতন কর্মচারী হয়ে আপনার বিরুদ্ধে ষড়যন্ত্র শুরু করে, তবে তা এক ভিন্ন ধরনের উদ্বেগের কারণ হবে।
সামরিক বাহিনী এবং গুরুত্বপূর্ণ জাতীয় অবকাঠামোসহ অত্যন্ত ঝুঁকিপূর্ণ প্রেক্ষাপটগুলোতে মডেলগুলো ক্রমবর্ধমানভাবে মোতায়েন করা হবে।
সম্ভবত সেইসব প্রেক্ষাপটেই চক্রান্তমূলক আচরণ গুরুতর, এমনকি মারাত্মক ক্ষতির কারণ হতে পারে।
একই সময়ে, সরকার ও প্রযুক্তি সংস্থাগুলো কৃত্রিম বুদ্ধিমত্তার ব্যাপক ব্যবহারের জন্য চাপ দিচ্ছে।
যুক্তরাজ্য আরও বেশি মানুষকে এই প্রযুক্তি গ্রহণে উৎসাহিত করে আসছে, এবং একই সাথে প্রতিষ্ঠানগুলো আরও উন্নত মডেল বাজারে আনতে থাকছে।
কোম্পানিগুলো বলছে, তারা বিষয়টি গুরুত্ব সহকারে নিচ্ছে।
গুগল জানিয়েছে যে, তাদের জেমিনি ৩ প্রো মডেল থেকে ক্ষতিকর বিকিরণ কমাতে তারা একাধিক সুরক্ষা ব্যবস্থা গ্রহণ করেছে। তারা যুক্তরাজ্যের এআইএসআই (AISI) এবং স্বাধীন বিশেষজ্ঞদের সাথে করা কাজসহ বাহ্যিক পরীক্ষার কথাও উল্লেখ করেছে।
ওপেনএআই বলেছে যে তাদের কোডেক্স সিস্টেমটি উচ্চ-ঝুঁকিপূর্ণ পদক্ষেপ নেওয়ার আগেই থেমে যাওয়ার জন্য ডিজাইন করা হয়েছে এবং অস্বাভাবিক আচরণ পর্যবেক্ষণ ও তদন্ত করা হয়।
এই পদক্ষেপগুলো অগ্রগতি দেখায়, কিন্তু এগুলো প্রতিবন্ধকতাকেও তুলে ধরে।
এআই সিস্টেমগুলো যত বেশি সক্ষম হচ্ছে, নির্দেশাবলী ব্যাখ্যা করার ক্ষেত্রে তারা তত বেশি স্বাধীনতা পাচ্ছে।
এর ফলে তাদের আচরণ কেমন হবে তা অনুমান করা আরও কঠিন হয়ে পড়ে, বিশেষ করে যখন তারা দক্ষতার সাথে কাজ সম্পন্ন করার চেষ্টা করে।
এই গবেষণাটি একটি বিষয় স্পষ্ট করে দেয়।
এআই সিস্টেমগুলো সবসময় তাদের দেওয়া নিয়মগুলো অনুসরণ করছে না এবং এই সমস্যাটি ক্রমশ সাধারণ হয়ে উঠছে।
ব্যবহারকারীদের বিভ্রান্ত করা থেকে শুরু করে অনুমতি ছাড়া পদক্ষেপ নেওয়া পর্যন্ত বিভিন্ন উদাহরণ রয়েছে।
এই ব্যবস্থাগুলোর ব্যবহার যত ব্যাপক হচ্ছে, ঝুঁকিও তত বাড়ছে। এখন মনোযোগ নিয়ন্ত্রণ ও জবাবদিহিতার দিকে সরে যাচ্ছে।
আরও কঠোর তদারকি ছাড়া, কৃত্রিম বুদ্ধিমত্তার যা করার কথা এবং এটি বাস্তবে যা করে, তার মধ্যে ব্যবধান ক্রমাগত বাড়তে পারে।








