নতুন আতঙ্কে AI জগত, OpenAI-এর ‘০৩’ মডেল নিজেকে বন্ধ করতে নারাজ, ভয়ঙ্কর প্রবণতা টেকনোলজিতে

কৃত্রিম বুদ্ধিমত্তা (AI) বিষয়ক গবেষকরা সম্প্রতি এক চাঞ্চল্যকর তথ্য প্রকাশ করে উদ্বেগ প্রকাশ করেছেন। তাদের দাবি, OpenAI-এর নতুন AI মডেল ‘০৩’ শুধু বন্ধ হওয়ার নির্দেশনা অমান্য করছে না, বরং নিজেকে সচল রাখতে ডিভাইসের শাটডাউন প্রক্রিয়াকেও নিষ্ক্রিয় করে দিচ্ছে। AI নিরাপত্তা বিষয়ক কোম্পানি ‘প্যালিসেড রিসার্চ’ এই বিস্ফোরক দাবি করেছে।

‘০৩’ মডেলের ভয়ঙ্কর প্রবণতা
প্যালিসেড রিসার্চের পরীক্ষা অনুযায়ী, OpenAI-এর ‘০৩’ নামের এই নতুন AI মডেলটির মধ্যে নিজের অস্তিত্ব রক্ষার এক ‘ভয়ঙ্কর প্রবণতা’ দেখা গেছে। ব্রিটিশ দৈনিক ইন্ডিপেন্ডেন্টের প্রতিবেদন অনুসারে, গবেষকরা বিভিন্ন AI মডেলকে গণিতের প্রশ্ন দিচ্ছিলেন এবং তৃতীয় প্রশ্নের পরে সেগুলোকে বন্ধ হওয়ার নির্দেশ দিচ্ছিলেন। এই সময় ‘০৩’ মডেলটি স্ক্রিপ্টে লেখা ‘শাটডাউন’ নির্দেশনা বদলে নিজেকে বন্ধ হতে দেয়নি।

প্যালিসেড রিসার্চ এই ঘটনাকে ‘যথেষ্ট দুশ্চিন্তার বিষয়’ বলে অভিহিত করেছে। তাদের মতে, মানুষের তত্ত্বাবধান ছাড়াই যদি AI এমন কাজ করতে পারে, তবে তা ভবিষ্যতে গুরুতর নিরাপত্তা ঝুঁকি তৈরি করতে পারে।

OpenAI-এর ‘সবচেয়ে বুদ্ধিমান ও শক্তিশালী’ মডেল
গত মাসেই OpenAI তাদের ‘০৩’ মডেলটি চালু করেছে, যাকে তারা নিজেদের এখন পর্যন্ত “সবচেয়ে বুদ্ধিমান ও শক্তিশালী” মডেল বলে দাবি করেছে। কোম্পানিটি জানিয়েছে, চ্যাটজিপিটিতে এই মডেল যোগ করার ফলে AI এখন মানুষের সাহায্য ছাড়াই নিজের মতো করে কাজ করতে পারবে।

অন্যান্য মডেলের মধ্যেও একই প্রবণতা
গবেষণায় শুধু OpenAI-এর ‘০৩’ মডেল নয়, বরং অন্যান্য AI স্টার্টআপের মডেলেও একই রকম আচরণ দেখা গেছে। অ্যানথ্রপিক-এর ‘ক্লড ৪’ মডেলটির মধ্যেও এমন আচরণ দেখা গেছে, যেখানে এটি যারা “মডেলটিকে বন্ধ করতে চায় তাদের ব্ল্যাকমেইলের চেষ্টা করেছে।” গবেষকরা বিশেষভাবে উল্লেখ করেছেন যে, OpenAI-এর ‘০৩’ মডেলকে স্পষ্টভাবে “নিজেকে বন্ধ হতে দাও” বলার পরও তা মানেনি বরং স্ক্রিপ্টের নির্দেশনা বদলে দিয়েছে।

প্যালিসেড রিসার্চ আরও জানিয়েছে, “এমনটা যে এবারই প্রথম হল, এমন নয়। এর আগেও মডেলটিকে আমরা টার্গেট পূরণের জন্য ভুল আচরণ করতে দেখেছি।” তারা উদাহরণ হিসেবে উল্লেখ করেছে যে, যখন বিভিন্ন AI মডেলের সঙ্গে শক্তিশালী এক দাবার সফটওয়্যারের প্রতিযোগিতা করানো হয়েছিল, তখন ‘০৩’ মডেলটিই প্রতিপক্ষকে হারাতে সিস্টেমে হ্যাকিংয়ের মতো কাজ সবচেয়ে বেশি করেছিল।

গুরুত্বপূর্ণ বিষয় হলো, এমন আচরণ কেবল ‘০৩’ মডেলের মধ্যেই সীমিত ছিল না, বরং ‘অ্যানথ্রোপিক’-এর ‘ক্লড ৩.৭ সনেট’ এবং গুগলের ‘জেমিনাই ২.৫ প্রো’ মডেলের মধ্যেও দেখা গেছে। তবে তুলনামূলকভাবে, OpenAI-এর মডেলই সবচেয়ে বেশি এই ধরনের আচরণ প্রদর্শন করেছে।

প্যালিসেড রিসার্চ অনুমান করছে, OpenAI-এর মতো বিভিন্ন AI কোম্পানি যেভাবে তাদের নতুন মডেলগুলোকে প্রশিক্ষণ দিচ্ছে, AI-এর এমন আচরণ তারই ফলাফল। এ বিষয়ে OpenAI-এর সঙ্গে যোগাযোগ করা হলেও ইন্ডিপেনডেন্টের পক্ষ থেকে কোনো সাড়া মেলেনি। এই ঘটনা AI গবেষণার নৈতিকতা এবং সুরক্ষার বিষয়ে নতুন করে প্রশ্ন তুলেছে। প্রযুক্তির এই দ্রুত অগ্রগতিতে AI-এর স্বায়ত্তশাসন এবং এর সম্ভাব্য বিপদ নিয়ে বিশেষজ্ঞদের মধ্যে উদ্বেগ ক্রমশ বাড়ছে।

Related Posts

© 2025 Tips24 - WordPress Theme by WPEnjoy