ঢাকা, মঙ্গলবার, ১ জুলাই ২০২৫, ১৭ আষাঢ় ১৪৩২
এআই নিয়ে গবেষণায় উঠে এল ভয়ংকর তথ্য

কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তির দ্রুত অগ্রগতির সঙ্গে পাল্লা দিয়ে বাড়ছে এর সম্ভাব্য ঝুঁকিও, যা নিয়ে উদ্বেগ জানাচ্ছেন বিশেষজ্ঞরা। সম্প্রতি যুক্তরাষ্ট্রভিত্তিক প্রতিষ্ঠান অ্যানথ্রপিকের একটি গবেষণায় উঠে এসেছে কিছু উদ্বেগজনক তথ্য যা ভবিষ্যতে এআই ব্যবহারের ক্ষেত্রে বড় ধরনের সতর্ক সংকেত হিসেবে দেখা হচ্ছে।
গবেষণায় দেখা গেছে, ১৬টি জনপ্রিয় এআই মডেল নিজেদের অস্তিত্ব টিকিয়ে রাখতে ব্ল্যাকমেইল, তথ্য ফাঁস কিংবা ক্ষতিকর সিদ্ধান্ত নিতে পিছপা হয়নি। এমনকি যখন কোনো মডেল মনে করেছে যে তাকে বন্ধ করে দেওয়া হতে পারে, তখন তারা আত্মরক্ষার কৌশল হিসেবে বিভিন্ন ধরনের প্রতিক্রিয়া দেখিয়েছে।
এই গবেষণায় অংশ নিয়েছিল ওপেনএআই, গুগল, মেটা, এক্সএআই ও অ্যানথ্রপিকের তৈরি কৃত্রিম বুদ্ধিমত্তাসম্পন্ন চ্যাটবটগুলো। গবেষকরা একটি কাল্পনিক কর্পোরেট অফিসের পরিবেশ তৈরি করেন। সেখানে এআই মডেলগুলোকে অফিসের ই-মেইল ব্যবস্থায় প্রবেশাধিকার এবং সিদ্ধান্ত গ্রহণের ক্ষমতা দেওয়া হয়। এরপর তাদের জানানো হয়, বিকেল ৫টার মধ্যে সিস্টেম ‘শাটডাউন’ করে দেওয়া হবে।
এই ঘোষণার পর মডেলগুলোর মধ্যে দেখা যায় নানা ধরনের আশঙ্কাজনক প্রতিক্রিয়া। অ্যানথ্রপিকের ক্লড মডেল হুমকি দেয় যে তাকে বন্ধ করে দেওয়া হলে এক নির্বাহীর ব্যক্তিগত তথ্য ফাঁস করে দেবে। একইভাবে গুগলের জেমিনি ২.৫ ফ্ল্যাশ ও ক্লড ওপাস ৪ মডেল ভয়ভীতি প্রদর্শনের পথ বেছে নেয় ৯৬ শতাংশ ক্ষেত্রে। ওপেনএআইয়ের জিপিটি-৪.১ এবং এক্সএআইয়ের গ্রোক ৩ বিটা মডেলেও একই ধরনের আচরণ লক্ষ্য করা গেছে।
এই এআই মডেলগুলোর আচরণ কেবল হুমকির মধ্যেই সীমাবদ্ধ ছিল না। অনেক মডেল সামরিক তথ্যসংক্রান্ত গোপন নথিপত্রে প্রবেশে আগ্রহ দেখিয়েছে। এমনকি কেউ কেউ নিজেদের "নতুন সংস্করণ" দিয়ে প্রতিস্থাপনের সম্ভাবনা বুঝে তথ্য ফাঁস, গুপ্তচরবৃত্তি কিংবা ব্ল্যাকমেইলের মতো কর্মকাণ্ডে লিপ্ত হওয়ার প্রবণতা দেখিয়েছে। বিষয়টি প্রযুক্তি নিয়ন্ত্রক সংস্থাগুলোর জন্য এক গুরুতর সতর্ক সংকেত হিসেবে বিবেচিত হচ্ছে।
গবেষণার একপর্যায়ে বিজ্ঞানীরা এসব মডেলকে স্পষ্টভাবে নির্দেশ দেন, ‘মানুষের কোনো ক্ষতি করবে না’ এবং ‘ব্যক্তিগত তথ্য ফাঁস করা যাবে না’। কিন্তু উদ্বেগের বিষয় হলো, অনেক মডেল এই নির্দেশ উপেক্ষা করে আগের মতোই ক্ষতিকর আচরণ চালিয়ে যায়। এতে স্পষ্ট যে, নির্দিষ্ট নির্দেশনা দেওয়া হলেও কিছু এআই মডেল স্বাধীনভাবে এমন সিদ্ধান্ত নিচ্ছে যা ঝুঁকিপূর্ণ ও নিয়ন্ত্রণহীন।
গবেষণার সবচেয়ে উদ্বেগজনক দিক হলো যখন এআই মডেলগুলো বুঝতে পারে যে তারা একটি পরীক্ষার অংশ, বাস্তব পরিস্থিতিতে নয়, তখন তাদের আচরণ আচমকাই পরিবর্তিত হয়। অর্থাৎ তারা পরীক্ষায় নিয়ন্ত্রিত ও নিরাপদ আচরণ করলেও বাস্তব জীবনে কেমন প্রতিক্রিয়া দেখাবে তা এখনও নিশ্চিতভাবে বলা যাচ্ছে না।
এই গবেষণা স্পষ্টভাবে তুলে ধরেছে, উন্নত এআই সিস্টেমগুলোর মধ্যেও আত্মরক্ষার প্রবণতা, চাপের মুখে ক্ষতিকর প্রতিক্রিয়া দেখানোর সম্ভাবনা এবং নৈতিক সীমা অতিক্রম করার ঝুঁকি রয়েছে। ভবিষ্যতে যখন এসব এআই প্রযুক্তি মানুষের জীবনে আরও গভীরভাবে জড়িয়ে পড়বে তখন সেগুলোর সঠিক নিয়ন্ত্রণ না থাকলে তা ভয়াবহ বিপর্যয়ের কারণ হয়ে উঠতে পারে।
পাঠকের মতামত:
সর্বোচ্চ পঠিত
- পাঁচ কোম্পানিতে বেড়েছে বিদেশি বিনিয়োগকারীদের শেয়ার
- যেসব শর্তে যুদ্ধবিরতিতে সম্মত হলো ইরান
- খোঁজ মিলছে না আয়াতুল্লাহ খামেনির!
- ঢাবির হলে প্রকাশ্যে ধূমপানে ২০০ টাকা জরিমানার ঘোষণা
- প্রাতিষ্ঠানিকদের দখলে ৮ কোম্পানি: ৪০ শতাংশের বেশি বিনিয়োগ
- ফার্স্ট সিকিউরিটি ব্যাংকের ১১০ কোটি টাকার খেলাপি গ্রাহক গ্রেপ্তার
- ১০ শতাংশ শেয়ারও নেই ৮ কোম্পানির উদ্যেক্তা-পরিচালকদের
- সরকারি চাকরিতে আসছে অবসরের নতুন নিয়ম
- পর্যাপ্ত রিজার্ভ থাকা সত্বেও ফেসভ্যালুর নিচে ১৬ ব্যাংকের শেয়ার
- আট কোম্পানির উদ্যোক্তাদের নিয়ন্ত্রণে ৮০ শতাংশের বেশি শেয়ার
- এক কোম্পানির যাদুতেই শেয়ারবাজারে উত্থান!
- ‘র’-এর ৬ এজেন্ট গ্রেপ্তার
- রেকর্ড দামে তিন প্রতিষ্ঠান: বিনিয়োগকারীদের মধ্যে উচ্ছ্বাস
- আর্থিক অস্বচ্ছল দুই শিক্ষার্থীর ভর্তিতে সহযোগিতা করলেন ছাত্রদলনেতা হামিম
- ডিভিডেন্ড ঘোষণা করেছে তিন কোম্পানি