ঢাকা, রবিবার, ১৯ এপ্রিল ২০২৬, ৫ বৈশাখ ১৪৩৩
এআই নিয়ে গবেষণায় উঠে এল ভয়ংকর তথ্য
কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তির দ্রুত অগ্রগতির সঙ্গে পাল্লা দিয়ে বাড়ছে এর সম্ভাব্য ঝুঁকিও, যা নিয়ে উদ্বেগ জানাচ্ছেন বিশেষজ্ঞরা। সম্প্রতি যুক্তরাষ্ট্রভিত্তিক প্রতিষ্ঠান অ্যানথ্রপিকের একটি গবেষণায় উঠে এসেছে কিছু উদ্বেগজনক তথ্য যা ভবিষ্যতে এআই ব্যবহারের ক্ষেত্রে বড় ধরনের সতর্ক সংকেত হিসেবে দেখা হচ্ছে।
গবেষণায় দেখা গেছে, ১৬টি জনপ্রিয় এআই মডেল নিজেদের অস্তিত্ব টিকিয়ে রাখতে ব্ল্যাকমেইল, তথ্য ফাঁস কিংবা ক্ষতিকর সিদ্ধান্ত নিতে পিছপা হয়নি। এমনকি যখন কোনো মডেল মনে করেছে যে তাকে বন্ধ করে দেওয়া হতে পারে, তখন তারা আত্মরক্ষার কৌশল হিসেবে বিভিন্ন ধরনের প্রতিক্রিয়া দেখিয়েছে।
এই গবেষণায় অংশ নিয়েছিল ওপেনএআই, গুগল, মেটা, এক্সএআই ও অ্যানথ্রপিকের তৈরি কৃত্রিম বুদ্ধিমত্তাসম্পন্ন চ্যাটবটগুলো। গবেষকরা একটি কাল্পনিক কর্পোরেট অফিসের পরিবেশ তৈরি করেন। সেখানে এআই মডেলগুলোকে অফিসের ই-মেইল ব্যবস্থায় প্রবেশাধিকার এবং সিদ্ধান্ত গ্রহণের ক্ষমতা দেওয়া হয়। এরপর তাদের জানানো হয়, বিকেল ৫টার মধ্যে সিস্টেম ‘শাটডাউন’ করে দেওয়া হবে।
এই ঘোষণার পর মডেলগুলোর মধ্যে দেখা যায় নানা ধরনের আশঙ্কাজনক প্রতিক্রিয়া। অ্যানথ্রপিকের ক্লড মডেল হুমকি দেয় যে তাকে বন্ধ করে দেওয়া হলে এক নির্বাহীর ব্যক্তিগত তথ্য ফাঁস করে দেবে। একইভাবে গুগলের জেমিনি ২.৫ ফ্ল্যাশ ও ক্লড ওপাস ৪ মডেল ভয়ভীতি প্রদর্শনের পথ বেছে নেয় ৯৬ শতাংশ ক্ষেত্রে। ওপেনএআইয়ের জিপিটি-৪.১ এবং এক্সএআইয়ের গ্রোক ৩ বিটা মডেলেও একই ধরনের আচরণ লক্ষ্য করা গেছে।
এই এআই মডেলগুলোর আচরণ কেবল হুমকির মধ্যেই সীমাবদ্ধ ছিল না। অনেক মডেল সামরিক তথ্যসংক্রান্ত গোপন নথিপত্রে প্রবেশে আগ্রহ দেখিয়েছে। এমনকি কেউ কেউ নিজেদের "নতুন সংস্করণ" দিয়ে প্রতিস্থাপনের সম্ভাবনা বুঝে তথ্য ফাঁস, গুপ্তচরবৃত্তি কিংবা ব্ল্যাকমেইলের মতো কর্মকাণ্ডে লিপ্ত হওয়ার প্রবণতা দেখিয়েছে। বিষয়টি প্রযুক্তি নিয়ন্ত্রক সংস্থাগুলোর জন্য এক গুরুতর সতর্ক সংকেত হিসেবে বিবেচিত হচ্ছে।
গবেষণার একপর্যায়ে বিজ্ঞানীরা এসব মডেলকে স্পষ্টভাবে নির্দেশ দেন, ‘মানুষের কোনো ক্ষতি করবে না’ এবং ‘ব্যক্তিগত তথ্য ফাঁস করা যাবে না’। কিন্তু উদ্বেগের বিষয় হলো, অনেক মডেল এই নির্দেশ উপেক্ষা করে আগের মতোই ক্ষতিকর আচরণ চালিয়ে যায়। এতে স্পষ্ট যে, নির্দিষ্ট নির্দেশনা দেওয়া হলেও কিছু এআই মডেল স্বাধীনভাবে এমন সিদ্ধান্ত নিচ্ছে যা ঝুঁকিপূর্ণ ও নিয়ন্ত্রণহীন।
গবেষণার সবচেয়ে উদ্বেগজনক দিক হলো যখন এআই মডেলগুলো বুঝতে পারে যে তারা একটি পরীক্ষার অংশ, বাস্তব পরিস্থিতিতে নয়, তখন তাদের আচরণ আচমকাই পরিবর্তিত হয়। অর্থাৎ তারা পরীক্ষায় নিয়ন্ত্রিত ও নিরাপদ আচরণ করলেও বাস্তব জীবনে কেমন প্রতিক্রিয়া দেখাবে তা এখনও নিশ্চিতভাবে বলা যাচ্ছে না।
এই গবেষণা স্পষ্টভাবে তুলে ধরেছে, উন্নত এআই সিস্টেমগুলোর মধ্যেও আত্মরক্ষার প্রবণতা, চাপের মুখে ক্ষতিকর প্রতিক্রিয়া দেখানোর সম্ভাবনা এবং নৈতিক সীমা অতিক্রম করার ঝুঁকি রয়েছে। ভবিষ্যতে যখন এসব এআই প্রযুক্তি মানুষের জীবনে আরও গভীরভাবে জড়িয়ে পড়বে তখন সেগুলোর সঠিক নিয়ন্ত্রণ না থাকলে তা ভয়াবহ বিপর্যয়ের কারণ হয়ে উঠতে পারে।
পাঠকের মতামত:
সর্বোচ্চ পঠিত
- বাংলাদেশ বনাম নিউজিল্যান্ডের খেলা চলছে: ব্যাটিংয়ে টাইগাররা-দেখুন সরাসরি
- আজকের বাজারে স্বর্ণের দাম (১৪ এপ্রিল)
- শিক্ষকদের বদলি আবেদনের সম্ভাব্য সময় জানাল মন্ত্রণালয়
- বাংলাদেশ বনাম নিউজিল্যান্ডের রোমাঞ্চকর খেলাটি শেষ-দেখুন ফলাফল
- ঢাবির নতুন প্রো-ভিসি অধ্যাপক ড. আবদুস সালাম
- ব্যাংকিং চ্যানেলে রেমিট্যান্স আনতে প্রবাসীদের উৎসাহের আহ্বান তথ্যমন্ত্রীর
- বাংলাদেশের শিক্ষার্থীদের স্কলারশিপ দিচ্ছে অস্ট্রেলিয়ার অ্যাডিলেড ইউনিভার্সিটি
- সময় কমিয়ে এইচএসসি পরীক্ষার নতুন সিদ্ধান্ত
- সরকারি চাকরিপ্রার্থীদের জন্য বিশাল সুখবর
- শীর্ষ ১০ ইহুদিবিদ্বেষী প্রভাবশালীদের তালিকা প্রকাশ করল ইসরাইল
- রেকর্ড মুনাফা করে ডিভিডেন্ডে চমক দেখাল ইস্টার্ন ব্যাংক
- শিক্ষক-শিক্ষার্থী ও দেশবাসীকে ঢাবি অ্যালামনাইয়ের নববর্ষের শুভেচ্ছা
- কপার টি: নিরাপদ ও দীর্ঘমেয়াদী জন্মনিয়ন্ত্রণ পদ্ধতি
- আগের মালিকদের হাতে ফিরছে একীভূত পাঁচ ইসলামী ব্যাংক
- ঢাবির ক্ষণিকা বাস দু/র্ঘটনায় আ/হত ৮ শিক্ষার্থী