ইউভাল হারারিরকৃত্রিম বুদ্ধিমত্তা AI (এআই) প্রযুক্তি বিপর্যয়কর আর্থিক সংকট সৃষ্টি করতে পারে বলে সতর্ক করেছেন ইতিহাসবিদ ইউভাল নোয়া হারারি।
স্যাপিয়েন্স নামে সুপরিচিত বইয়ের লেখক হারারি গার্ডিয়ানের এক প্রতিবেদনে এআই-সৃষ্ট সম্ভাব্য সমস্যা নিয়ে উদ্বেগ প্রকাশ করেন। তাঁর মতে, এআই-সৃষ্ট বিপদের ধরন নিয়ে পূর্বাভাস দেওয়া কঠিন।
পারমাণু অস্ত্রের উদাহরণ দিয়ে হারারি বলেন:
পরমাণু অস্ত্রের ক্ষেত্রে শুধু একটি বিপদের আশঙ্কা করা যায়। কিন্তু এআইয়ের ক্ষেত্রে ব্যাপকসংখ্যক বিপদের আশঙ্কা থাকে। কোন কোন ক্ষেত্রে এআই বিপদ তৈরি করবে, তা আগে থেকে অনুমান করা সম্ভব নয়। এই ধরনের বিপদ মানবসভ্যতাকে হুমকিতে ফেলতে পারে।
মানব ইতিহাসে পূর্ববর্তী প্রযুক্তির থেকে আলাদা এ.আই। কারণ, এটিই প্রথম প্রযুক্তি, যা নিজেই সিদ্ধান্ত নিতে পারে, নতুন ধারণা তৈরি করে এবং নিজের বিকাশও করতে পারে। তাই নানা বিশ্লেষক, এমনকি এই প্রযুক্তি উদ্ভাবকদের জন্যও এআইভিত্তিক সম্ভাব্য বিপদ ও সমস্যার পূর্বাভাস দেওয়া অত্যন্ত কঠিন।
হারারির মতে, আর্থিক সেক্টর কৃত্রিম বুদ্ধিমত্তার মডেলগুলোর জন্য আদর্শ ক্ষেত্র। কারণ, এ ক্ষেত্রে শুধু ডেটা নিয়ে কাজ করতে হয়। তবে এআইকে এই সেক্টরে আরও ক্ষমতা দেওয়া হলে বিপদের শঙ্কা বাড়বে। এআই এমন আর্থিক ডিভাইস তৈরি করতে পারে, যা মানুষের বোঝার ক্ষমতার বাইরে। যেমন ২০০৭ থেকে ২০০৮ সালের আর্থিক সংকট কীভাবে তৈরি হয়? তা খুব কম লোকই বুঝতে পেরেছিল।
আর্থিক ব্যবস্থা নিয়ন্ত্রণ ও কারসাজির বিষয়ে গত মাসে এআই মডেল নিয়ে উদ্বেগ প্রকাশ করে যুক্তরাজ্য সরকার। তবে হারারি বলেছেন, এআই সৃষ্ট আর্থিক সংকট ‘অন্তত সরাসরি’ মানবসভ্যতাকে ধ্বংস করবে না। এটি পরোক্ষভাবে নির্দিষ্ট ধরনের যুদ্ধ বা সংঘাতের সূত্রপাত করতে পারে। অর্থনৈতিক, সামাজিক, রাজনৈতিক বিপর্যয়কর ঝুঁকি তৈরি করতে পারে এই প্রযুক্তি।
আরো পড়ুন: কবে আসছে নতুন আইফোন? অফিসিয়াল তথ্য
এআই প্রযুক্তি জৈব অস্ত্র তৈরিতেও সহায়তা করতে পারে। এই ধরনের বিভিন্ন বিপজ্জনক সমস্যা তৈরিতে সাহায্য করতে পারে AI (এ.আই)।
স্যাপিয়েন্সের লেখক সব সময় এই প্রযুক্তির বিকাশ নিয়ে উদ্বেগ প্রকাশ করেছেন। হারারি বলেন, এআই মডেলের পরীক্ষা-নিরীক্ষার মাধ্যমে এই প্রযুক্তিসৃষ্ট সমস্যার পূর্বাভাস পাওয়া যাবে।
গত সপ্তাহে ব্লেচলি পার্কে অনুষ্ঠিত এআই সুরক্ষা সম্মেলনের বহুপক্ষীয় ঘোষণাকে ‘অত্যন্ত গুরুত্বপূর্ণ পদক্ষেপ’ বলে তিনি মনে করেন। শীর্ষ দেশগুলো এই প্রযুক্তি নিয়ে উদ্বেগ প্রকাশ করেছে এবং এই বিষয়ে পদক্ষেপ গ্রহণের জন্য একমত পোষণ করেছে।
চীন ছাড়া যুক্তরাজ্য, যুক্তরাষ্ট্রসহ ১০টি সরকারের মধ্যে এই সম্মেলনে চুক্তি স্বাক্ষর হয়। এ ঘটনাকে ইতিবাচক পদক্ষেপ হিসেবে মনে করেন হারারি। বৈশ্বিক সহযোগিতা ছাড়া এআই প্রযুক্তিকে নিয়ন্ত্রণ করা অত্যন্ত কঠিন হবে। এআই মডেলের নিরাপত্তায় বিভিন্ন পরীক্ষা-নিরীক্ষা করার জন্য সমর্থন দেবে ওপেনএআই, গুগলসহ বিভিন্ন এআইভিত্তিক কোম্পানি।
উন্নত এ.আই বিকাশে ছয় মাসের বিরতির আহ্বান জানান ইসরায়েলি এই লেখক। বিভিন্ন ক্ষতির জন্য কৃত্রিম বুদ্ধিমত্তাভিত্তিক কোম্পানিগুলোকে দায়ী করেন হারারি। তিনি বলেন, শুধু আইন বা নিয়ম তৈরির ওপর জোর না দিয়ে এ ধরনের কোম্পানি নিয়ে নিয়ন্ত্রকদের যথেষ্ট জ্ঞান অর্জন করা উচিত। এর ফলে নতুন কোনো বিপদ আসার সঙ্গে সঙ্গে দ্রুত ব্যবস্থা নেওয়া যাবে।
তিনি আরও বলেন, ‘যত দ্রুত সম্ভব শক্তিশালী নিয়ন্ত্রক প্রতিষ্ঠান তৈরি করতে হবে, যেগুলো আসন্ন বিপদ চিহ্নিত করতে ও প্রতিক্রিয়া জানাতে পারবে। কারণ, তাদের এই বোঝার ওপর ভিত্তি করে বিপদ ও সমস্যা সম্পর্কে ভবিষ্যদ্বাণী করা যাবে এবং আগে থেকে আইন প্রণয়ন করা যাবে।’
হারারি বলেন,
সতর্কতামূলক ব্যবস্থার অংশ হিসেবে এআই সুরক্ষা প্রতিষ্ঠানগুলোতে এমন বিশেষজ্ঞ নিয়োগ করা উচিত, যাঁরা আর্থিক খাতে এআইয়ের সম্ভাব্য প্রভাব বোঝেন।
গত মাসে ‘ইউকে এআই সেফটি ইনস্টিটিউট’ প্রতিষ্ঠার ঘোষণা দেন ঋষি সুনাক। এরপর অনুরূপ একটি সংস্থা প্রতিষ্ঠার পরিকল্পনা ঘোষণা করে হোয়াইট হাউস। এই দুটি সংস্থা উন্নত এআই মডেলের পরীক্ষা-নিরীক্ষায় মূল ভূমিকা পালন করবে বলে আশা করা হচ্ছে।
সুনাক বলেছেন, এই ধরনের বিপদ মোকাবিলা করার জন্য আইন প্রবর্তনের আগে যুক্তরাজ্যকে উন্নত মডেলগুলোর ক্ষমতা বুঝতে হবে।