এআই ২০৩০-এর মধ্যে মানব সভ্যতার জন্য হুমকি? ইলন মাস্কের চাঞ্চল্যকর দাবি
প্রযুক্তির দ্রুত অগ্রগতির ফলে কৃত্রিম বুদ্ধিমত্তা (এআই) বিশ্বজুড়ে আলোচনার কেন্দ্রবিন্দুতে পরিণত হয়েছে। টেসলা ও স্পেসএক্সের প্রতিষ্ঠাতা ইলন মাস্ক বারবার এআই-এর সম্ভাব্য বিপদ সম্পর্কে সতর্ক করে আসছেন।
তার সাম্প্রতিক মন্তব্য অনুযায়ী, ২০৩০ দশকের মধ্যে কৃত্রিম বুদ্ধিমত্তা এতটাই শক্তিশালী হয়ে উঠতে পারে যে, এটি মানবসভ্যতার অস্তিত্বের জন্য হুমকি হয়ে দাঁড়াবে।
ইলন মাস্কের সতর্কবার্তা
ইলন মাস্ক দীর্ঘদিন ধরে এআই-এর ঝুঁকি সম্পর্কে কথা বলে আসছেন। তিনি বিশ্বাস করেন, যদি এআই-এর নিয়ন্ত্রণ সঠিকভাবে না করা হয়, তবে এটি মানুষের জন্য মারাত্মক ক্ষতির কারণ হতে পারে।
তার মতে, সুপার ইন্টেলিজেন্ট এআই-এর বিকাশ মানুষের হাতে থাকলেও, একসময় এটি স্বয়ংক্রিয়ভাবে সিদ্ধান্ত নেওয়া শুরু করতে পারে, যা মানবসভ্যতার উপর নেতিবাচক প্রভাব ফেলতে পারে।
মাস্ক ২০২৩ সালে একটি সাক্ষাৎকারে বলেছিলেন, "আমরা এমন এক ভবিষ্যতের দিকে এগোচ্ছি যেখানে এআই মানুষের চেয়ে বেশি বুদ্ধিমান হয়ে উঠবে।
এটি যদি ভুল হাতে পড়ে বা ভুলভাবে প্রোগ্রাম করা হয়, তবে এটি মানবতার জন্য বিপর্যয় ডেকে আনতে পারে।" তিনি একাধিকবার এআই-এর উপর কঠোর নিয়ন্ত্রণ ও নীতিমালা তৈরির আহ্বান জানিয়েছেন।
এআই-এর সম্ভাব্য ঝুঁকি
এআই-এর সম্ভাব্য ঝুঁকিগুলোর মধ্যে অন্যতম হলো:
১. নিয়ন্ত্রণের বাইরে চলে যাওয়া - সুপার ইন্টেলিজেন্ট এআই যদি স্বয়ংক্রিয়ভাবে সিদ্ধান্ত নেয়, তবে এটি মানুষের নিয়ন্ত্রণের বাইরে চলে যেতে পারে।
২. নকল তথ্য ছড়িয়ে দেওয়া - এআই ব্যবহার করে ভুয়া তথ্য তৈরি করে বিশ্বব্যাপী বিশৃঙ্খলা সৃষ্টি করা সম্ভব।
৩. চাকরি সংকট - এআই যদি অধিকাংশ কাজ করে, তাহলে মানুষের জন্য চাকরির সংকট দেখা দিতে পারে।
৪. সাইবার নিরাপত্তা ঝুঁকি - শক্তিশালী এআই হ্যাকিং ও সাইবার আক্রমণ চালানোর জন্য ব্যবহার করা যেতে পারে।
সমাধানের পথ
ইলন মাস্ক এবং অন্যান্য প্রযুক্তিবিদরা মনে করেন, এআই-এর বিকাশের ক্ষেত্রে নীতিমালা থাকা জরুরি।
১. বৈশ্বিক নিয়ম ও নিয়ন্ত্রণ - এআই-এর বিকাশের জন্য আন্তর্জাতিক নীতিমালা থাকা দরকার, যাতে এটি অপব্যবহার রোধ করা যায়।
২. মানবিক মূল্যবোধ বজায় রাখা - এআই উন্নয়নের ক্ষেত্রে মানবিক মূল্যবোধ এবং নৈতিকতা বজায় রাখা উচিত।
৩. সতর্ক গবেষণা ও উন্নয়ন - বিজ্ঞানীদের আরও সতর্কতার সাথে এআই গবেষণা করা উচিত, যাতে এটি মানবসভ্যতার জন্য হুমকি না হয়।