সংক্ষেপে
- একটি অনলাইন প্যানেল AGI নিয়ে ট্রান্সহিউম্যানিস্ট এবং প্রযুক্তিবিদদের মধ্যে গভীর বিভাজন প্রদর্শন করেছে।
- লেখক এলিয়েজার ইউডকোস্কি সতর্ক করেছেন যে বর্তমান "ব্ল্যাক বক্স" AI সিস্টেম বিলুপ্তিকে একটি অনিবার্য ফলাফল করে তোলে।
- ম্যাক্স মোর যুক্তি দিয়েছেন যে AGI বিলম্বিত করা মানবতার বার্ধক্য পরাজিত করার এবং দীর্ঘমেয়াদী বিপর্যয় প্রতিরোধের সেরা সুযোগ হারাতে পারে।
কৃত্রিম বুদ্ধিমত্তার ভবিষ্যত নিয়ে একটি তীব্র বিভাজন এই সপ্তাহে প্রকাশিত হয়েছে যখন চারজন বিশিষ্ট প্রযুক্তিবিদ এবং ট্রান্সহিউম্যানিস্ট বিতর্ক করেছেন যে কৃত্রিম সাধারণ বুদ্ধিমত্তা বা AGI তৈরি করা মানবতাকে রক্ষা করবে নাকি ধ্বংস করবে।
অলাভজনক Humanity+ দ্বারা আয়োজিত প্যানেলে সবচেয়ে সোচ্চার AI "ডুমারস"-এর একজন, এলিয়েজার ইউডকোস্কি, যিনি উন্নত AI উন্নয়ন বন্ধ করার আহ্বান জানিয়েছেন, দার্শনিক এবং ভবিষ্যতবাদী ম্যাক্স মোর, কম্পিউটেশনাল নিউরোসায়েন্টিস্ট অ্যান্ডার্স স্যান্ডবার্গ এবং Humanity+ এর সভাপতি এমেরিটাস নাতাশা ভিটা-মোরকে একত্রিত করেছে।
তাদের আলোচনা মৌলিক মতবিরোধ প্রকাশ করেছে যে AGI মানব বেঁচে থাকার সাথে সামঞ্জস্যপূর্ণ হতে পারে কিনা অথবা এর সৃষ্টি বিলুপ্তিকে অনিবার্য করে তুলবে কিনা।
"ব্ল্যাক বক্স" সমস্যা
ইউডকোস্কি সতর্ক করেছেন যে আধুনিক AI সিস্টেমগুলি মৌলিকভাবে অনিরাপদ কারণ তাদের অভ্যন্তরীণ সিদ্ধান্ত গ্রহণের প্রক্রিয়াগুলি সম্পূর্ণরূপে বোঝা বা নিয়ন্ত্রণ করা যায় না।
"যেকোনো ব্ল্যাক বক্স সম্ভবত বর্তমান প্রযুক্তির অনুরূপ সমস্যা নিয়ে শেষ হবে," ইউডকোস্কি সতর্ক করেছেন। তিনি যুক্তি দিয়েছেন যে উন্নত AI নিরাপদভাবে উন্নত করার আগে মানবতাকে "বর্তমান প্যারাডাইম থেকে অনেক, অনেক দূরে" যেতে হবে।
কৃত্রিম সাধারণ বুদ্ধিমত্তা এমন একটি AI ফর্মকে বোঝায় যা বিস্তৃত কাজের মধ্যে যুক্তি এবং শিখতে পারে, পাঠ্য, চিত্র বা ভিডিও উৎপাদনের মতো একটি একক কাজের জন্য তৈরি না হয়ে। AGI প্রায়শই প্রযুক্তিগত সিঙ্গুলারিটির ধারণার সাথে যুক্ত, কারণ সেই স্তরের বুদ্ধিমত্তায় পৌঁছানো মেশিনগুলিকে মানুষের তুলনায় দ্রুত নিজেদের উন্নত করতে সক্ষম করতে পারে।
ইউডকোস্কি দার্শনিক নিক বস্ট্রম দ্বারা জনপ্রিয় "পেপারক্লিপ ম্যাক্সিমাইজার" উপমা দিয়ে ঝুঁকি চিত্রিত করেছেন। চিন্তা পরীক্ষাটিতে একটি কাল্পনিক AI রয়েছে যা সমস্ত উপলব্ধ পদার্থকে পেপারক্লিপে রূপান্তরিত করে, মানবজাতির ব্যয়ে একটি একক উদ্দেশ্যে তার মনোযোগ বৃদ্ধি করে। আরও উদ্দেশ্য যোগ করা, ইউডকোস্কি বলেছেন, অর্থপূর্ণভাবে নিরাপত্তা উন্নত করবে না।
AI সম্পর্কে তার সাম্প্রতিক বইয়ের শিরোনাম "If Anyone Builds It, Everyone Dies" উল্লেখ করে তিনি বলেছেন, "আমাদের শিরোনাম এমন নয় যে এটি সম্ভবত আপনাকে হত্যা করতে পারে," ইউডকোস্কি বলেছেন। "আমাদের শিরোনাম হল, যদি কেউ এটি তৈরি করে, সবাই মারা যায়।"
কিন্তু মোর চরম সতর্কতা নিরাপদতম ফলাফল দেয় এই প্রাঙ্গণকে চ্যালেঞ্জ করেছেন। তিনি যুক্তি দিয়েছেন যে AGI মানবতার বার্ধক্য এবং রোগ অতিক্রম করার সেরা সুযোগ প্রদান করতে পারে।
"আমার কাছে সবচেয়ে গুরুত্বপূর্ণ হল, AGI আমাদের বার্ধক্যের কারণে জীবিত প্রতিটি ব্যক্তির বিলুপ্তি প্রতিরোধ করতে সাহায্য করতে পারে," মোর বলেছেন। "আমরা সবাই মারা যাচ্ছি। আমরা একের পর এক বিপর্যয়ের দিকে এগিয়ে যাচ্ছি।" তিনি সতর্ক করেছেন যে অতিরিক্ত সংযম সরকারগুলিকে বিশ্বব্যাপী AI উন্নয়ন বন্ধ করার একমাত্র উপায় হিসাবে কর্তৃত্ববাদী নিয়ন্ত্রণের দিকে ঠেলে দিতে পারে।
স্যান্ডবার্গ নিজেকে দুই শিবিরের মাঝখানে অবস্থান করেছেন, নিজেকে "আরও আশাবাদী" হিসাবে বর্ণনা করেছেন যদিও ট্রান্সহিউম্যানিস্ট আশাবাদীদের চেয়ে বেশি সতর্ক রয়েছেন। তিনি একটি ব্যক্তিগত অভিজ্ঞতা বর্ণনা করেছেন যেখানে তিনি প্রায় একটি জৈব অস্ত্র ডিজাইন করতে সহায়তা করার জন্য একটি বড় ভাষা মডেল ব্যবহার করেছিলেন, একটি ঘটনা যা তিনি "ভয়ঙ্কর" হিসাবে বর্ণনা করেছেন।
"আমরা এমন একটি পর্যায়ে পৌঁছে যাচ্ছি যেখানে দূষিত অভিনেতাদের বিবর্ধন করাও একটি বিশাল গোলমাল সৃষ্টি করবে," স্যান্ডবার্গ বলেছেন। তবুও, তিনি যুক্তি দিয়েছেন যে আংশিক বা "আনুমানিক নিরাপত্তা" অর্জনযোগ্য হতে পারে। তিনি নিরাপত্তা অর্থপূর্ণ হতে নিখুঁত হতে হবে এই ধারণা প্রত্যাখ্যান করেছেন, পরামর্শ দিয়েছেন যে মানুষেরা অন্তত বেঁচে থাকার মতো ন্যূনতম ভাগ করা মানগুলিতে একত্রিত হতে পারে।
"সুতরাং আপনি যদি নিখুঁত নিরাপত্তা দাবি করেন, আপনি এটি পাবেন না। এবং এটি সেই দৃষ্টিকোণ থেকে খুব খারাপ শোনাচ্ছে," তিনি বলেছেন। "অন্যদিকে, আমি মনে করি আমরা আসলে আনুমানিক নিরাপত্তা পেতে পারি। এটি যথেষ্ট ভাল।"
সামঞ্জস্যের সংশয়
ভিটা-মোর বৃহত্তর সামঞ্জস্য বিতর্ককে সমালোচনা করেছেন, যুক্তি দিয়ে যে ধারণাটি এমন একটি ঐকমত্যের স্তর ধরে নেয় যা এমনকি দীর্ঘদিনের সহযোগীদের মধ্যেও বিদ্যমান নেই।
"সামঞ্জস্যের ধারণা একটি পলিয়ানা স্কিম," তিনি বলেছেন। "এটি কখনই সামঞ্জস্যপূর্ণ হবে না। মানে, এমনকি এখানে, আমরা সবাই ভাল মানুষ। আমরা দশকের জন্য একে অপরকে চিনি, এবং আমরা সামঞ্জস্যপূর্ণ নই।"
তিনি ইউডকোস্কির দাবিকে বর্ণনা করেছেন যে AGI অনিবার্যভাবে সবাইকে হত্যা করবে "নিরঙ্কুশ চিন্তাভাবনা" হিসাবে যা অন্যান্য ফলাফলের জন্য কোনও জায়গা রাখে না।
"সবাই মারা যায় এই ব্যাপক বিবৃতি নিয়ে আমার সমস্যা আছে," তিনি বলেছেন। "একজন ভবিষ্যতবাদী এবং একজন বাস্তববাদী চিন্তাবিদ হিসাবে এটির কাছে যাওয়া, এটি কোন পরিণতি, কোন বিকল্প, কোন অন্য পরিস্থিতি রাখে না। এটি কেবল একটি ভোঁতা দাবি, এবং আমি ভাবছি যে এটি এক ধরনের নিরঙ্কুশ চিন্তাভাবনা প্রতিফলিত করে কিনা।"
আলোচনায় মানুষ এবং মেশিনের মধ্যে ঘনিষ্ঠ একীকরণ AGI দ্বারা সৃষ্ট ঝুঁকি প্রশমিত করতে পারে কিনা তা নিয়ে একটি বিতর্ক অন্তর্ভুক্ত ছিল—যা Tesla CEO ইলন মাস্ক অতীতে প্রস্তাব করেছেন। ইউডকোস্কি AI এর সাথে একীভূত হওয়ার ধারণা প্রত্যাখ্যান করেছেন, এটিকে "আপনার টোস্টার ওভেনের সাথে একীভূত হওয়ার চেষ্টা" এর সাথে তুলনা করেছেন।
স্যান্ডবার্গ এবং ভিটা-মোর যুক্তি দিয়েছেন যে, AI সিস্টেম আরও সক্ষম হওয়ার সাথে সাথে, মানুষদের AGI-পরবর্তী বিশ্বের সাথে আরও ভালভাবে মোকাবেলা করার জন্য তাদের সাথে একীভূত বা আরও ঘনিষ্ঠভাবে মিশতে হবে।
"এই সম্পূর্ণ আলোচনা মানুষ হিসাবে আমরা কে তার একটি বাস্তবতা পরীক্ষা," ভিটা-মোর বলেছেন।
ডেইলি ডিব্রিফ নিউজলেটার
প্রতিদিন শীর্ষ সংবাদ গল্প এখনই শুরু করুন, সাথে মূল বৈশিষ্ট্য, একটি পডকাস্ট, ভিডিও এবং আরও অনেক কিছু।
উৎস: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

