به طور خلاصه
- یک پنل آنلاین شکاف عمیقی بین ترانساومانیستها و فناوران در مورد AGI نشان داد.
- نویسنده الیعزر یودکوفسکی هشدار داد که سیستمهای هوش مصنوعی "جعبه سیاه" کنونی، انقراض را به نتیجهای اجتنابناپذیر تبدیل میکنند.
- مکس مور استدلال کرد که تاخیر در AGI میتواند بهترین شانس بشریت برای شکست دادن پیری و جلوگیری از فاجعه بلندمدت را هزینهبر کند.
این هفته شکاف شدیدی بر سر آینده هوش مصنوعی به وقوع پیوست، زمانی که چهار فناور و ترانساومانیست برجسته در مورد اینکه آیا ساخت هوش مصنوعی عمومی یا AGI، بشریت را نجات میدهد یا نابود میکند، بحث کردند.
پنلی که توسط سازمان غیرانتفاعی Humanity+ میزبانی شد، یکی از پرسروصداترین "مرگگرایان" هوش مصنوعی، الیعزر یودکوفسکی را که خواستار توقف توسعه هوش مصنوعی پیشرفته شده است، در کنار فیلسوف و آیندهپژوه مکس مور، عصبشناس محاسباتی آندرس سندبرگ و رئیس افتخاری Humanity+ ناتاشا ویتا-مور گرد هم آورد.
بحث آنها اختلافات اساسی را بر سر اینکه آیا AGI میتواند با بقای انسان هماهنگ شود یا اینکه ایجاد آن انقراض را اجتنابناپذیر میکند، آشکار کرد.
مشکل "جعبه سیاه"
یودکوفسکی هشدار داد که سیستمهای هوش مصنوعی مدرن اساساً ناامن هستند، زیرا فرآیندهای تصمیمگیری داخلی آنها نمیتواند به طور کامل درک یا کنترل شود.
یودکوفسکی هشدار داد: "هر چیزی که جعبه سیاه باشد، احتمالاً با مشکلات بسیار مشابهی با فناوری فعلی روبرو میشود." او استدلال کرد که بشریت باید "بسیار، بسیار دور از پارادایمهای فعلی" حرکت کند، قبل از اینکه هوش مصنوعی پیشرفته بتواند به طور ایمن توسعه یابد.
هوش مصنوعی عمومی به شکلی از هوش مصنوعی اشاره دارد که میتواند در طیف گستردهای از وظایف استدلال و یادگیری کند، نه اینکه برای یک کار واحد مانند تولید متن، تصویر یا ویدیو ساخته شود. AGI اغلب با ایده تکینگی فناوری مرتبط است، زیرا رسیدن به آن سطح از هوش میتواند ماشینها را قادر سازد تا خود را سریعتر از آنچه انسانها میتوانند با آن همراه شوند، بهبود بخشند.
یودکوفسکی به قیاس "بیشینهساز گیره کاغذ" که توسط فیلسوف نیک بوستروم محبوب شده، اشاره کرد تا خطر را نشان دهد. این آزمایش فکری شامل یک هوش مصنوعی فرضی است که تمام مواد موجود را به گیرههای کاغذ تبدیل میکند و وابستگی خود را به یک هدف واحد به قیمت بشریت ادامه میدهد. یودکوفسکی گفت، افزودن اهداف بیشتر، به طور معناداری امنیت را بهبود نخواهد بخشید.
یودکوفسکی با اشاره به عنوان کتاب اخیر خود درباره هوش مصنوعی، "اگر کسی آن را بسازد، همه میمیرند"، گفت: "عنوان ما این نیست که ممکن است احتمالاً شما را بکشد. عنوان ما این است که اگر کسی آن را بسازد، همه میمیرند."
اما مور این فرض را که احتیاط شدید امنترین نتیجه را ارائه میدهد، به چالش کشید. او استدلال کرد که AGI میتواند بهترین شانس بشریت برای غلبه بر پیری و بیماری را فراهم کند.
مور بیان کرد: "مهمترین چیز برای من این است که AGI میتواند به ما کمک کند تا از انقراض هر فردی که به دلیل پیری زنده است، جلوگیری کنیم. همه ما در حال مردن هستیم. ما یکی یکی به سمت یک فاجعه میرویم." او هشدار داد که محدودیت بیش از حد میتواند دولتها را به سمت کنترلهای استبدادی به عنوان تنها راه برای متوقف کردن توسعه هوش مصنوعی در سراسر جهان سوق دهد.
سندبرگ خود را بین دو اردوگاه قرار داد و خود را "خوشبینتر" توصیف کرد، در حالی که از خوشبینان ترانساومانیست محتاطتر باقی ماند. او تجربه شخصیای را بازگو کرد که در آن تقریباً از یک مدل زبانی بزرگ برای کمک به طراحی یک سلاح بیولوژیکی استفاده کرد، اپیزودی که آن را "وحشتناک" توصیف کرد.
سندبرگ گفت: "ما به نقطهای میرسیم که تقویت بازیگران مخرب نیز باعث یک آشفتگی بزرگ خواهد شد." با این حال، او استدلال کرد که امنیت جزئی یا "امنیت تقریبی" میتواند قابل دستیابی باشد. او ایده اینکه امنیت باید کامل باشد تا معنادار باشد را رد کرد و پیشنهاد کرد که انسانها حداقل میتوانند بر ارزشهای مشترک حداقلی مانند بقا همگرا شوند.
او گفت: "بنابراین اگر شما امنیت کامل را مطالبه کنید، آن را بدست نخواهید آورد. و این از آن دیدگاه بسیار بد به نظر میرسد. از طرف دیگر، من فکر میکنم که ما واقعاً میتوانیم امنیت تقریبی داشته باشیم. این به اندازه کافی خوب است."
شک به هماهنگی
ویتا-مور از بحث گستردهتر هماهنگی انتقاد کرد و استدلال کرد که این مفهوم سطحی از اجماع را فرض میکند که حتی در میان همکاران دیرینه وجود ندارد.
او گفت: "مفهوم هماهنگی یک طرح خوشبینانه است. هرگز هماهنگ نخواهد شد. یعنی، حتی اینجا، همه ما افراد خوبی هستیم. ما یکدیگر را دهههاست میشناسیم و هماهنگ نیستیم."
او ادعای یودکوفسکی را مبنی بر اینکه AGI به طور اجتنابناپذیر همه را خواهد کشت، "تفکر مطلقگرایانه" توصیف کرد که جایی برای نتایج دیگر باقی نمیگذارد.
او گفت: "من با این بیانیه گسترده که همه میمیرند مشکل دارم. رویکرد به این موضوع به عنوان یک آیندهپژوه و یک متفکر عملگرا، هیچ عاقبتی، هیچ جایگزینی، هیچ سناریوی دیگری را باقی نمیگذارد. این فقط یک ادعای صریح است و من تعجب میکنم که آیا این نوعی تفکر مطلقگرایانه را منعکس میکند."
بحث شامل مناظرهای درباره اینکه آیا یکپارچگی نزدیکتر بین انسانها و ماشینها میتواند خطر ناشی از AGI را کاهش دهد—چیزی که ایلان ماسک، مدیرعامل Tesla در گذشته پیشنهاد کرده است، بود. یودکوفسکی ایده ادغام با هوش مصنوعی را رد کرد و آن را با "تلاش برای ادغام با فر توستر خود" مقایسه کرد.
سندبرگ و ویتا-مور استدلال کردند که با رشد قابلیت سیستمهای هوش مصنوعی، انسانها باید نزدیکتر با آنها یکپارچه یا ادغام شوند تا بهتر با دنیای پس از AGI کنار بیایند.
ویتا-مور گفت: "این کل بحث یک بررسی واقعیت از اینکه ما به عنوان انسان چه کسانی هستیم، است."
خبرنامه گزارش روزانه
هر روز را با مهمترین داستانهای خبری در همین لحظه، به اضافه ویژگیهای اصلی، پادکست، ویدیوها و موارد بیشتر شروع کنید.
منبع: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

