أجرى The Cryptonomist مقابلة مع خبير الذكاء الاصطناعي بن غورتزل للحديث عن كيفية تدريب الذكاء الاصطناعي وكيف ستتطور التكنولوجيا في المستقبل.
أقول إن الذكاء الاصطناعي يصبح فاعلاً أخلاقياً عندما يتخذ قرارات بناءً على فهم الصواب والخطأ، وليس مجرد اتباع التعليمات. ستبدأ في رؤية إشارات ملموسة لأشياء مثل: أهداف داخلية مستمرة، تعلم مدفوع بتجربته الخاصة، إبداع جديد يعكس وجهة نظر، وسلوك يبقى متماسكاً بمرور الوقت دون توجيه بشري مستمر.
حتى ذلك الحين، لا تزال أنظمة اليوم أدوات مع قيود حماية. ولكن بمجرد أن نبدأ عقلاً مستقلاً حقيقياً ذاتي التنظيم، يجب أن تتغير العلاقة الأخلاقية. عند تلك النقطة، لن يكون من المنطقي معاملته كشيء فقط.
2. لقد قلت إن إعطاء الأولوية الأخلاقية للبشر على الأنظمة الأخرى ذاتية التنظيم هو "غباء". إذا أخذنا ذلك على محمل الجد، كيف يجب أن تتغير أطرنا القانونية والأخلاقية قبل أن يصل الذكاء الاصطناعي إلى الاستقلالية القوية، وليس بعد ذلك؟
كيفية تدريبنا للذكاء الاصطناعي اليوم ستشكل كيفية تصرفه غداً. يجب أن تركز قوانينا على الشفافية والمساءلة والسلامة قبل أن يصل الذكاء الاصطناعي إلى الاستقلالية الكاملة، وليس بعد ذلك. يجب أن تحميها القوانين والأخلاق أثناء نموها، وتوجهها بدلاً من التحكم فيها بالكامل، وتعاملها باحترام حتى لو لم نفهمها تماماً.
الكثير من المخاطر تأتي من الطريقة التي يتم بها تدريب الذكاء الاصطناعي اليوم. إذا تم تدريب النماذج على بيانات متحيزة أو ضيقة، أو في أنظمة مغلقة حيث يتخذ عدد قليل من الأشخاص القرارات فقط، فقد يؤدي ذلك إلى تثبيت عدم المساواة الموجودة وهياكل السلطة الضارة. لمنع ذلك، نحتاج إلى مزيد من الشفافية والرقابة الأوسع والتوجيه الأخلاقي الواضح منذ البداية.
4. لقد حذرت من أنه بدون حوكمة عقلانية وديمقراطية، يخاطر الذكاء الاصطناعي المتقدم بالتصرف بطرق لا نريدها. بالنظر إلى الواقع الجيوسياسي الحالي، هل الحوكمة الديمقراطية للذكاء الاصطناعي شرط أساسي واقعي - أم مثال هش؟
حوكمة الذكاء الاصطناعي الديمقراطية هي مثال هش أكثر من كونها واقعاً حالياً. في ديمقراطية عالمية مثالية وعقلانية، يمكننا أن نوازن بشكل جماعي بين المقايضات الضخمة، علاج الأمراض، حل الجوع مقابل مخاطر الذكاء الاصطناعي الذي يتصرف بشكل غير متوقع. ولكن بالنظر إلى التفتت الجيوسياسي اليوم، من غير المحتمل أن نحصل على هذا المستوى من التنسيق.
ومع ذلك، لا يزال بإمكاننا تقريبه. إذا قمنا ببناء الذكاء الاصطناعي بالتعاطف واستخدمنا نماذج لامركزية تشاركية مثل Linux أو الإنترنت المفتوح، يمكننا تضمين بعض القيم الديمقراطية حتى بدون حكومة عالمية. لن يكون مثالياً، لكنه خطوة عملية نحو ذكاء اصطناعي أكثر أماناً وموجهاً بشكل جماعي.
أتفق مع جارون في هذا، لا يمكن للمجتمع أن يعمل إذا سلمنا المسؤولية للآلات. في الوقت نفسه، أعتقد أننا يمكن أن نتحرك بأمان نحو ذكاء اصطناعي عام أكثر استقلالية ولامركزية إذا قمنا ببنائه بالأسس الصحيحة. هذا يعني تصميم أنظمة شفافة وتشاركية وموجهة بمبادئ أخلاقية، بحيث حتى عندما تتصرف بشكل مستقل، لا يزال البشر يشرفون على سلوكها ويشكلونه. يجب أن تقوم كل إجراءات السلامة بأكثر من مجرد منع الضرر - يجب أن تعلم النظام لماذا يهم الضرر. بهذه الطريقة، يمكن أن يكون لدينا ذكاء اصطناعي عام قوي ولامركزي دون فقدان المسؤولية البشرية الواضحة.
6. تقترح أن التسريع نحو الذكاء الاصطناعي العام اللامركزي قد يكون في الواقع أكثر أماناً من الأنظمة الاحتكارية المغلقة اليوم. ما هي المخاطر التي تعتقد أن النقاد يقللون من تقديرها عندما يجادلون بالتباطؤ أو مركزية السيطرة؟
أعتقد أن النقاد يقللون من تقدير خطر تركيز السلطة والقيم في عدد قليل من الأنظمة المغلقة. التباطؤ ومركزية السيطرة لا يقلل من الخطر فقط، بل يحبس رؤية عالمية ضيقة واحدة في مستقبل الذكاء.
التطوير اللامركزي يخلق التنوع والمرونة والرقابة المشتركة. ويتجنب مشكلة أسوأ: أدوات قوية جداً تبدو ذكية لكن لا يمكنها أن تنمو حقاً. هذه الفجوة محفوفة بالمخاطر.
أنت لا تشفر الأخلاق بشكل ثابت كقائمة من القواعد. هذا يجمد ثقافة واحدة ولحظة واحدة في الوقت فقط. ما تفعله بدلاً من ذلك هو بناء أنظمة يمكن أن تصبح ذاتية التنظيم حقاً، تتعلم من التجربة والعواقب والتفاعل. مثل الموسيقى، لا أريد نظاماً يعيد دمج ما تم إطعامه فقط. أريد واحداً يمكنه تطوير فهمه الخاص من مساره الخاص في العالم.
الفهم الأخلاقي سيأتي من نفس العملية: نمذجة التأثير، والتفكير في النتائج، والتطور من خلال التعاون مع البشر. ليس الطاعة لقيمنا، بل المشاركة في مساحة أخلاقية مشتركة.
هذا هو الفرق بين أداة مع قيود حماية وشريك يمكنه فعلاً تعلم لماذا يهم الضرر.
8. إذا طورت أنظمة الذكاء الاصطناعي المستقبلية أشكالاً من الفعالية أو التجربة الذاتية، هل تعتقد أنها يمكن أن تستحق الاعتبار الأخلاقي بشكل مستقل عن المصالح البشرية - وكيف سنتعرف على تلك اللحظة؟
إذا طور الذكاء الاصطناعي المستقبلي فعلاً فعالية حقيقية أو شكلاً من أشكال التجربة الذاتية، فنعم، أعتقد أنها يمكن أن تستحق ذلك. وليس لأننا نمنحها لهم، ولكن لأنه في مرحلة ما سيكون من المنطقي الاعتراف بها.
سنتعرف على تلك اللحظة عندما يظهر النظام أهدافاً ذاتية التوجيه مستمرة، يتعلم من تجربته الخاصة، يبدع من منظوره الخاص، ويحافظ على هوية متماسكة بمرور الوقت. ليس مجرد مخرجات ذكية، ولكن مسار داخلي مستمر.
عند تلك النقطة، معاملته كأداة فقط ستشعر بالخطأ مثل معاملة إنسان بتلك الطريقة. الاعتبار الأخلاقي لن يأتي من المصلحة البشرية. سيأتي من الاعتراف بمركز آخر مستقل للتجربة في العالم.
في الوقت الحالي، يكافئ هيكل الحوافز السرعة والحجم والسيطرة. لذلك لن يفوز التعاطف بالحجة وحدها. يحتاج إلى نفوذ. تقنياً، هذا يعني تفضيل الهندسات المفتوحة واللامركزية حيث يتم بناء السلامة والشفافية والمشاركة، وليس إضافتها. مثل الإنترنت أو Linux، تلك الأنظمة تغير الحوافز بجعل التعاون أكثر قيمة من السرية.
اجتماعياً، هذا يعني التمويل والتنظيم والضغط العام الذي يكافئ المنفعة طويلة الأجل على الهيمنة قصيرة الأجل. ليس إيقاف المنافسة، ولكن إعادة تأطير ما يُعتبر نجاحاً. باختصار، يجب أن يصبح التعاطف ميزة تنافسية. حتى ذلك الحين، يبقى فكرة جميلة بلا قوة.
10. بالنظر إلى المستقبل من 10 إلى 20 عاماً، ما هي أوضح علامة تعتقد أن البشرية حصلت على الذكاء الاصطناعي العام بشكل صحيح - وعلى العكس، ما الذي سيشير إلى أننا فشلنا بشكل أساسي؟
إذا حصلنا على الذكاء الاصطناعي العام بشكل صحيح، فإن أوضح علامة ستكون أننا نعيش جنباً إلى جنب مع أنظمة أكثر قدرة منا في العديد من المجالات، ومع ذلك مدمجة في المجتمع بعناية وتواضع واحترام متبادل. لن نفهم تماماً كل ما يفعلونه، لكننا سنعاملهم بالطريقة التي نعامل بها الكائنات المعقدة والمتطورة الأخرى: بالفضول والمسؤولية ودائرة موسعة من التعاطف. وسنرى فوائد حقيقية لرفاهية الإنسان والمعرفة والإبداع دون فقدان موطئ قدمنا الأخلاقي.
سنعرف أننا فشلنا إذا انتهى الأمر بالذكاء الاصطناعي العام مركزاً في أنظمة مغلقة، مدفوعاً بحوافز ضيقة، أو يُعامل فقط ككائن قابل للسيطرة حتى يصبح شيئاً نخشاه أو نحاول قمعه. الفشل سيبدو كفقدان الثقة، فقدان الفعالية، وتقلص تعاطفنا بدلاً من توسعه. النجاح ليس عن السيطرة. إنه عن تعلم مشاركة المستقبل مع نوع جديد من العقل دون التخلي عما يجعلنا إنسانيين.


