W skrócie
- Panel internetowy ujawnił głęboki podział między transhumanistami a technologami w sprawie AGI.
- Autor Eliezer Yudkowsky ostrzegł, że obecne systemy AI typu "czarna skrzynka" sprawiają, że wyginięcie jest nieuniknionym rezultatem.
- Max More argumentował, że opóźnianie AGI może kosztować ludzkość jej najlepszą szansę na pokonanie starzenia i zapobieżenie długoterminowej katastrofie.
Ostry podział w kwestii przyszłości sztucznej inteligencji ujawnił się w tym tygodniu, gdy czterech wybitnych technologów i transhumanistów debatowało, czy budowanie ogólnej sztucznej inteligencji, czyli AGI, ocali ludzkość czy ją zniszczy.
Panel zorganizowany przez organizację non-profit Humanity+ zgromadził jednego z najbardziej głośnych "Proroków Zagłady" AI, Eliezera Yudkowsky'ego, który wzywał do zamknięcia zaawansowanego rozwoju AI, wraz z filozofem i futurystą Maxem More, neuronaukowcem obliczeniowym Andersem Sandbergiem i emerytowaną prezes Humanity+ Natashą Vita-More.
Ich dyskusja ujawniła fundamentalne nieporozumienia dotyczące tego, czy AGI może być zgodne z przetrwaniem ludzkości, czy też jego stworzenie uczyni wyginięcie nieuniknionym.
Problem "czarnej skrzynki"
Yudkowsky ostrzegł, że nowoczesne systemy AI są fundamentalnie niebezpieczne, ponieważ ich wewnętrzne procesy podejmowania decyzji nie mogą być w pełni zrozumiane ani kontrolowane.
"Wszystko, co jest czarną skrzynką, prawdopodobnie skończy z zaskakująco podobnymi problemami do obecnej technologii," ostrzegał Yudkowsky. Argumentował, że ludzkość będzie musiała odejść "bardzo, bardzo daleko od obecnych paradygmatów", zanim zaawansowana AI będzie mogła być rozwijana bezpiecznie.
Ogólna sztuczna inteligencja odnosi się do formy AI, która może rozumować i uczyć się w szerokim zakresie zadań, zamiast być zbudowana do pojedynczego zadania, takiego jak generowanie tekstu, obrazu lub wideo. AGI jest często kojarzone z ideą technologicznej osobliwości, ponieważ osiągnięcie tego poziomu inteligencji może umożliwić maszynom doskonalenie się szybciej, niż ludzie są w stanie nadążyć.
Yudkowsky wskazał na analogię "maksymalizatora spinaczy" spopularyzowaną przez filozofa Nicka Bostroma, aby zilustrować ryzyko. Eksperyment myślowy przedstawia hipotetyczną AI, która przekształca całą dostępną materię w spinacze, pogłębiając swoją obsesję na jednym celu kosztem ludzkości. Dodanie większej liczby celów, powiedział Yudkowsky, nie poprawiłoby znacząco bezpieczeństwa.
Nawiązując do tytułu swojej niedawnej książki o AI, "Jeśli ktokolwiek to zbuduje, wszyscy umrą," powiedział: "Nasz tytuł nie brzmi, jakby mógł cię ewentualnie zabić," powiedział Yudkowsky. "Nasz tytuł brzmi: jeśli ktokolwiek to zbuduje, wszyscy umierają."
Ale More zakwestionował założenie, że ekstremalna ostrożność oferuje najbezpieczniejszy rezultat. Argumentował, że AGI może zapewnić ludzkości najlepszą szansę na pokonanie starzenia i chorób.
"Najważniejsze dla mnie jest to, że AGI może pomóc nam zapobiec wyginięciu każdej osoby żyjącej z powodu starzenia," stwierdził More. "Wszyscy umieramy. Zmierzamy ku katastrofie, jeden po drugim." Ostrzegł, że nadmierna powściągliwość może pchnąć rządy w kierunku autorytarnej kontroli jako jedynego sposobu na zatrzymanie rozwoju AI na całym świecie.
Sandberg umiejscowił się między dwoma obozami, opisując siebie jako "bardziej optymistycznego", pozostając jednocześnie bardziej ostrożnym niż transhumanistyczni optymiści. Opowiedział o osobistym doświadczeniu, w którym niemal użył dużego modelu językowego do pomocy w projektowaniu broni biologicznej, epizod, który określił jako "przerażający."
"Zbliżamy się do punktu, w którym wzmacnianie złośliwych aktorów również spowoduje ogromny bałagan," powiedział Sandberg. Mimo to argumentował, że częściowe lub "przybliżone bezpieczeństwo" może być osiągalne. Odrzucił ideę, że bezpieczeństwo musi być idealne, aby było znaczące, sugerując, że ludzie mogą przynajmniej zbieżnie przyjąć minimalne wspólne wartości, takie jak przetrwanie.
"Więc jeśli domagasz się idealnego bezpieczeństwa, nie otrzymasz go. I to brzmi bardzo źle z tej perspektywy," powiedział. "Z drugiej strony myślę, że możemy faktycznie mieć przybliżone bezpieczeństwo. To wystarczy."
Sceptycyzm wobec dopasowania
Vita-More skrytykowała szerszą debatę o dopasowaniu, argumentując, że koncepcja zakłada poziom konsensusu, który nie istnieje nawet wśród długoletnich współpracowników.
"Pojęcie dopasowania to schemat Pollyanny," powiedziała. "Nigdy nie będzie dopasowane. Mam na myśli, nawet tutaj, wszyscy jesteśmy dobrymi ludźmi. Znamy się od dziesięcioleci i nie jesteśmy dopasowani."
Opisała twierdzenie Yudkowsky'ego, że AGI nieuchronnie zabije wszystkich jako "myślenie absolutystyczne", które nie pozostawia miejsca na inne wyniki.
"Mam problem z szerokim stwierdzeniem, że wszyscy umierają," powiedziała. "Podchodząc do tego jako futurysta i pragmatyczny myśliciel, nie pozostawia to konsekwencji, żadnej alternatywy, żadnego innego scenariusza. To tylko tępe twierdzenie i zastanawiam się, czy odzwierciedla ono rodzaj myślenia absolutystycznego."
Dyskusja obejmowała debatę nad tym, czy bliższa integracja między ludźmi a maszynami może złagodzić ryzyko stwarzane przez AGI — coś, co CEO Tesli Elon Musk proponował w przeszłości. Yudkowsky odrzucił ideę łączenia się z AI, porównując to do "próby połączenia się z tosterem."
Sandberg i Vita-More argumentowali, że w miarę jak systemy AI stają się bardziej zdolne, ludzie będą musieli integrować się lub łączyć z nimi bardziej ściśle, aby lepiej radzić sobie w świecie po-AGI.
"Cała ta dyskusja to sprawdzian rzeczywistości dotyczący tego, kim jesteśmy jako istoty ludzkie," powiedziała Vita-More.
Newsletter Daily Debrief
Rozpocznij każdy dzień od najważniejszych wiadomości w tej chwili, a także oryginalnych materiałów, podcastu, filmów i więcej.
Źródło: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

