Film „Blade Runner 2049” zaciera granicę pomiędzy ludźmi i maszynami. (Zdjęcia Warner Bros.)

Niektórzy twierdzą, że sztuczna inteligencja będzienajwiększym pomocnikiem ludzkości. Inni ostrzegają, że sztuczna inteligencja stanie sięnajniebezpieczniejszy rywal ludzkości. Być może istnieje jednak trzecia alternatywa — agenci sztucznej inteligencji osiągają status osobowości wraz ze swoimi ludzkimi braćmi.

Potencjał takiego scenariusza jest tematem nowo opublikowanej książki pt„Linia: sztuczna inteligencja i przyszłość osobowości”.Autor, profesor prawa na Duke UniversityJamesa Boyle’amówi, że prace nad książką trwały ponad dekadę, co sugeruje coś więcej niż tylko zwykłe przewidywanie na temat obecnej fascynacji sztuczną inteligencją świata technologii.

W najnowszym odcinkuPodcast science-fictionwspomina reakcję, jaką spotkał, gdy kilkanaście lat temu podzielił się z sędziami federalnymi swoimi wczesnymi pomysłami na temat tej książki.

„Oni mówią: «Prawa są zastrzeżone dla ludzi, zrodzonych z kobiet!». OK, cóż, niekoniecznie wielka publiczność” – mówi Boyle, założyciel Duke Law School’sCentrum Badań Domeny Publicznej. „Oczywiście, od tego czasu wszystko się zmieniło. Książka wydaje się teraz być może mniej wytrącona z równowagi niż wtedy”.

Od 2011 r. sztuczna inteligencja przeszła długą drogę. Inteligentne rozwiązania opracowane dla zaawansowanych chatbotów, takich jak OpenAICzatGPTi antropiczneKlaudiuszsą obecnie integrowane z szeroką gamą produktów programowych, w tymDrugi pilot MicrosoftuIAlexa Amazonaasystent głosowy.

Najlepsi agenci sztucznej inteligencji mogą czasami brzmieć aż nazbyt ludzko, jak odkrył felietonista New York Timesa, gdy powiedział to chatbot Microsoftu była w nim zakochana i chciała zostać człowiekiem. W tym roku zadeklarowali to badacze ze Stanford ChatGPT-4 przeszedł test Turinga — ćwiczenie zaproponowane kilkadziesiąt lat temu w celu zdefiniowania granicy między inteligencją ludzką a inteligencją maszyn.

Czy nadejdzie czas, kiedy możliwości poznawcze sztucznej inteligencji wyraźnie przekroczą nasze – a jeśli tak, jakie będzie to miało konsekwencje dla praw i obowiązków przyznanych agentom sztucznej inteligencji? Boyle uważa, że ​​inteligentne maszyny w końcu osiągną jakąś formę osobowości.

Rozpoczynając pracę nad książką, Boyle założył, że istoty AI staną się tak podobne do ludzi, że trzeba będzie im przyznać osobowość ze względów moralnych. Przykładem tego z science fiction mogą być wysiłki Data mające na celu zdobycie prawa androidów do samostanowienia w… odcinek „Star Trek: Następne pokolenie”.

„Myślałem, że na tym będzie polegała debata” – mówi Boyle. „A potem coraz częściej zdawałem sobie sprawę, że równie prawdopodobny – a może nawet bardziej prawdopodobny – sposób, w jaki rzeczywiście uzyskamy jakąś formę osobowości prawnej dla sztucznej inteligencji, jest taki sam, jak zrobiliśmy to w przypadku korporacji. Czyli: „To jest wygodne”. Potrzebujemy kogoś, kto będzie pozywać i być pozywany”.

Korporacyjna osobowośćto dość kontrowersyjna koncepcja prawna, która przyznaje korporacjom część praw i obowiązków przysługujących obywatelom z krwi i kości (na przykład prawo do zawierania umów oraz odpowiedzialność za ściganie za przestępstwa), a brakuje im innych (takich jak prawo wyjść za mąż, ubiegać się o urząd lub głosować).

Profesor prawa Duke James Boyle jest autorem książki „The Line: AI and the Future of Personalhood”. (Zdjęcie szkoły Duke Law)

Pomysł, że Alexa mogłaby wnieść pozew, aby wywiązać się ze zobowiązań umownych, może brzmieć tak samo jak science fiction, jak pomysł Starship Enterprisenapęd warpowy. AleOrena EtzioniegozałożycielTrueMedia.orgi były dyrektor generalny Allen Institute for Artificial Intelligence z siedzibą w Seattle twierdzi, że nie jest to takie naciągane.

„Jeśli korporacja jestswego rodzaju osobato z pewnością osiągniemy punkt, w którym będą agenci AI” – powiedział mi Etzioni w e-mailu. „Kiedy agenci AI osiągną świadomość, będziemy musieli potraktować ich uczucia ze współczuciem”.

Czy ChatGPT i inne duże modele językowe, czyli LLM, kiedykolwiek osiągną świadomość?Tego nie ma w kartachwedługKrzysztof Kochaneurobiolog z Instytutu Allena w Seattle (oddzielnego od Instytutu Allena ds. Sztucznej Inteligencji).

„Tak naprawdę są tu dwa pytania” – powiedział mi Koch w e-mailu. „1. Czy zachowanie sztucznej inteligencji/robotów, w tym rozumienie języka i mowa, stanie się na tyle podobne do zachowania ludzi (lub nawet lepsze pod względem funkcjonalnym), że większość ludzi będzie je traktować jako świadome? 2. Czy kiedykolwiek czułeś się tak, jakbyś był taką sztuczną inteligencją/robotem?”

Koch twierdzi, że odpowiedź na pierwsze pytanie brzmi „tak”, najprawdopodobniej. „Jedyna niepewność dotyczy tego, kiedy?” napisał. „I jak sugeruje Oren, będzie to miało konsekwencje moralne, etyczne, prawne i społeczne”.

Jednak Koch argumentuje, że architektury stanowiące podstawę dzisiejszych komputerów nie są w stanie wspierać niczego na poziomie świadomości na poziomie ludzkim. „Oznacza to, że bycie LLM nigdy nie będzie przyjemne, nawet jeśli wcześniej czy później mogą osiągnąć superinteligencję. Może się to zmienić w przypadku radykalnie innego sprzętu, takiego jak komputery kwantowe lub neuromorficzne” – powiedział.

„Inteligencja dotyczy działania, podczas gdy świadomość dotyczy bycia”.

Boyle podziela punkt widzenia Kocha na pytanie, czy agenci AI kiedykolwiek staną się świadomi. „Obecna architektura jest „nie”, ale w przyszłości myślę, że „tak”” – mówi.

„Linia: sztuczna inteligencja i przyszłość osobowości” Jamesa Boyle’a. (Prasa MIT / zdjęcie na okładce: Generator AI Getty Images)

W swojej książce i podcaście Boyle, aby przedstawić swoją sprawę, odwołuje się do fantastyki naukowej i faktów naukowych. Mówi, że film„Łowca androidów”oraz powieść Philipa K. Dicka, na której powstał —„Czy androidy śnią o elektrycznych owcach”— służyć jako „źródło Nilu” dla jego poglądów na temat tego, jak można traktować przyszłych agentów AI.

Boyle’a szczególnie intryguje kwestionariusz, którego używają detektywi w filmie i powieści, aby ustalić, czy istota, z którą mają do czynienia, to urodzony człowiek, czy sztucznie wytworzony replikant. TheTest Voighta-Kampffama na celu zmierzenie poziomu empatii, jaką jednostka odczuwa w odpowiedzi na bodźce emocjonalne.

„Dla mnie pytanie, które pojawia się w obu tych pracach, brzmi: czy wszyscy jesteśmy replikantami, czy też raczej, czy możemy zdać jakikolwiek test, który faktycznie bylibyśmy skłonni postawić dla czegoś innego” – mówi Boyle.

Boyle uważa, że ​​ludzie tworzący produkty AI oraz konsumenci, którzy z nich korzystają, staną w nadchodzących latach przed innym rodzajem testu.

„Założę się, że kiedyś w tym stuleciu będą firmy – niezależnie od tego, czy będzie to Microsoft, czy Anthropic, czy też OpenAI – które celowo będą twierdzić, że nasze samorealizujące się AI, które traktujemy jak ludzi, uczestniczą w tym ”, mówi. „Będzie coś w rodzaju atmosfery Whole Foods – coś w rodzaju kawy ze sprawiedliwego handlu”.

Boyle obstawia również, że inne firmy będą reklamować swoich agentów AI jako „lojalnych sług cybernetycznych i nic więcej… nie musisz ich traktować bardziej przemyślanie niż odkurzacz”.

„Spodziewałbym się, że będzie to podział na rynku, podobny do podziału na oprogramowanie zastrzeżone, bezpłatne i otwarte” – mówi.

Kiedy nastąpi ten moment na rynku? Które podejście zwycięży? Ile czasu minie, zanim dowiemy się, czy nasze dzieła sztucznej inteligencji mieszczą się w linii wyznaczającej granicę osobowości? Trudno dokładnie przewidzieć, jaki będzie harmonogram lub co inteligentne maszyny mogą zrobić, gdy przekroczą linię.

„W międzyczasie będę bardzo miły dla mojego Roomby” – mówi Boyle. „Myślę, że to jedyna rzecz, którą wszyscy możemy zrobićDo.”


Dostępna jest książka „Linia: sztuczna inteligencja i przyszłość osobowości”.w formie drukowanej i jako e-book. Jako były przewodniczący zarząduCreative CommonsJames Boyle jest zwolennikiem otwartego dostępu do informacji i taką też jest jego książkaswobodnie dostępne w Internecie za pośrednictwem strony internetowej Duke Law School. (Jeśli to ma znaczenie, James i ja mamy wspólne nazwisko Boyle, ale nie jesteśmy blisko spokrewnieni.)

Neurobiolog z Allen Institute, Christof Koch, również opublikował tę publikację kilka książek na temat świadomości. Jego najnowsza książka to „Więc jestem sobą i światem: czym jest świadomość i jak ją poszerzać”. Więcej informacji na temat badań Kocha można znaleźć na stronie ten artykuł GeekWire z 2019 rktóry skupia się na wcześniejszej książce pt „Poczucie samego życia”. Może spodoba ci się także mój Wywiad Fiction Science z Kocha od 2021 r.

Moją współgospodarzką podcastu Fiction Science jest Dominica Phetteplace, anwielokrotnie nagradzany pisarzkto jest absolwentemWarsztaty pisarzy Clarion Westi mieszka w San Francisco. Aby dowiedzieć się więcej o Phetteplace, odwiedź jej stronę internetową,DominikaPhetteplace.com.

Spójrz na oryginalna wersja tego elementu w Cosmic Log aby uzyskać rekomendacje Jamesa Boyle’a dotyczące dalszej lektury i śledzić przyszłe odcinki serialu Podcast science-fiction przez Jabłko, Spotify, Player.fm, Odlewy kieszonkowe I Podchaser. Jeśli podoba Ci się Fiction Science, oceń podcast i zasubskrybuj, aby otrzymywać powiadomienia o przyszłych odcinkach.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj