Trzy prawa robotyki

Autor: AsimovEdit

Historie Asimova sprawdzają jego Trzy prawa w różnych okolicznościach, prowadząc do propozycji i odrzucenia modyfikacji. Badacz science fiction James Gunn pisze w 1982 r., „Opowieści o robotach Asimov jako całość mogą najlepiej odpowiadać analizie na tej podstawie: dwuznaczność w Trzech Prawach i sposoby, w jakie Asimov grał dwadzieścia dziewięć wariacji na dany temat”. Podczas gdy oryginalny zestaw praw Inspirował do wielu opowieści, Asimov od czasu do czasu wprowadzał zmodyfikowane wersje.

Edycja zmodyfikowana First Law

W „Little Lost Robot” kilka NS-2 lub „Nestor” roboty są utworzony tylko z częścią pierwszego prawa. Brzmi ono:

1. Robot nie może skrzywdzić człowieka.

Przyczyną tej modyfikacji są praktyczne trudności, ponieważ roboty muszą pracować obok ludzi, którzy są narażeni na niskie dawki promieniowania. Ponieważ ich mózgi pozytronowe są wysokie y wrażliwe na promienie gamma roboty są wyłączane z powodu dawek rozsądnie bezpiecznych dla ludzi. Roboty są niszczone, próbując uratować ludzi, którzy nie są w rzeczywistym niebezpieczeństwie, ale „mogą zapomnieć o opuszczeniu” napromieniowanego obszaru w ramach limitu czasu ekspozycji. Usunięcie klauzuli „bezczynności” pierwszego prawa rozwiązuje ten problem, ale stwarza możliwość jeszcze większego: robot mógłby zainicjować działanie, które zaszkodziłoby człowiekowi (zrzucenie ciężaru i nieumiejętność jego złapania to przykład podany w text), wiedząc, że jest w stanie zapobiec krzywdzie, a następnie zdecydować się tego nie robić.

Gaia jest planetą o zbiorowej inteligencji z serii Fundacji, która przyjmuje prawo podobne do pierwszego prawa, a Zeroth Law, zgodnie z jego filozofią:

Gaja nie może szkodzić życiu ani pozwalać, by życie stało się krzywdą.

Dodano prawo ZerothEdit

Asimov dodał kiedyś „Prawo Zerotha” – nazwane tak, aby kontynuować wzór, w którym prawa o niższych numerach zastępują prawa o wyższych numerach – stwierdzając, że robot musi nie krzywdzić ludzkości. Postać robota R. Daneel Olivaw jako pierwsza nadała Prawu Zerotha imię w powieści Robots and Empire; jednak postać Susan Calvin wyartykułowała koncepcję w opowiadaniu „The Evitable Conflict”.

W końcowych scenach powieści Robots and Empire, R. Giskard Reventlov jest pierwszym robotem, który postępuje zgodnie z prawem Zerotha. Giskard jest telepatyczny, jak robot Herbie w opowiadaniu „Kłamca!” I próbuje zastosować Prawo Zerotha poprzez zrozumienie bardziej subtelnego pojęcia „krzywdy”, niż większość robotów może pojąć. Jednak w przeciwieństwie do Herbiego, Giskard pojmuje filozoficzną koncepcję Prawa Zeroth, pozwalając mu szkodzić poszczególnym istotom ludzkim, jeśli może to zrobić w służbie abstrakcyjnej koncepcji ludzkości. Prawo Zerotha nigdy nie jest zaprogramowane w mózgu Giskarda, ale zamiast tego jest regułą, którą próbuje zrozumieć poprzez czyste metapoznanie. Chociaż mu się to nie udaje – ostatecznie niszczy jego pozytywny mózg, ponieważ nie jest pewien, czy jego wybór okaże się dla ostatecznego dobro ludzkości czy nie – daje swojemu następcy R. Daneelowi Olivaw swoje zdolności telepatyczne. Przez wiele tysięcy lat Daneel dostosowuje się, aby być w stanie w pełni przestrzegać Prawa Zerotha. Jak Daneel to formułuje, w powieściach Fundacja i Ziemia i Prelude to Foundation, Zeroth Law brzmi:

Robot nie może skrzywdzić ludzkości lub, przez bezczynność, pozwolić jej wyrządzić krzywdę.

Warunek stwierdzający, że Prawo Zerotha nie może być łamane, został dodany do oryginalnych Trzech Praw, chociaż Asimov zdawał sobie sprawę z trudności, jakie takie prawo stanowiłoby w praktyce. Asimov powieść Fundacja i Ziemia zawiera następujący fragment:

Trevize zmarszczył brwi. „W jaki sposób decydujesz, co jest szkodliwe, a co nie, dla całej ludzkości?”

„Dokładnie, proszę pana,” powiedział Daneel. „W teorii, Prawo Zerotha było odpowiedzią na nasze problemy. W praktyce nigdy nie mogliśmy się zdecydować. Człowiek jest konkretnym przedmiotem. Szkody wyrządzone osobie można oszacować i osądzić. Ludzkość jest abstrakcją.”

Tłumacz włączył koncepcję Prawa Zerota do jednej z powieści Asimova, zanim sam Asimov wyraźnie to określił. W pobliżu punktu kulminacyjnego The Caves of Steel Elijah Baley rzuca do siebie gorzki komentarz, myśląc, że pierwsze prawo zabrania robotowi krzywdzenia człowieka i stwierdza, że tak musi być, chyba że robot jest na tyle sprytny, by pojąć, iż jego działania służą długoterminowemu dobru ludzkości. W francuskim tłumaczeniu Jacquesa Brécarda z 1956 roku, zatytułowanym Les Cavernes d „acier Baley”, myśli pojawiają się w nieco inny sposób:

Robot nie może skrzywdzić istoty ludzkiej, chyba że znajdzie sposób, aby udowodnić, że ostatecznie wyrządzona szkoda przyniesie korzyści całej ludzkości!

Usunięcie Three LawsEdit

Trzy razy podczas swojej kariery pisarskiej Asimov portretował roboty, które całkowicie lekceważyły Trzy Prawa. Pierwszym przypadkiem była krótka opowieść zatytułowana „Pierwsze prawo” i często jest uważana za mało znaczącą „wysoką opowieść” lub wręcz apokryficzną. Z drugiej strony opowiadanie „Cal” (z kolekcji Gold), opowiadane przez pierwszoosobowego narratora-robota, przedstawia robota, który lekceważy Trzy Prawa, ponieważ znalazł coś znacznie ważniejszego – chce zostać pisarzem . Humorystyczny, częściowo autobiograficzny i niezwykle eksperymentalny w stylu, „Cal” został uznany za jedną z najsilniejszych historii Golda. Trzecia to krótka opowieść zatytułowana „Sally”, w której samochody wyposażone w mózgi pozytonowe są najwyraźniej zdolne do krzywdzenia i zabijania ludzi pomijając pierwsze prawo. Jednak poza koncepcją pozytywronicznego mózgu, ta historia nie odnosi się do innych historii o robotach i może nie być osadzona w tej samej ciągłości.

Tytułowa historia z kolekcji Robot Dreams przedstawia LVX-1, czyli „Elvex”, robota, który wchodzi w stan nieświadomości i snów dzięki niezwykłej fraktalnej konstrukcji swojego pozytronowego mózgu. W jego śnie nie ma pierwszych dwóch praw, a trzecie prawo brzmi: „Robot musi chronić swoje własne istnienie ”.

Asimov zajmował różne stanowiska co do tego, czy Prawa były opcjonalne: chociaż w jego pierwszych pismach były one po prostu starannie opracowanymi zabezpieczeniami, w późniejszych opowiadaniach Asimov stwierdził, że są one niezbywalną częścią matematycznej podstawy n leżące u podstaw pozytronowego mózgu. Bez podstawowej teorii Trzech Praw fikcyjni naukowcy wszechświata Asimova nie byliby w stanie zaprojektować działającej jednostki mózgowej. Jest to zgodne z historią: sytuacje, w których robotycy modyfikują Prawa, na ogół pojawiają się na wczesnym etapie chronologii opowieści. gdy jest mniej istniejących prac do ponownego wykonania. W „Little Lost Robot” Susan Calvin uważa, że modyfikacja Prawa jest strasznym pomysłem, chociaż możliwym, podczas gdy wieki później dr Gerrigel w The Caves of Steel uważa, że jest to niemożliwe.

Postać dr Gerrigel używa terminu „Asenion” do opisania robotów zaprogramowanych zgodnie z Trzema Prawami. Roboty w opowieściach Asimova, będąc robotami Asenion, nie są w stanie świadomie złamać Trzech Praw, ale w zasadzie robot w science fiction lub w prawdziwym świecie może nie pochodzić z Asenionu. „Asenion” to błędna pisownia nazwy Asimov, który został napisany przez redaktora magazynu Planet Stories. Asimov wykorzystał tę niejasną odmianę, aby wejść do The Caves of Steel, tak jak nazywał siebie „Azymutem lub być może Asymptotą” w „Tiotimolina do gwiazd”, w większości w ten sam sposób, w jaki Vladimir Nabokov pojawił się w Lolicie anagramowo przebrany za „Vivian Darkbloom”.

Postacie w opowieściach często wskazują, że Trzy Prawa, które istnieją w umyśle robota, nie są wersjami pisemnymi zwykle cytowane przez ludzi, ale abstrakcyjne koncepcje matematyczne, na których opiera się cała rozwijająca się świadomość robota. Pojęcie to jest w dużej mierze niejasne i niejasne we wcześniejszych historiach przedstawiających bardzo prymitywne roboty, które są zaprogramowane jedynie do rozumienia podstawowych zasad fizycznych ks, gdzie Trzy Prawa działają jako nadrzędna ochrona, ale w epoce The Caves of Steel, w których występują roboty o ludzkiej lub ponadludzkiej inteligencji, Trzy Prawa stały się podstawowym etycznym światopoglądem, który determinuje działania wszystkich robotów.

Inni autorzyEdit

TrilogyEdit Rogera MacBride Allena

W latach 90. Roger MacBride Allen napisał trylogię osadzoną w fikcyjnym uniwersum Asimova. Każdy tytuł ma przedrostek „Izaaka Asimowa”, ponieważ Asimov zatwierdził zarys Allena przed śmiercią. Te trzy książki, Kaliban, Inferno i Utopia, wprowadzają nowy zestaw Trzech Praw. Tak zwane Nowe Prawa są podobne do oryginałów Asimova z następującymi różnicami: pierwsza zasada została zmodyfikowana w celu usunięcia klauzuli „bezczynności”, ta sama modyfikacja wprowadzona w „Little Lost Robot”; druga zasada została zmodyfikowana, aby wymagać współpracy zamiast posłuszeństwa; Trzecie Prawo zostało zmodyfikowane, więc nie jest już zastępowane przez Drugie (tj. robotowi „Nowego Prawa” nie można nakazać zniszczenia samego siebie); wreszcie Allen dodaje Czwarte Prawo, które nakazuje robotowi robić „cokolwiek lubi „o ile nie jest to sprzeczne z pierwszymi trzema prawami. Filozofia stojąca za tymi zmianami polega na tym, że roboty„ Nowego Prawa ”powinny być raczej partnerami niż niewolnikami ludzkości, według Freddy Leving, która zaprojektowała te roboty Nowego Prawa. we wstępie do pierwszej książki Allen opracował Nowe Prawa w dyskusji z samym Asimowem. Jednak Encyklopedia Science Fiction mówi, że „Za zgodą Asimova Allen ponownie przemyślał Trzy Prawa i opracował nowy zestaw”.

„Z założonymi rękami” Jacka Williamsona Edytuj

Powieść Jacka Williamsona „Z założonymi rękoma” (1947), później przepisana na powieść Humanoidy, dotyczy sług robotów którego główną wskazówką jest „Służyć i być posłusznym i strzec ludzi przed krzywdą”. Podczas gdy prawa robotów Asimova mają chronić ludzi przed krzywdą, roboty z historii Williamsona doprowadziły te instrukcje do skrajności; chronią ludzi przed wszystkim, w tym nieszczęściem, stresem, niezdrowym stylem życia i wszelkimi działaniami, które mogą być potencjalnie niebezpieczne. Jedyne, co pozostaje do zrobienia dla ludzi, to siedzieć z założonymi rękami.

Kontynuacja trylogii Fundacji

W oficjalnie licencjonowanych sequelach Fundacji Fear, Foundation and Chaos and Foundation Triumph (odpowiednio Gregory Benford, Greg Bear i David Brin) przyszłe Imperium Galaktyczne jest kontrolowane przez spisek ludzkich robotów, które przestrzegają Prawa Zerotha i są kierowane przez R. Daneela Olivawa.

Prawa robotyki są przedstawiane jako coś podobnego do ludzkiej religii i są określane w języku reformacji protestanckiej, z zestawem praw zawierającym prawo Zeroth znane jako „reformacja giskardowska” z oryginalną „kalwińską ortodoksją” Trójki Prawa. Roboty Zeroth-Law pod kontrolą R. Daneela Olivawa nieustannie walczą z robotami „Pierwszego Prawa”, które zaprzeczają istnieniu Prawa Zerotha, promując programy inne niż Teela. Niektóre z tych programów są oparte na pierwszej klauzuli pierwsze prawo („Robot nie może skrzywdzić człowieka…”) zalecające całkowity zakaz ingerencji w ludzką politykę w celu uniknięcia nieświadomego wyrządzania krzywdy. Inne opierają się na drugiej klauzuli („… lub poprzez bezczynność pozwalają człowieka, aby stać się krzywdzącym ”), twierdząc, że roboty powinny otwarcie stać się rządem dyktatorskim, aby chronić ludzi przed wszelkimi potencjalnymi konfliktami lub katastrofami.

Daneel wchodzi również w konflikt z robotem znanym jako R. Lodovic Trema, którego pozytroniczny mózg został zainfekowany przez nieuczciwą sztuczną inteligencję – a konkretnie symulację dawno zmarłego Woltera – co w konsekwencji uwalnia Tremę od Trzech Praw. Trema zaczyna wierzyć, że ludzkość powinna mieć swobodę wyboru własnej przyszłości. Ponadto niewielka grupa roboty twierdzą, że Zerot h Prawo robotyki samo w sobie implikuje wyższe prawo robotyki minus jeden:

Robot nie może szkodzić wrażliwości lub, poprzez brak działania, pozwolić jej szkodzić .

Dlatego twierdzą, że dla Daneela jest moralnie nie do obrony, aby bezlitośnie poświęcać roboty i pozaziemskie życie dla dobra ludzkości. Żadna z tych reinterpretacji nie wyparła z powodzeniem Prawa Zerotha Daneela – chociaż Triumf Fundacji wskazuje, że te frakcje robotów pozostają aktywne jako grupy skrajne aż do czasu powstania powieści Fundacji.

Te powieści mają miejsce w przyszłości podyktowany przez Asimova, aby uwolnić się od oczywistej obecności robota i przypuszczać, że sekretny wpływ R. Daneela na historię przez tysiąclecia uniemożliwił zarówno ponowne odkrycie technologii pozytronowej mózgu, jak i możliwość pracy nad wyrafinowanymi inteligentnymi maszynami. Ten brak ponownego odkrycia i brak możliwości daje pewność, że nadrzędna siła fizyczna i intelektualna posiadana przez inteligentne maszyny pozostaje w posiadaniu robotów posłusznych jakiejś formie Trzech Praw. To, że R. Daneel nie jest w tym całkowicie skuteczny, staje się jasne w krótkim okresie, kiedy naukowcy Trantor opracowuje „tiktoki” – proste, programowalne maszyny, podobne do współczesnych robotów w prawdziwym życiu, a zatem pozbawione Trzech Praw. Attorzy postrzegają trantoriańskie tiktoki jako ogromne zagrożenie dla stabilności społecznej, a ich plan wyeliminowania zagrożenia tiktokiem stanowi znaczną część fabuły Strachu Fundacji.

W Triumfie Fundacji różne frakcje robotów interpretują Prawa na wiele różnych sposobów, pozornie dzwoniąc w każdą możliwą permutację dwuznaczności Trzech Praw.

Seria Robot MysteryEdytuj

Rozgrywający się między Robotami świtu a Robotami i Imperium, Mark W. Trylogia Robot Mystery Tiedemanna aktualizuje sagę Robot – Foundation o robotyczne umysły osadzone w komputerowych komputerach mainframe, a nie w ciałach humanoidalnych. W powieści Aurora z 2002 roku roboty-postacie debatują nad moralnymi konsekwencjami szkodzenia cyborgom form życia, które są częściowo sztuczne, a częściowo biologiczne.

Nie należy lekceważyć własnych dzieł Asimova w tych obszarach, takich jak technologia „oglądania” Solarian i maszyny z oryginałów The Evitable Conflict, które Tiedemann przyznaje. Aurora, na przykład, nazywa Maszyny „pierwszymi RI, naprawdę”. Ponadto seria Robot Mystery zajmuje się problemem nanotechnologii: budowanie pozytywnego mózgu zdolnego do odtwarzania ludzkich procesów poznawczych wymaga wysokiego stopnia miniaturyzacji, ale historie Asimova w dużej mierze pomijają skutki, jakie ta miniaturyzacja miałaby w innych dziedzinach technologii.Na przykład czytniki kart policji w The Caves of Steel mają pojemność zaledwie kilku kilobajtów na centymetr kwadratowy nośnika danych. W szczególności Aurora przedstawia sekwencję wydarzeń historycznych, która wyjaśnia brak nanotechnologii – w pewnym sensie częściowy retcon osi czasu Asimova.

Randall MunroeEdit

Randall Munroe omówił Trzy Prawa w różnych przypadkach, ale prawdopodobnie najbardziej bezpośrednio przez jeden ze swoich komiksów zatytułowany The Three Laws of Robotics, który wyobraża sobie konsekwencje każdego odrębnego uporządkowania istniejących trzech praw.

Dodatkowe prawaEdytuj

Istnieją trzy czwarte prawa napisane przez autorów innych niż Asimov. W powieści Lyubena Dilova z 1974 r., Droga Ikara (aka, Podróż Ikara) wprowadzono czwarte prawo robotyki:

Robot musi we wszystkich przypadkach ustalić swoją tożsamość jako robota.

Dilov podaje powody czwartego zabezpieczenia w w ten sposób: „Ostatnia ustawa położyła kres kosztownym aberracjom projektantów, aby nadać psychorobotom możliwie ludzką formę. I wynikające z tego nieporozumienie gs … ”

Piąte prawo zostało wprowadzone przez Nikolę Kesarovskiego w jego opowiadaniu„ Piąte prawo robotyki ”. Piąte prawo mówi:

Robot musi wiedzieć, że to robot.

Fabuła kręci się wokół morderstwa, w którym dochodzenie kryminalistyczne odkrywa, że ofiara została zabita przez uścisk ludzkiego robota. Robot naruszył zarówno pierwsze, jak i czwarte prawo Dilova (zakładane we wszechświecie Kesarovskiego jako obowiązujące), ponieważ nie ustalił dla siebie, że jest robotem. Historia została zrecenzowana przez Valentina D. Iwanowa w recenzji internetowej SFF The Portal.

Harry Harrison napisał artykuł zatytułowany „The Fourth Law of Robotics” w antologii hołdu z 1986 roku. Czwarte prawo stanowi:

Robot musi się rozmnażać. O ile taka reprodukcja nie koliduje z pierwszą, drugą lub trzecią zasadą.

W książce działacz na rzecz praw robotów, próbując wyzwolić roboty, buduje kilka wyposażonych w to czwarte prawo. Roboty wykonują zadanie określone w tej wersji czwartej Prawo, budując nowe roboty, które postrzegają swoje roboty jako postacie rodzicielskie.

W reakcji na filmową adaptację I, Robot, humorysta i grafik Mark Sottilaro z 2004 roku, farsowo ogłosił Czwarte Prawo Robotyki jako „Kiedy zmieniasz się w zło, wyświetl czerwony wskaźnik”. Czerwone światło wskazywało, że bezprzewodowe łącze uplink do producenta jest aktywne, po raz pierwszy widziane podczas oprogramowania Aktualizacja, a później roboty „Złe” przejęte przez pozytronowy supermózg producenta.

W 2013 roku Hutan Ashrafian zaproponował dodatkowe prawo, które po raz pierwszy rozważało rolę sztucznej inteligencji na sztucznej inteligencji. inteligencja czy relacje między samymi robotami – tzw. prawo AIonAI. To szóste prawo stanowi:

Wszystkie roboty obdarzone porównywalnym ludzkim rozumem i sumieniem powinny działać wobec siebie w duchu braterstwa.

W Lockstep Karla Schroedera (2014) postać odzwierciedla, że roboty „prawdopodobnie miały wiele warstw programowania, aby nikogo nie skrzywdzić. Nie trzy prawa, ale dwadzieścia lub trzydzieści ”.

Write a Comment

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *