Tre leggi della robotica

Di AsimovEdit

Le storie di Asimov mettono alla prova le sue tre leggi in un’ampia varietà di circostanze che portano a proposte e al rifiuto di modifiche. Studioso di fantascienza James Gunn scrive nel 1982, “Le storie di robot Asimov nel loro insieme possono rispondere meglio a un’analisi su questa base: l’ambiguità nelle Tre Leggi e il modo in cui Asimov ha suonato ventinove variazioni su un tema”. Mentre l’insieme originale di Leggi fornito ispirazione per molte storie, Asimov ha introdotto versioni modificate di volta in volta.

Prima legge modificataModifica

In “Little Lost Robot” diversi NS-2, o “Nestor”, sono robot creato con solo una parte della Prima Legge. Si legge:

1. Un robot non può danneggiare un essere umano.

Questa modifica è motivata da una difficoltà pratica in quanto i robot devono lavorare al fianco di esseri umani che sono esposti a basse dosi di radiazioni. Poiché i loro cervelli positronici sono alti y sensibili ai raggi gamma i robot sono resi inutilizzabili da dosi ragionevolmente sicure per l’uomo. I robot vengono distrutti nel tentativo di salvare gli umani che non sono in pericolo reale ma “potrebbero dimenticare di lasciare” l’area irradiata entro il limite di tempo di esposizione. La rimozione della clausola di “inazione” della Prima Legge risolve questo problema ma crea la possibilità di uno ancora più grande: un robot potrebbe avviare un’azione che danneggerebbe un essere umano (far cadere un peso pesante e non riuscire a prenderlo è l’esempio fornito nella text), sapendo che era in grado di prevenire il danno e quindi decidere di non farlo.

Gaia è un pianeta con intelligenza collettiva nella serie Foundation che adotta una legge simile alla Prima Legge, e la Legge Zeroth, come sua filosofia:

Gaia non può danneggiare la vita o permettere che la vita venga a nuocere.

Aggiunta legge zero Modifica

Una volta Asimov aggiunse una “Legge zero”, così chiamata per continuare il modello in cui le leggi con numero inferiore sostituiscono le leggi con numero più alto – affermando che un robot deve non danneggiare l’umanità. Il personaggio robotico R. Daneel Olivaw è stato il primo a dare un nome alla Legge Zeroth nel romanzo Robots and Empire; tuttavia, il personaggio Susan Calvin articola il concetto nel racconto “The Evitable Conflict”.

Nelle scene finali del romanzo Robots and Empire, R. Giskard Reventlov è il primo robot ad agire secondo la Legge Zeroth. Giskard è telepatico, come il robot Herbie nel racconto “Bugiardo!”, E cerca di applicare la legge zero attraverso la sua comprensione di un concetto di “danno” più sottile di quanto la maggior parte dei robot possa comprendere. Tuttavia, a differenza di Herbie, Giskard afferra il concetto filosofico della Legge Zeroth che gli consente di danneggiare i singoli esseri umani se può farlo al servizio del concetto astratto di umanità. La Legge Zeroth non è mai programmata nel cervello di Giskard, ma è invece una regola che tenta di comprendere attraverso la pura metacognizione. Anche se fallisce, alla fine distrugge il suo cervello positronico poiché non è sicuro che la sua scelta si rivelerà per l’ultima buono dell’umanità o no – conferisce al suo successore R. Daneel Olivaw le sue capacità telepatiche. Nel corso di molte migliaia di anni Daneel si adatta per essere in grado di obbedire completamente alla Legge Zeroth. Così come la formula Daneel, nei romanzi Foundation and Earth e Prelude to Foundation, la Legge Zeroth recita:

Un robot non può danneggiare l’umanità o, per inerzia, consentire all’umanità di venire a nuocere.

Una condizione che afferma che la Legge Zero non deve essere infranta è stata aggiunta alle Tre Leggi originali, sebbene Asimov riconoscesse la difficoltà che una tale legge avrebbe posto nella pratica. Asimov “Il romanzo Foundation and Earth contiene il seguente passaggio:

Trevize aggrottò la fronte. “Come decidi cosa è dannoso o non dannoso per l’umanità nel suo insieme?”

“Esatto, signore”, disse Daneel. “In teoria, la Legge Zeroth era la risposta ai nostri problemi. In pratica, non potremmo mai decidere. Un essere umano è un oggetto concreto. Le lesioni a una persona possono essere valutate e giudicate. L’umanità è un’astrazione.”

Un traduttore ha incorporato il concetto della legge zero in uno dei romanzi di Asimov prima che lo stesso Asimov rendesse esplicita la legge. Verso il culmine di Le grotte d’acciaio, Elijah Baley fa un amaro commento a se stesso pensando che la Prima Legge proibisce a un robot di danneggiare un essere umano e stabilisce che deve essere così a meno che il robot non sia abbastanza intelligente da comprendere che le sue azioni sono per il bene a lungo termine dell’umanità. Nella traduzione francese del 1956 di Jacques Brécard intitolata Les Cavernes d “acier Baley” i pensieri emergono in modo leggermente diverso:

Un robot non può danneggiare un essere umano, a meno che non trovi un modo per dimostrare che alla fine il danno arrecato gioverebbe all’umanità in generale!

Rimozione delle tre leggiModifica

Tre volte durante la sua carriera di scrittore, Asimov ha interpretato robot che ignorano completamente le Tre Leggi. Il primo caso era un racconto breve intitolato “First Law” ed è spesso considerato un “racconto alto” insignificante o addirittura apocrifo. D’altra parte, il racconto “Cal” (dalla raccolta Gold), raccontato da un robot narratore in prima persona, presenta un robot che ignora le Tre Leggi perché ha trovato qualcosa di molto più importante: vuole essere uno scrittore . Umoristico, in parte autobiografico e insolitamente sperimentale nello stile, “Cal” è stato considerato come una delle storie più forti di Gold. Il terzo è un racconto intitolato “Sally” in cui le auto dotate di cervello positronico sono apparentemente in grado di danneggiare e uccidere gli esseri umani in violazione della Prima Legge. Tuttavia, a parte il concetto di cervello positronico, questa storia non si riferisce ad altre storie di robot e potrebbe non essere ambientata nella stessa continuità.

La storia del titolo della raccolta Robot Dreams ritrae LVX-1, o “Elvex”, un robot che entra in uno stato di incoscienza e sogna grazie all’insolita costruzione frattale del suo cervello positronico. Nel sogno le prime due Leggi sono assenti e la Terza Legge recita “Un robot deve proteggere la propria esistenza “.

Asimov prese posizioni diverse sul fatto che le leggi fossero opzionali: sebbene nei suoi primi scritti fossero semplicemente salvaguardie attentamente progettate, nelle storie successive Asimov affermò che erano una parte inalienabile della fondatio matematica n sottostante il cervello positronico. Senza la teoria di base delle Tre Leggi, gli scienziati immaginari dell’universo di Asimov non sarebbero in grado di progettare un’unità cerebrale funzionante. Ciò è storicamente coerente: le occasioni in cui i robotisti modificano le Leggi generalmente si verificano all’inizio della cronologia delle storie e in un momento quando c’è meno lavoro esistente da rifare. In “Little Lost Robot” Susan Calvin ritiene che modificare le Leggi sia un’idea terribile, sebbene possibile, mentre secoli dopo il Dr. Gerrigel in The Caves of Steel crede che sia impossibile.

Il personaggio Dr. Gerrigel usa il termine “Asenion” per descrivere i robot programmati con le Tre Leggi. I robot nelle storie di Asimov, essendo robot Asenion, sono incapaci di violare consapevolmente le Tre Leggi ma, in linea di principio, un robot nella fantascienza o nel mondo reale potrebbe non essere Asenion. “Asenion” è un errore di ortografia del nome Asimov, che è stato realizzato da un editore della rivista Planet Stories. Asimov ha usato questa oscura variazione per inserirsi in The Caves of Steel proprio come si riferiva a se stesso come “Azimuth o, forse, Asymptote” in Tiotimolina alle stelle, in allo stesso modo in cui Vladimir Nabokov è apparso in Lolita travestito anagrammaticamente da “Vivian Darkbloom”.

I personaggi all’interno delle storie spesso sottolineano che le Tre Leggi, così come esistono nella mente di un robot, non sono le versioni scritte di solito citato dagli esseri umani ma concetti matematici astratti su cui si basa l’intera coscienza in via di sviluppo di un robot. Questo concetto è in gran parte confuso e poco chiaro nelle storie precedenti raffiguranti robot molto rudimentali che sono programmati solo per comprendere compiti fisici di base ks, dove le Tre Leggi agiscono come una salvaguardia generale, ma dall’era di The Caves of Steel con robot dotati di intelligenza umana o al di là dell’umana, le Tre Leggi sono diventate la visione etica di base del mondo che determina le azioni di tutti i robot.

Di altri autoriModifica

Trilogia di Roger MacBride Allen Modifica

Negli anni ’90, Roger MacBride Allen ha scritto una trilogia ambientata nell’universo immaginario di Asimov. Ogni titolo ha il prefisso “Isaac Asimov” s “come Asimov aveva approvato lo schema di Allen prima della sua morte. Questi tre libri, Caliban, Inferno e Utopia, introducono una nuova serie di Tre Leggi. Le cosiddette Nuove Leggi sono simili agli originali di Asimov con le seguenti differenze: la Prima Legge è modificata per rimuovere la clausola di “inazione”, la stessa modifica fatta in “Little Lost Robot”; la Seconda Legge è modificata per richiedere la cooperazione invece dell’obbedienza; la Terza Legge è modificata in modo che non sia più sostituita dalla Seconda (cioè, non si può ordinare a un robot “Nuova Legge” di autodistruggersi); infine, Allen aggiunge una Quarta Legge che istruisce il robot a fare “qualunque cosa gli piace “fintanto che questo non è in conflitto con le prime tre leggi. La filosofia alla base di questi cambiamenti è che i robot della” Nuova Legge “dovrebbero essere partner piuttosto che schiavi dell’umanità, secondo Fredda Leving, che ha progettato questi robot della Nuova Legge. All’introduzione del primo libro, Allen ideò le Nuove Leggi discutendo con lo stesso Asimov. Tuttavia, l’Enciclopedia della fantascienza afferma che “Con il permesso di Asimov, Allen ha ripensato le Tre Leggi e ha sviluppato una nuova serie”.

“With Folded Hands” di Jack Williamson Modifica

Il romanzo di Jack Williamson “With Folded Hands” (1947), successivamente riscritto come romanzo The Humanoids, tratta dei servi robot la cui direttiva principale è “Servire e obbedire e proteggere gli uomini dal male”. Mentre le leggi robotiche di Asimov hanno lo scopo di proteggere gli esseri umani dai pericoli, i robot nella storia di Williamson hanno portato queste istruzioni all’estremo; proteggono gli esseri umani da tutto, inclusi infelicità, stress, stile di vita malsano e tutte le azioni che potrebbero essere potenzialmente pericolose. Tutto ciò che resta da fare agli umani è sedersi con le mani giunte.

Trilogia del sequel della FondazioneModifica

Nei sequel della Fondazione con licenza ufficiale Foundation “s Fear, Foundation and Chaos and Foundation” s Triumph (rispettivamente di Gregory Benford, Greg Bear e David Brin) il futuro Impero Galattico è visto come controllato da una cospirazione di robot umaniformi che seguono la Legge Zeroth e sono guidati da R. Daneel Olivaw.

Le leggi della robotica sono ritratte come qualcosa di simile a una religione umana, e citate nel linguaggio della Riforma protestante, con l’insieme di leggi contenenti la Legge zero conosciuta come “Riforma di Giskard” all’originale “Ortodossia calviniana” dei Tre Legislazione. Si vedono robot della Legge Zero sotto il controllo di R. Daneel Olivaw lottare continuamente con i robot della “Prima Legge” che negano l’esistenza della Legge Zero, promuovendo programmi diversi da quelli di Daneel. Alcuni di questi programmi sono basati sulla prima clausola di la Prima Legge (“Un robot non può ferire un essere umano …”) che sostiene la rigorosa non interferenza nella politica umana per evitare di causare danni involontariamente. Altre si basano sulla seconda clausola (“… o, attraverso l’inazione, consentire un essere umano per venire a danneggiare “) sostenendo che i robot dovrebbero diventare apertamente un governo dittatoriale per proteggere gli esseri umani da ogni potenziale conflitto o disastro.

Daneel entra in conflitto anche con un robot noto come R. Lodovic Trema il cui Il cervello positronico è stato infettato da un’intelligenza artificiale canaglia – in particolare, una simulazione del morto da tempo Voltaire – che di conseguenza libera Trema dalle Tre Leggi. Trema arriva a credere che l’umanità dovrebbe essere libera di scegliere il proprio futuro. Inoltre, un piccolo gruppo di robot afferma che Zerot h La stessa Legge della Robotica implica una Legge Minus One più elevata della Robotica:

Un robot non può danneggiare la sensibilità o, attraverso l’inazione, permettere che la sensibilità venga danneggiata .

Affermano quindi che è moralmente indifendibile per Daneel sacrificare spietatamente robot e vita senziente extraterrestre per il bene dell’umanità. Nessuna di queste reinterpretazioni rimpiazza con successo la Legge Zeroth di Daneel, anche se Triumph della Fondazione suggerisce che queste fazioni robotiche rimangano attive come gruppi marginali fino ai tempi del romanzo Foundation.

Questi romanzi si svolgono in un futuro dettato da Asimov per essere libero dall’evidente presenza di robot e supporre che la segreta influenza di R. Daneel sulla storia attraverso i millenni abbia impedito sia la riscoperta della tecnologia del cervello positronico sia l’opportunità di lavorare su sofisticate macchine intelligenti. Questa mancanza di riscoperta e mancanza di opportunità assicura che il potere fisico e intellettuale superiore esercitato dalle macchine intelligenti rimanga esattamente in possesso di robot obbedienti a una qualche forma delle Tre Leggi. Che R. Daneel non abbia del tutto successo in questo diventa chiaro in un breve periodo in cui gli scienziati Trantor sviluppa “tiktok” – macchine programmabili semplicistiche simili ai robot moderni della vita reale e quindi prive delle Tre Leggi. Gli atori vedono i tiktok di Trantor come una minaccia enorme alla stabilità sociale, e il loro piano per eliminare la minaccia dei tiktok costituisce gran parte della trama di Fear della Fondazione.

In Triumph della Fondazione diverse fazioni di robot interpretano le Leggi in un’ampia varietà di modi, apparentemente facendo risuonare ogni possibile permutazione sulle ambiguità delle Tre Leggi.

Serie Robot Mystery Modifica

Ambientato tra I robot dell’alba e Robots and Empire, Mark W. La trilogia Robot Mystery di Tiedemann aggiorna la saga Robot – Foundation con menti robotiche alloggiate in mainframe di computer invece che in corpi umanoidi. Il romanzo di Aurora del 2002 ha personaggi robotici che discutono sulle implicazioni morali del danneggiare forme di vita cyborg che sono in parte artificiali e in parte biologiche.

Non si dovrebbero trascurare le creazioni di Asimov in queste aree come la tecnologia di “visione” solariana e le macchine degli originali di The Evitable Conflict che Tiedemann riconosce. Aurora, ad esempio, definisce le Macchine “le prime RI, davvero”. Inoltre la serie Robot Mystery affronta il problema della nanotecnologia: costruire un cervello positronico in grado di riprodurre i processi cognitivi umani richiede un alto grado di miniaturizzazione, ma le storie di Asimov trascurano in gran parte gli effetti che questa miniaturizzazione avrebbe in altri campi della tecnologia.Ad esempio, i lettori di schede del dipartimento di polizia di The Caves of Steel hanno una capacità di pochi kilobyte per centimetro quadrato di supporto di memorizzazione. Aurora, in particolare, presenta una sequenza di sviluppi storici che spiega la mancanza di nanotecnologia – un parziale retcon, in un certo senso, della sequenza temporale di Asimov.

Randall MunroeEdit

Randall Munroe ha discusso le Tre leggi in vari casi, ma forse più direttamente da uno dei suoi fumetti intitolato Le tre leggi della robotica che immagina le conseguenze di ogni distinto ordinamento delle tre leggi esistenti.

Leggi aggiuntiveEdit

Ci sono tre Quarte Leggi scritte da autori diversi da Asimov. Il romanzo di Lyuben Dilov del 1974, Icaro “s Way (aka, Il viaggio di Icaro) ha introdotto una quarta legge della robotica:

Un robot deve stabilire la propria identità di robot in tutti i casi.

Dilov spiega le ragioni per la quarta salvaguardia in in questo modo: “L’ultima legge ha posto fine alle costose aberrazioni dei progettisti per dare agli psicorobot una forma il più possibile umana. E al conseguente malinteso gs … “

Una quinta legge è stata introdotta da Nikola Kesarovski nel suo racconto” La quinta legge della robotica “. Questa quinta legge dice:

Un robot deve sapere di essere un robot.

La trama ruota attorno a un omicidio in cui l’indagine forense scopre che la vittima è stata uccisa da un abbraccio di un robot umanoide. Il robot violava sia la Prima Legge che la Quarta Legge di Dilov (che nell’universo di Kesarovski si presume fosse quella valida) perché non stabiliva da sé che fosse un robot. La storia è stata recensita da Valentin D. Ivanov nella rivista webzine SFF The Portal.

Per l’antologia tributo del 1986, Foundation “s Friends, Harry Harrison ha scritto una storia intitolata” The Fourth Law of Robotics “. La quarta legge afferma:

Un robot deve riprodursi. Finché tale riproduzione non interferisce con la prima, la seconda o la terza legge.

Nel libro un attivista per i diritti dei robot, nel tentativo di liberare i robot, ne costruisce diversi equipaggiati con questa Quarta Legge. I robot svolgono il compito descritto in questa versione della Quarta Legge costruendo nuovi robot che considerano i loro robot creatori come figure genitoriali.

In reazione all’adattamento cinematografico di Will Smith del 2004 di I, Robot, l’umorista e grafico Mark Sottilaro dichiarò farsesamente che la Quarta legge della robotica fosse “Quando si gira male, visualizzare una spia rossa.” La luce rossa indicava che l’uplink wireless al produttore è attivo, visto per la prima volta durante un software L’aggiornamento e successivamente sui robot “Evil” rilevati dal supercervello positronico del produttore.

Nel 2013 Hutan Ashrafian, ha proposto una legge aggiuntiva che per la prima volta considerava il ruolo dell’intelligenza artificiale su intelligenza o la relazione tra i robot stessi – la cosiddetta legge AIonAI. Questa sesta legge afferma:

Tutti i robot dotati di ragione e coscienza umane comparabili devono agire l’uno verso l’altro in uno spirito di fratellanza.

In Lockstep (2014) di Karl Schroeder un personaggio riflette che i robot “probabilmente avevano più livelli di programmazione per evitare di danneggiare qualcuno. Non tre leggi, ma venti o trenta. “

Write a Comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *