Tres leyes de la robótica

Por AsimovEdit

Las historias de Asimov prueban sus Tres leyes en una amplia variedad de circunstancias que conducen a propuestas y al rechazo de modificaciones. El académico de ciencia ficción James Gunn escribe en 1982, «Las historias de robots Asimov en su conjunto pueden responder mejor a un análisis sobre esta base: la ambigüedad en las Tres Leyes y las formas en que Asimov interpretó veintinueve variaciones sobre un tema». Mientras que el conjunto original de Leyes proporcionó inspiración para muchas historias, Asimov introdujo versiones modificadas de vez en cuando.

Primera ley modificadaEditar

En «Little Lost Robot» varios NS-2, o «Nestor», los robots son creado con solo una parte de la Primera Ley. Dice:

1. Un robot no puede dañar a un ser humano.

Esta modificación está motivada por una dificultad práctica, ya que los robots tienen que trabajar junto a seres humanos expuestos a bajas dosis de radiación. Porque sus cerebros positrónicos son altos Y sensibles a los rayos gamma, los robots se vuelven inoperantes con dosis razonablemente seguras para los humanos. Los robots están siendo destruidos intentando rescatar a los humanos que no están en peligro real pero que «podrían olvidarse de abandonar» el área irradiada dentro del límite de tiempo de exposición. La eliminación de la cláusula de «inacción» de la Primera Ley resuelve este problema pero crea la posibilidad de uno aún mayor: un robot podría iniciar una acción que dañaría a un humano (dejar caer un peso pesado y no atraparlo es el ejemplo que se da en el texto), sabiendo que era capaz de prevenir el daño y luego decide no hacerlo.

Gaia es un planeta con inteligencia colectiva en la serie de la Fundación que adopta una ley similar a la Primera Ley, y la La Ley Cero, como su filosofía:

Gaia no puede dañar la vida ni permitir que la vida se dañe.

Se agregó la Ley CeroEditar

Una vez Asimov agregó una «Ley Cero», llamada así para continuar el patrón donde las leyes de números más bajos reemplazan a las leyes de números más altos, indicando que un robot debe no dañar a la humanidad. El personaje robótico R. Daneel Olivaw fue el primero en darle un nombre a la Ley Cero en la novela Robots and Empire; sin embargo, el personaje Susan Calvin articula el concepto en el cuento «The Evitable Conflict».

En las escenas finales de la novela Robots and Empire, R. Giskard Reventlov es el primer robot en actuar de acuerdo con la Ley Zeroth. Giskard es telepático, como el robot Herbie en el cuento «¡Mentiroso!», E intenta aplicar la Ley Cero a través de su comprensión de un concepto más sutil de «daño» de lo que la mayoría de los robots pueden comprender. Sin embargo, a diferencia de Herbie, Giskard capta el concepto filosófico de la Ley Cero permitiéndole dañar a seres humanos individuales si puede hacerlo al servicio del concepto abstracto de humanidad. La Ley Cero nunca está programada en el cerebro de Giskard, sino que es una regla que intenta comprender a través de la metacognición pura. Aunque falla, finalmente destruye su cerebro positrónico, ya que no está seguro de si su elección resultará ser la definitiva. bien de la humanidad o no – le da a su sucesor R. Daneel Olivaw sus habilidades telepáticas. A lo largo de muchos miles de años, Daneel se adapta para poder obedecer completamente la Ley Cero. Como Daneel la formula, en las novelas Fundación y Tierra y Preludio de la Fundación, la Ley Cero dice:

Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daño.

Se agregó a las Tres Leyes originales una condición que establecía que la Ley Cero no debe ser violada, aunque Asimov reconoció la dificultad que esa ley plantearía en la práctica. Asimov La novela Foundation and Earth contiene el siguiente pasaje:

Trevize frunció el ceño. «¿Cómo se decide qué es perjudicial o no perjudicial para la humanidad en su conjunto?»

«Precisamente, señor», dijo Daneel. «En teoría, la Ley Cero era la respuesta a nuestros problemas. En la práctica, nunca podríamos decidir. Un ser humano es un objeto concreto. La lesión de una persona puede estimarse y juzgarse. La humanidad es una abstracción».

Un traductor incorporó el concepto de la ley cero en una de las novelas de Asimov antes de que el propio Asimov hiciera explícita la ley. Cerca del clímax de Las cuevas de acero, Elijah Baley hace un comentario amargo para sí mismo pensando que la Primera Ley prohíbe a un robot dañar a un ser humano. Él determina que debe ser así a menos que el robot sea lo suficientemente inteligente como para comprender que sus acciones son para el bien de la humanidad a largo plazo. En la traducción francesa de Jacques Brécard de 1956 titulada Les Cavernes d «acier Baley», los pensamientos emergen de una manera ligeramente diferente:

Un robot no puede dañar a un ser humano, a menos que encuentre una manera de demostrar que, en última instancia, el daño causado beneficiaría a la humanidad en general.

Eliminación de las Tres LeyesEditar

Tres veces durante su carrera como escritor, Asimov retrató robots que ignoran por completo las Tres Leyes. El primer caso fue un cuento titulado «Primera ley» y a menudo se considera un «cuento» insignificante o incluso apócrifo. Por otro lado, el cuento «Cal» (de la colección Gold), contado por un robot narrador en primera persona, presenta a un robot que ignora las Tres Leyes porque ha encontrado algo mucho más importante: quiere ser escritor. . Humorística, en parte autobiográfica y de estilo inusualmente experimental, «Cal» ha sido considerada como una de las historias más fuertes de Gold. La tercera es una historia corta titulada «Sally» en la que los autos equipados con cerebros positrónicos aparentemente pueden dañar y matar humanos sin tener en cuenta la Primera Ley. Sin embargo, aparte del concepto de cerebro positrónico, esta historia no se refiere a otras historias de robots y puede que no tenga la misma continuidad.

La historia del título de la colección Robot Dreams retrata a LVX-1, o «Elvex», un robot que entra en un estado de inconsciencia y sueña gracias a la inusual construcción fractal de su cerebro positrónico. En su sueño, las dos primeras leyes están ausentes y la tercera ley dice «Un robot debe proteger su propia existencia «.

Asimov adoptó diversas posiciones sobre si las leyes eran opcionales: aunque en sus primeros escritos eran simplemente salvaguardas cuidadosamente diseñadas, en historias posteriores Asimov afirmó que eran una parte inalienable de la base matemática n subyacente al cerebro positrónico. Sin la teoría básica de las Tres Leyes, los científicos ficticios del universo de Asimov serían incapaces de diseñar una unidad cerebral funcional. Esto es históricamente consistente: las ocasiones en las que los roboticistas modifican las Leyes generalmente ocurren al principio de la cronología de las historias y al mismo tiempo cuando hay menos trabajo existente por rehacer. En «Little Lost Robot», Susan Calvin considera que modificar las leyes es una idea terrible, aunque posible, mientras que siglos después, el Dr. Gerrigel en Las cuevas de acero cree que es imposible.

El personaje Dr. Gerrigel utiliza el término «Asenion» para describir los robots programados con las Tres Leyes. Los robots en las historias de Asimov, siendo robots Asenion, son incapaces de violar a sabiendas las Tres Leyes pero, en principio, un robot en ciencia ficción o en el mundo real podría no ser Asenion. «Asenion» es un error ortográfico del nombre Asimov que fue hecha por un editor de la revista Planet Stories. Asimov usó esta oscura variación para insertarse en Las Cuevas del Acero tal como se refirió a sí mismo como «Azimut o, posiblemente, Asymptote» en Thiotimoline to the Stars, en gran parte de la misma manera en que Vladimir Nabokov apareció en Lolita disfrazado anagramáticamente como «Vivian Darkbloom».

Los personajes de las historias a menudo señalan que las Tres Leyes, tal como existen en la mente de un robot, no son las versiones escritas generalmente citados por humanos, pero conceptos matemáticos abstractos en los que se basa toda la conciencia en desarrollo de un robot. Este concepto es en gran parte difuso y poco claro en historias anteriores que representan robots muy rudimentarios que solo están programados para comprender las funciones físicas básicas ks, donde las Tres Leyes actúan como una salvaguarda general, pero en la era de Las Cuevas del Acero con robots con inteligencia humana o más allá de la humana, las Tres Leyes se han convertido en la cosmovisión ética básica subyacente que determina las acciones de todos los robots.

Por otros autoresEditar

Trilogía de Roger MacBride AllenEditar

En la década de 1990, Roger MacBride Allen escribió una trilogía que se ambienta dentro del universo ficticio de Asimov. Cada título tiene el prefijo «Isaac Asimov», ya que Asimov había aprobado el esquema de Allen antes de su muerte. Estos tres libros, Caliban, Inferno y Utopia, presentan un nuevo conjunto de las Tres Leyes. Las llamadas Nuevas Leyes son similares a las originales de Asimov con las siguientes diferencias: la Primera Ley se modifica para eliminar la cláusula de «inacción», la misma modificación realizada en «Little Lost Robot»; la Segunda Ley se modifica para requerir cooperación en lugar de obediencia; la Tercera Ley se modifica para que ya no sea reemplazada por la Segunda (es decir, no se puede ordenar a un robot de «Nueva Ley» que se destruya a sí mismo); finalmente, Allen agrega una Cuarta Ley que instruye al robot a hacer «lo que sea le gusta «siempre que esto no entre en conflicto con las tres primeras leyes. La filosofía detrás de estos cambios es que los robots de la» Nueva Ley «deberían ser socios en lugar de esclavos de la humanidad, según Fredda Leving, quien diseñó estos Robots de la Nueva Ley. Para la introducción del primer libro, Allen ideó las Nuevas Leyes en discusión con el propio Asimov. Sin embargo, la Enciclopedia de ciencia ficción dice que «Con el permiso de Asimov, Allen repensó las Tres Leyes y desarrolló un nuevo conjunto».

Jack Williamson «Con las manos juntas» Editar

La novela de Jack Williamson «Con las manos juntas» (1947), posteriormente reescrita como la novela Los humanoides, trata sobre sirvientes robot cuya directriz principal es «Servir y obedecer, y proteger a los hombres del daño». Mientras que las leyes robóticas de Asimov están destinadas a proteger a los humanos de cualquier daño, los robots en la historia de Williamson han llevado estas instrucciones al extremo; protegen a los seres humanos de todo, incluida la infelicidad, el estrés, el estilo de vida poco saludable y todas las acciones que podrían ser potencialmente peligrosas. Todo lo que les queda por hacer a los humanos es sentarse con las manos juntas.

Trilogía de la secuela de la FundaciónEditar

En las secuelas de la Fundación con licencia oficial Foundation «s Fear, Foundation y Chaos and Foundation» s Triumph (por Gregory Benford, Greg Bear y David Brin respectivamente) el futuro Imperio Galáctico se ve controlado por una conspiración de robots humaniformes que siguen la Ley Cero y son dirigidos por R. Daneel Olivaw.

El Las leyes de la robótica se describen como algo parecido a una religión humana, y se las menciona en el lenguaje de la Reforma Protestante, con el conjunto de leyes que contienen la Ley Cero conocida como la «Reforma Giskardiana» a la «Ortodoxia Calviniana» original de los Tres. Leyes. Se ve a los robots de la Ley Zeroth bajo el control de R. Daneel Olivaw luchando continuamente con los robots de la «Primera Ley» que niegan la existencia de la Ley Zeroth, promoviendo agendas diferentes a las de Daneel. Algunas de estas agendas se basan en la primera cláusula de la Primera Ley («Un robot no puede dañar a un ser humano …») que aboga por una estricta no interferencia en la política humana para evitar causar daños involuntariamente. Otras se basan en la segunda cláusula («… o, por inacción, permitir un ser humano para sufrir daño «) afirmando que los robots deberían convertirse abiertamente en un gobierno dictatorial para proteger a los humanos de todo posible conflicto o desastre.

Daneel también entra en conflicto con un robot conocido como R. Lodovic Trema cuyo El cerebro positrónico fue infectado por una IA deshonesta, específicamente, una simulación del fallecido Voltaire, que en consecuencia libera a Trema de las Tres Leyes. Trema llega a creer que la humanidad debería ser libre de elegir su propio futuro. Además, un pequeño grupo de robots afirma que el Zerot h La ley de la robótica en sí implica una ley de la robótica menos uno superior:

Un robot no puede dañar la sensibilidad o, por inacción, permitir que la sensibilidad resulte dañada. .

Por lo tanto, afirman que es moralmente indefendible que Daneel sacrifique despiadadamente robots y vida extraterrestre en beneficio de la humanidad. Ninguna de estas reinterpretaciones desplazó con éxito la Ley Cero de Daneel, aunque Triumph de la Fundación insinúa que estas facciones robóticas permanecen activas como grupos marginales hasta el momento de la novela La Fundación.

Estas novelas tienen lugar en un futuro dictado por Asimov para estar libre de la presencia obvia de un robot y suponer que la influencia secreta de R. Daneel en la historia a través de los milenios ha impedido tanto el redescubrimiento de la tecnología del cerebro positrónico como la oportunidad de trabajar en sofisticadas máquinas inteligentes. Esta falta de redescubrimiento y falta La oportunidad asegura que el poder físico e intelectual superior ejercido por las máquinas inteligentes permanezca directamente en posesión de robots obedientes a alguna forma de las Tres Leyes. Que R. Daneel no tiene un éxito total en esto se hace evidente en un breve período cuando los científicos en Trantor desarrolla «tiktoks»: máquinas programables simplistas similares a los robots modernos de la vida real y, por lo tanto, carecen de las Tres Leyes. Los expertos ven a los tiktoks de Trantoriano como una amenaza masiva para la estabilidad social, y su plan para eliminar la amenaza tiktok forma gran parte de la trama de Foundation «s Fear.

En Foundation» s Triumph, diferentes facciones de robots interpretan las Leyes en una amplia variedad de formas, aparentemente haciendo sonar cada posible permutación sobre las ambigüedades de las Tres Leyes.

Serie Robot MysteryEditar

Ambientada entre The Robots of Dawn y Robots e Empire, Mark W. La trilogía Robot Mystery de Tiedemann actualiza la saga Robot – Foundation con mentes robóticas alojadas en computadoras centrales en lugar de cuerpos humanoides. La novela de Aurora de 2002 tiene personajes robóticos que debaten las implicaciones morales de dañar formas de vida cyborg que son en parte artificiales y en parte biológicas.

No se deben descuidar las propias creaciones de Asimov en estas áreas, como la tecnología de «visualización» solariana. y las máquinas originales de The Evitable Conflict que Tiedemann reconoce. Aurora, por ejemplo, denomina a las Máquinas «las primeras IR, en realidad». Además, la serie Robot Mystery aborda el problema de la nanotecnología: construir un cerebro positrónico capaz de reproducir procesos cognitivos humanos requiere un alto grado de miniaturización, sin embargo, las historias de Asimov pasan por alto en gran medida los efectos que esta miniaturización tendría en otros campos de la tecnología.Por ejemplo, los lectores de tarjetas del departamento de policía de The Caves of Steel tienen una capacidad de sólo unos pocos kilobytes por centímetro cuadrado de medio de almacenamiento. Aurora, en particular, presenta una secuencia de desarrollos históricos que explican la falta de nanotecnología – una retcon parcial, en cierto sentido, de la línea de tiempo de Asimov.

Randall MunroeEdit

Randall Munroe ha discutido las Tres Leyes en varios casos, pero posiblemente más directamente por uno de sus cómics titulado Las Tres Leyes de la Robótica que imagina las consecuencias de cada ordenamiento distinto de las tres leyes existentes.

Leyes adicionalesEditar

Hay tres Cuartas Leyes escritas por autores distintos a Asimov. La novela de Lyuben Dilov de 1974, El camino de Ícaro (también conocido como El viaje de Ícaro) introdujo una Cuarta Ley de la robótica:

Un robot debe establecer su identidad como robot en todos los casos.

Dilov da razones para la cuarta salvaguarda en de esta manera: «La última Ley ha puesto fin a las costosas aberraciones de los diseñadores para dar a los psicorobots una forma lo más humana posible. Y al malentendido resultante gs … «

Nikola Kesarovski introdujo una quinta ley en su cuento» La quinta ley de la robótica «. Esta quinta ley dice:

Un robot debe saber que es un robot.

La trama gira en torno a un asesinato donde la investigación forense descubre que la víctima fue asesinada por un abrazo de un robot humaniforme. El robot violó tanto la Primera Ley como la Cuarta Ley de Dilov (asumidas en el universo de Kesarovski como la válida) porque no estableció por sí mismo que era un robot. La historia fue revisada por Valentin D. Ivanov en la revista webzine The Portal de la SFF.

Para la antología de homenaje de 1986, Foundation’s Friends, Harry Harrison escribió una historia titulada «La cuarta ley de la robótica». La Cuarta Ley establece:

Un robot debe reproducirse. Siempre que dicha reproducción no interfiera con la Primera, Segunda o Tercera Ley.

En el libro, un activista por los derechos de los robots, en un intento por liberar robots, construye varios equipados con esta Cuarta Ley. Los robots cumplen la tarea establecida en esta versión de la Cuarta Ley mediante la construcción de nuevos robots que ven a sus robots creadores como figuras paternas.

En reacción a la adaptación cinematográfica de Will Smith de 2004 de Yo, Robot, el humorista y diseñador gráfico Mark Sottilaro declaró de manera absurda que la Cuarta Ley de la Robótica era «Cuando te vuelvas malvado, muestra una luz indicadora roja». La luz roja indicaba que el enlace ascendente inalámbrico al fabricante está activo, visto por primera vez durante una guerra de software La actualización y más tarde los robots «Evil» asumidos por el supercerebro positrónico del fabricante.

En 2013, Hutan Ashrafian, propuso una ley adicional que por primera vez consideró el papel de la inteligencia artificial en inteligencia o la relación entre los propios robots: la llamada ley AIonAI. Esta sexta ley establece:

Todos los robots dotados de una razón y una conciencia humanas comparables deben actuar entre sí con un espíritu de hermandad.

En Lockstep (2014) de Karl Schroeder, un personaje refleja que los robots «probablemente tenían múltiples capas de programación para evitar dañar a nadie. No tres leyes, sino veinte o treinta «.

Write a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *