Sobre las leyes de la robotica de Isaac Asimov

Iniciado por crazykenny, 22 Septiembre 2016, 21:47 PM

0 Miembros y 2 Visitantes están viendo este tema.

crazykenny

Hola, vereis, ultimamente he estado pensando en lo rapido que esta avanzando la tecnologia y ordenadores en general, y, por otra parte, el hecho de que algunas cosas que tenemos ahora eran impensables hace mas de dos decadas (o mas).

Entonces, y, dada la situacion, ¿hasta que punto seria posible implementar las leyes planteadas por Isaac Asimov en un futuro?. Y, bueno, comentar que no me refiero solo a los robots que menciona en su novela, sino mas bien a toda tecnología que pueda aparecer eventualmente.

Dicho sea de paso, quisiera comentar que en este tema, ademas de las tres leyes que menciona, tambien quisiera incluir la "ley cero", y, bueno, para los que no han leido o desconocen el tema, quisiera añadir un apunte de estas

https://es.wikipedia.org/wiki/Tres_leyes_de_la_rob%C3%B3tica

1a ley: Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2a ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3a ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley

Ley "cero": Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.


Por mi parte, no digo que sea imposible, pero de momento no seria viable (o muy dificil) conseguirlo a corto y medio plazo: no obstante, creo que la segunda ley es una excepcion (o, almenos, la primera parte), ya que menciona que "un robot debe obedecer las órdenes dadas por un ser humano", y, bueno, esta tarea es la que esta realizando toda maquina, ordenador, etc.

Muchas gracioas por vuestra atencion, y, bueno, saludos.
A nivel personal, lo que me da mas miedo no son los planteamientos y acciones individuales, sino las realizadas en grupo, ya que estas ultimas pueden acabar con consecuencias especialmente nefastas para todos.
Se responsable, consecuente y da ejemplo.
http://informaticayotrostemas.blogspot.com.es/2013/12/situacion-de-la-educacion-actual-en.html
https://informaticayotrostemas.blogspot.com/

Hason

Yo creo que en 10-20-30 años se va a avanzar una barbaridad, actualmente ya hay robots, muchos ni los conocemos y no paran de desarrolarse.

Por ejemplo:

http://www.culturasocial.org/los-10-robots-humanoides-mas-avanzados-que-existen/

Pero hay muchos mas, sobre todo militares, donde se desarrolan mucho.

Por lo tanto , si se desarrollan robots militares, seran para matar, por lo tanto las leyes estas no se aplicaran.
Por otro lado, supongo podrian ser hackeados para el interes que fuera.
Ademas de que si tan evolucionados son, podrian llegar a autoreplicarse o tomar conciencia, incluso tomarnos a los humanos como una plaga, o como un peligro para ellos.

Mi humilde opinion.

Da mucho que hablar y me parece interesante, no he leido el libro de Isaac Asimov.

Saludos.
Verse constantemente expuesto al peligro puede generar desprecio hacia él.
El que resiste, gana
Aníbal sabía como conseguir la victoria, pero no cómo utilizarla

https://amaltea.wordpress.com/2008/03/06/proverbios-y-refranes-grecolatinos/

okik

#2
Un dron es técnicamente un robot y ya estamos viendo como con este bicho no se cumplen esas leyes con los drones de combate.

Yo creo que esas leyes están más pensadas para la 'inteligencia artificial' propia de los robots de la ficción de Asimov.

Si se va a crear un robot con inteligencia artificial capaz de tomar decisiones (no programadas) por sí mismo, sería muy peligroso que se tornasen en contra de cualquier ser humano. Sobre todo y especialmente con robots de combate y armados.

MCKSys Argentina

Cita de: Hason en 22 Septiembre 2016, 23:05 PM
Ademas de que si tan evolucionados son, podrian llegar a autoreplicarse o tomar conciencia, incluso tomarnos a los humanos como una plaga, o como un peligro para ellos.

Creo que miras demasiadas películas...  :)

Saludos!
MCKSys Argentina

"Si piensas que algo está bien sólo porque todo el mundo lo cree, no estás pensando."


engel lex

Asimov era un utopista, si lees sus novelas veras que la gente practicamente nunca intentó violar las reglas de la robótica y de todas formas por la naturaleza del cerebro positronico era dificil lograrlo

Hoy dia es muy dificil que las tengan... primero tienen que saber que es un humano y entenderlo, basicamente hasta que no necesites psicología para robots, estas leyes no son utiles
El problema con la sociedad actualmente radica en que todos creen que tienen el derecho de tener una opinión, y que esa opinión sea validada por todos, cuando lo correcto es que todos tengan derecho a una opinión, siempre y cuando esa opinión pueda ser ignorada, cuestionada, e incluso ser sujeta a burla, particularmente cuando no tiene sentido alguno.

El_Andaluz

CitarPor lo tanto , si se desarrollan robots militares, seran para matar, por lo tanto las leyes estas no se aplicaran.
Por otro lado, supongo podrian ser hackeados para el interes que fuera.
Ademas de que si tan evolucionados son, podrian llegar a autoreplicarse o tomar conciencia, incluso tomarnos a los humanos como una plaga, o como un peligro para ellos.
:xD

Orubatosu

Bueno, pongamos las cosas en contexto.

Asimov fue un escritor prolifico, pero mucho. Pero su "ciencia ficción" aunque hay que reconocerle también su faceta divulgativa (que es enorme y abarca muchas áreas) es mas "imaginativa" que realista. Nunca fue un escritor de "ciencia ficción dura", sino que orientó su obra mas hacia la fantasía.

Su "cerebro positrónico" no es mas que un nombre bonito dado a algo inexistente y sin base. De hecho tecnicamente no veo que ventaja tendría un "cerebro" que funcione con electrones de antimateria (en todo caso me parecería algo muy peligroso). Esa un nombre "resulton" para la sci-fi de la época. Tengamos en cuenta que la obra de Asimoc empieza en la década de los años 40 y 50. En la época de la preguerra y todo eso.

Aunque fue un divulgador de ciencia extraordinario, ver su obra de ficción como algo "serio" es un error. Sus novelas están llenas de esas fantasías y tienen mas de psicologia e historia que otra cosa. Sus obras sobre robots son cuentos y novelas sobre la naturaleza humana con un enfoque original, como la famosa "Franquestein" es una obra sobre el comportamiento humano enfocado desde "fuera del mismo".

En otra de sus sagas incluso se mete en una ciencia inexistente teórica (que no tiene mucho sentido) llamada "psicohistoria", que termina fundiendose con la saga de los robots y termina metiendose en jardines místicos espirituales bastante graciosos.

Sus "leyes" no son mas que un reflejo de los miedos de la época, del "complejo de franquestein". El formuló unas "leyes" que asumió definirían una diferencia fundamental entre sus personajes humanos, y los que no lo son. Jugó de hecho mucho con ellas viendo como podrían torcerse, entrar en conflicto, etc. Pero no son un intento "serio" de definir unos modelos a seguir.

¿Puede un robot tomar consciencia de su mismo?

No lo sabemos. Si definimos un robot como "un artefacto construido por el hombre con un propósito" entramos en un territorio inexplorado. No sabemos en realidad que es la consciencia o como definirla exactamente. O mejor dicho, podemos darle una definición, pero no podemos comprobarla.

Cualquier persona "sabe" que es consciente, pero no tiene forma de saber que otra persona lo es también. Asume que lo es por el principio de que "yo soy una persona y soy consciente, otras personas también deben de serlo porque no es lógico pensar que soy la única persona consciente". Pero no podemos "meternos" dentro de otra cabeza y comprobar que es consciente.

Tenemos eso si algunos "tests" como el famoso de Turing, que se ha demostrado no es lo que se dice muy fiable. Hay programas que son capaces de engañar bastante bien a las personas simulando una conversación inteligente, y sabemos perfectamente que detrás de esa conversación no hay mas inteligencia que la que podamos asignar a un aspirador.

¿Podría crearse una "forma de vida" mecánica que evolucionara por si misma?

Teóricamente si desde luego, pero eso de momento está fuera de nuestro alcance a nivel tecnológico (no sabemos durante cuanto tiempo). Una forma de "vida" por asi llamarla construida para autoevolucionar sería algo posiblemente incomprensible para nosotros a medio plazo. La evolución la llevaría... no sabemos a donde. Hay formas de "vida" extremadamente simples que son muy peligrosas (como algunos virus) y no tienen ni consciencia ni inteligencia, solo capacidad de infección y autoreplicación.

El que quiera leer algo de ficción de ese estilo, le recomiendo el libro "El Invencible" de Stanislaw Lem, donde aparece una "forma de vida mecánica" extremadamente peligrosa, pero carente de inteligencia o consciencia como tal como ejemplo de algo "parecido" a lo que plantea Hason y que teoriza sobre una forma de "vida mecánica" de ese estilo, pero producto de algo completamente diferente.

El pensar en "robots humanoides que persiguen humanos" es algo ridículo, una expresión del miedo a lo que no se conoce y poco mas.
"When People called me freak, i close my eyes and laughed, because they are blinded to happiness"
Hideto Matsumoto 1964-1998

Hason

Haber, si,reconozco que he visto demasiadas peliculas, y cuando digo demasiadas, son demasiadas.

Buscar robots militares, vereis que hay unos cuantos, teledirigidos, con capacidad para que entre un humano en su interior, y autonomos programables, estan avanzando mucho en el campo militar, y por supuesto estos robots son para matar y destruir.

En cuanto a lo que he comentado de:

Ademas de que si tan evolucionados son, podrian llegar a autoreplicarse o tomar conciencia, incluso tomarnos a los humanos como una plaga, o como un peligro para ellos.

No me refiero ahora, pero si continua evolucionando, no sabemos hasta donde llegaran, dile tu por ejemplo a uno de la epoca romana, que iba a haber lo que hay ahora, y no se lo creeria, de igual forma, vete tu a saber que tecnologia lograremos, ya no dentro de 30 años, si no dentro de 1000 años, puede ser algo sorprendente.

Si tomaran conciencia, podrian pensar que somos peligrosos para ellos, jajaja, lo he pensado por la pelicula virus.

Me gustaria leer el libro que comenta Orubatosu, pero si no esta la pelicula, de momento no aunque he ojeado la trama del libro y parece muy interesante, vamos, del tipo de relatos que me van.

Si tengo algun rato pondre robots militares ya vereis, hay unos cuantos,los vi en su dia, mejor buscarlos y ponerlo alguien.

Saludos.
Verse constantemente expuesto al peligro puede generar desprecio hacia él.
El que resiste, gana
Aníbal sabía como conseguir la victoria, pero no cómo utilizarla

https://amaltea.wordpress.com/2008/03/06/proverbios-y-refranes-grecolatinos/

Orubatosu

La autoreplicación es un concepto mas viejo que el mear, es lo que se conoce como "maquinas Von Newman" aunque el concepto no es solo suyo.

El principal problema que le veo es que el tema es terriblemente complejo, y si se lleva a la practica se empezará posiblemente con nanomáquinas autoreplicables.

Y de ahi a una consciencia... media un abismo (o dos abismos)
"When People called me freak, i close my eyes and laughed, because they are blinded to happiness"
Hideto Matsumoto 1964-1998

#!drvy

Un dron ya sea de combate o civil, no es mas que una maquina tonta. No se le puede aplicar a este caso. Si, pueden tener cierta "inteligencia artificial" para determinar ciertas cosas pero ni de lejos ni a años luz están cerca de lo que Asimov quería expresar.

Estos drones siempre cumplen una rutina implementada y no son capaces de ir mas allá de ello. De hecho me atreveria a decir que este es el caso de la gran mayoria (por no decir todos) de los robots que conocemos.

Todos ellos "piensan" en base a con lo que fueron programados y no pueden salirse de su rutina y pensar por ellos mismos. Por ponerlo de forma simple, por muy "badass" que sea un dron militar, si no le implementas una funcion para reconocer a a los aliados y si no haces una llamada a esa funcion antes de que el robot se ponga a disparar o soltar bombas, matara a todos igualmente.. de hecho, no sabe que esta matando a alguien, solo sabe que tiene una llamada a una funcion que le dice que accione cierto mecanismo.

Eso bajo mi punta de vista no es inteligencia tal y como lo conocemos nosotros. Solo son rutinas. Si a un robot domestico no le implementas una funcion para lavar platos, no le enseñas lo que es un plato, un grifo, el agua, el detergente y todas las variables, cuando le digas que te lave los platos, lo mas seguro es que te tire un "Exception" y se te mande lavarlos a ti :/

Por eso, esas leyes no son aplicables. Porque no tenemos una inteligencia artificial capaz de comprender las reglas ni a que se aplican.

Saludos