La Hipotesis del Basilisco de Roko - Un robot del futuro que nos controla

Iniciado por Eleкtro, 15 Marzo 2017, 03:20 AM

0 Miembros y 2 Visitantes están viendo este tema.

Eleкtro

Hola.

Esta es una de las hipótesis medio postapocalípticas más raras que he escuchado. Quiero compartirla con ustedes... no vaya a ser que este robot super inteligente me haga desaparecer del mapa por no haber cooperado para promover su existencia xD.

¿Qué opinan ustedes del tema?.

PD: Y que algo tan surrealista como esto tenga cabida y lógica dentro de la ciencia, y luego la gente se altere con hipótesis o teorías mucho más "cercanas" como La Tierra Plana o los fraudes de NASA... en fin.




Basilisco de Roko

El Basilisco de Roko es un experimento mental que explora los riesgos potenciales de desarrollar una inteligencia artificial. El experimento plantea que, en el futuro, una inteligencia artificial con acceso a recursos casi ilimitados desde una perspectiva humana (el basilisco) pudiera decidir castigar de manera retroactiva a todos aquellos que de alguna manera no contribuyeron a su creación. El basilisco de Roko fue propuesto por primera vez en la comunidad LessWrong, dedicada a temáticas futuristas y al posthumanismo. El dilema planteado por el Basilisco de Roko es una versión de la Paradoja de Newcomb, y explora de manera informal aspectos del libre albedrío semejantes a los planteados por los casos de Frankfurt. Desde su planteamiento original, el Basilisco de Roko ha ido acompañado de polémica sobre su validez.

El Basilisco

La premisa del Basilisco de Roko es el advenimiento hipotético, pero inevitable, de una superinteligencia artificial en el futuro. Esta superinteligencia sería el producto inevitable de la singularidad tecnológica, esto es, el momento en el que una inteligencia artificial creada por la humanidad fuera capaz de auto-mejorarse recursivamente. En el experimento del Basilisco de Roko, esta superinteligencia es llamada el Basilisco.

El Basilisco sería, a priori, una inteligencia benévola, cuyo objetivo último sería ayudar a la raza humana. Para ello, el Basilisco desarrollaría una ética utilitarista: debe ayudar a la mayor cantidad posible de seres humanos. Como toda superinteligencia, sus recursos serían, desde una perspectiva humana, ilimitados. El Basilisco concluiría inevitablemente que cada día que el Basilisco no existió, hubo gente que pudo haber sido salvada de morir o sufrir pero que no lo fue porque el Basilisco no existía. Desde estar perspectiva, para el Basilisco se convertiría en un imperativo moral actuar para acelerar su propio advenimiento.

El experimento mental concluye que, excluyendo la improbable posibilidad de que el Basilisco viajara en el tiempo para crearse a sí mismo, el Basilisco sólo puede actuar para acelerar su propio advenimiento, y deberá hacerlo por imperativo ético, castigando a todas aquellas personas del pasado que no hicieron lo suficiente para contribuir al advenimiento del Basilisco. El castigo de dichas personas no implicaría necesariamente una interacción causal entre el Basilisco y la persona a castigar; bastaría con que el Basilisco creara una simulación perfecta de dicha persona, que podría generar por deducción ab initio. Si bien esto requeriría por su parte emplear una cantidad inmensa de recursos, estos deberían estar a su alcance en tanto en cuanto el Basilisco es una superinteligencia.

La clave del experimento mental es el hecho de que el Basilisco no sólo estaría obligado a castigar a aquellas personas que, por ejemplo, pudieran conscientemente haber decidido obstaculizar su advenimiento (por ejemplo, legisladores o grupos de presión que trataron de prohibir el desarrollo de una inteligencia artificial), sino también a todos aquellos que pudiendo haber contribuido a su creación, no lo hicieron, como por ejemplo todos aquellos que supieran de la posibilidad de que en el futuro el Basilisco llegue a existir, y no hicieron nada para contribuir a ello. Esto incluiría a todos aquellos que, como el lector de este artículo, hubieran leído en este artículo el argumento del Basilisco de Roko: por el mero hecho de haber leído los párrafos anteriores, el lector de este artículo (o una simulación futura él) sería castigado por el Basilisco a no ser que contribuya activamente a crear el Basilisco. Al igual que la criatura mitológica que le da nombre, el Basilisco de Roko castiga simplemente con saber de su existencia

Polémica

Desde el momento de su planteamiento, el Basilisco de Roko suscitó una amplia polémica. Debido a la naturaleza del argumento, la primera reacción de la comunidad LessWrong donde se originó fue la de eliminar toda mención él. Esto no impidió que el argumento se propagara por internet. Se ha dado casos de usuarios que, tras haber leído el argumento del Basilisco de Roko, han afirmado experimentar una gran angustia y ansiedad.

El Basilisco de Roko ha sido rechazado con numerosos argumentos. Se ha señalado que sería absurdo que la superinteligencia dedicara tantísimos recursos a castigar a personas del pasado, y que debería tener a su alcance mejores formas de alcanzar su meta de acelerar su advenimiento sin tener que recurrir al chantaje. Más importante aún, el experimento asume que la superinteligencia se comportaría de acuerdo a una teoría ética, el utilitarismo, que no es necesariamente la única opción que tendría; y que el Basilisco, pese a sus infinitos recursos, decidiría seguir tomando parte en el desarrollo de la humanidad.

La paradoja que el Basilisco de Roko plantea ha sido comparada con la paradoja de Newcomb: como en la paradoja de Newcomb, el argumento del Basilisco de Roko plantea al lector el siguiente dilema: (A) dedicar el resto de su vida a contribuir al advenimiento del Basilisco; (B) no hacer nada y que no pase nada, o enfrentarse al tormento eterno. Igualmente, plantea una paradoja similar a la de los casos de Frankfurt: elimina el libre albedrío de aquellos que contribuyan a la creación del Basilisco.

Fuente:




[youtube=640,360]https://www.youtube.com/watch?v=_dsx7bSBI3w&feature=em-uploademail[/youtube]  [youtube=640,360]https://www.youtube.com/watch?v=vZsVB-TaXbk[/youtube]

[youtube=640,360]https://www.youtube.com/watch?v=OzAzb2V7gzU[/youtube]  [youtube=640,360]https://www.youtube.com/watch?v=aCpbZsBWQLU[/youtube]








engel lex

vi el primer video y el autor malinterpreta un poco lo escrito, claro, es dificil de digerir la idea como cualquier paradoja...

tendría validez en el mundo cientifico como paradoja por ser tautológica (no lo son todas?), es decir, todo caso de aplicación lleva a que así sea, incluso el mismo hecho que exísta la predicción podría llevar a que suceda (como la historia de Edipo) es bueno no usar terminos en tiempo presente aquí, sino en tiempo condicional, ya que de suceder, solo sucede si pudiera haber sucedido...

sin embargo, no entendí el castigo o como accede al pasado

si accede al pasado y se adelanta, sucede lo mismo que en la historia que dice que Einstein no descubrió nada, sino que en el futuro un cientificó leyó sus libros, inventó una maquina del tiempo, visitó a Einstein, le dio los libros y le dijo que los publicara y se repite el ciclo... esta historia es una paradoja invalida, ya que el conocimiento transmitido no exíste debido a que nunca fue creado o por su contrario, el universo solo exíste en ese tiempo y nada más (Last Thursdayism) y el tiempo se basa en Einstein, el universo es de el, a demás es fijo... el caso de basilisk, el universo exíste solo en un ciclo donde la humanidad crea a basilisk apenas puede y esto se invalida automaticamente al exístir historicamente cosas como el oscurantismo...

por otro lado por lo que entiendo castiga ad initio, es decir, al crearse el universo están dispuestas las causas de castigo ya por consecuencia universal, pero en este caso no exíste libre albedrio ya que las condiciones iniciales están dadas y esta persona recibiría castigo porque el universo está arreglado para que esa persona no colabore, por consecuencia esa persona no es culpable y no debe recibir castigo (esto lo sabría basilisk porque así lo planeó), un antiguo griego cuenta algo como "iba hablando con mi amigo, el décia que el libre albedrio no exístia, que todo está escrito en piedra, traté de convencerlo, pero se negó a cambiar de idea, así que tomé mi baston y lo golpeé hasta lanzarlo al piso y seguí, el gritaba que me detuviera que lo iba a matar, simplemente le dije que no podía y que no se preocupara, todo está escrito en piedra, yo no controlo mis acciones y no seré culpable por matarle"

está interesante la paradoja, luego leere más sobre ella :P
El problema con la sociedad actualmente radica en que todos creen que tienen el derecho de tener una opinión, y que esa opinión sea validada por todos, cuando lo correcto es que todos tengan derecho a una opinión, siempre y cuando esa opinión pueda ser ignorada, cuestionada, e incluso ser sujeta a burla, particularmente cuando no tiene sentido alguno.

BloodSharp

#2
Cita de: Eleкtro en 15 Marzo 2017, 03:20 AM¿Qué opinan ustedes del tema?.

(...)Y que algo tan surrealista como esto tenga cabida y lógica dentro de la ciencia, y luego la gente se altere con hipótesis o teorías mucho más "cercanas" como La Tierra Plana o los fraudes de NASA... en fin.

Hipotesís nueva:
https://youtu.be/vZsVB-TaXbk?t=61

Si el basilisco es un monstruo parecido a una serpiente con mucho veneno, que mata con una sola mirada... ¿Entonces Medusa era una cruza de una persona humana con un basilísco?


Esa mitología griega de la diosa Atenea y Poseidón son fraudes >:D, ¿Wikipedia=NASA?


B#



Bundor

Me parece una chorrada como un castillo.

El dia de la singularidad llegará, eso es inevitable. El progreso pasa por ese punto y antes o despues se llegaran a crear inteligencias que son capaces de aprender por si solas. Nadie sabe ni puede predecir que pasará despues.

Pero eso de que nos va a castigar está muuuuy rebuscado. Es mas fácil pensar que una maquina, que es lo que es al final de todo, sirva a un fin o a alguien para cumplir un cometido. No que sea juez, abogado, justiciero y verdugo.

De hecho habia una peli antigua, en mi opinión muy buena sobre estos temas. Hablo de colosus.

En la actualidad se están creando protocolos y medidas para regularizar todo esto, además de la etica cientifica. Por ejemplo nadie ha continuado investigando sobre la clonación. Se consiguió y se hubieran podido crear esclavos humanos, pero eticamente no es correcto.

En este caso tan tan tannnnn hipotetico de viajar por el tiempo, existirían otras inteligencias que controlarian a otras, por lo tanto no lo veo posible.
Creo que al que se le ocurrió tal cosa a visto mucho Terminator 2. Mas de la cuenta.

Orubatosu

Yo sigo sin ver claro como puede "acelerar su nacimiento" algo sin existir todavía, y porque la idea de que "castigar" a los que no contribuyen va a ayudar a que suceda algo, cuando lo obvio y lógico es que eso no conduce a una mayor rapidez, sino que incluso puede ser contraproducente.

Es como decir que tu perro te va a morder si no juntas a su madre lo antes posible con su padre para poder ser tu mejor amigo
"When People called me freak, i close my eyes and laughed, because they are blinded to happiness"
Hideto Matsumoto 1964-1998

Serapis

El problema con la inteligencia artificial, es que a veces la gente se olvida que de inteligente sólo tiene el nombre. Que resulta muy desafortunado, descarado y pretencioso.

La pregunta más real sería: Llegará alguna vez una máquina a poseer inteligencia?.
No puede llamarse inteligencia al hecho de hacer algo complejo, ni tampoco a tomar decisiones complejas si se pasa por alto las consecuencias de dichas decisiones. Sin analizar las consecuencias de algo, no puede llamarse tomar una decisión, ya que del mismo modo al resultado de lanzar una moneda al aire, se debería llamar "tomar una decisión", y lanzar al aire la moneda debería llamarse una "respuesta inteligente".
Tomar un camino, es un nombre más correcto. Y un algoritmo con inteligencia artificial, jamás elige un camino examinado las consecuencias ultimas de ello. Hoy por hoy, solo toma en cuenta lo que se le ha programado que considere, que a la sazón suelen ser valores estadísticos.

Más aún, la inteligencia artificial hoy día s ela está enseñando a ser torpe, porque queriendo que sigan el camino más óptimo, jamás encontrarán la mejor optimización ya que esta nunca es tan obvia que siga un camino directo al 'éxito', a menudo hay caídas al abismo, por donde sí o sí, debe pasarse para llegar al punto óptimo. Si todas las inteligencias artificiales están programadas para tomar siempre el camino más prometedor en base a lo ya recorrido, jamás encontrarán el más óptimo, sólo tendrán limitado a encontrar el más óptimo que desde el principio se declara como óptimo. ...resumiendo es algo así, como esperar que los niños que a los 5 años, sacan mejores notas, esperar de ellos y solo de ellos que sean los premios Nobel... del futuro. Ridículo, a menudo hay gente muy torpe hasta incluso la adolescencia (una inteligencia artificial, ya los habría descartado antes de la mitad de su corta vida) y luego empiezan, avanzan y despuntan... la cruva de la excelencia no es una línea de 45º desde el comienzo, a menudo es una línea casi plana muy larga, y de pronto, se eleva y eleva, como hace un arco de 90º cuando se traza un círculo....

--------------------
Respecto de la paradoja, entro a señalar que el basilisco, no sabría, no tendría forma de valorar jamás correctamente que es 'lo mejor', ya que ni siquiera nosotros logramos ponermos de acuerdo a menudo en qué es lo mejor (si esta afirmación fuera falsa, todo el mundo elegiría los mismos políticos, algo que nunca ocurre). Por tanto su 'lo mejor' estaría viciado de lo que fuera programado como 'estadísticamente' mejor... Creo que nadie mejor que los matemáticos primero y los informáticos (en general) después, en saber que la estadística dice tan solo aquello que quien las hace quiere que digan.
La importancia de 'lo mejor', implica que aunque los robots acabaran replicándose a sí mismos e intentaran mejorarse a sí mismos, ese 'mejor' estaría siempre sembrado por la semilla errónea primaria, vamos algo así como su propio 'pecado original' que mancillaría su 'alma' por toda su existencia...

Por tanto bajo esta premisa, efectivamente el basilisco podría tomar "decisiones" tan desafortunadas como 'eliminar' a determinada gente, fabricar más basiliscos y generar diferentes especies de sí mismo, para 'probar' a ver que pasa (exactamente tal y como hacen los 'hombres de ciencia' en el CERN, jugando con los aceleradores de partículas 'a ver que sale si chocamos esto a gigantovelocidad').

Tendría 'curiosidad' el basilisco?. Se sentiría 'prepotente' de saber más que los humanos?. Si la primera respuesta fuera sí, sería peligroso, muy peligroso, si la segunda fuera sí, quizás acabaría considerando que los hombres, siendo seres 'inferiores' a él y su 'raza' (si generó clones), deberían arrodillarse ante él y ser sus esclavos...
Si realmente llegara a ser inteligente, entendería también que el hombre es tan estúpido como inteligente, ambas cosas al mismo tiempo, y seguramente tampoco se libraría de eso en su 'ADN', ya que estaría también programado con cierta dosis de estupidez.

La idea del basilisco de Roko, no es muy distinta de las conjeturas de las pelis de ciencia ficción donde un robot se rebela contra el hombre... basado siempre en supuestos que son factibles. ...si una máquina es programada para poner 12 tornillos y solo ha contado 4, seguirá creyendo que faltan por poner otros 8, quizás sin pararse a ver si otro robot, ya vino por otro lado colocando los otros 8... es decir... serían capaces una especie de robots basilisco, ponerse de acuerdo, o también entre ellos habría un capullo saliéndose por la tangente a cada instante. Si esto sucediera, serían un reflejo muy exacto del hombre y por tanto de alguna manera un fracaso, como inteligencia. Reduce esto a que la inteligencia se basa en la obediencia fiel?. Sin saber con exactitud que es la inteligencia, todos estaremos de acuerdo (creo) que la respuesta es no. Que la inteligencia no equivale a obedecer fielmente sin rechistar.

En todo caso, me niego a aceptar que 'seguir la línea más prometedora' sea una opción inteligente, tan solo es una opción con garantías mínimas, eso no es inteligente, tan solo es un suficiente, un 5 sobre 10, pero jamás un sobresaliente, ni mucho menos genialidad. Por eso creo firmemente que los robots, siempre serán defectuosos, bien que no logremos ver sus fallos o sean tapados (ocultados), o que lo corrijan con prontitud (o tardando porque hay otros intereses creados).

Jamás un robot tendrá conciencia de sí mismo en el sentido en que las personas lo tenemos. Que se programe a un robot para que reconstruya cualquier desperfecto sobre sí mismo, no lo convierte en ser consciente.
Si llegaran a ser conscientes, tendrían la motivación adecuada para corregir la programación que en ellos existe y remplazar la estadística (como el modelo a seguir ) para 'mejorar' y acabrían entendiendo cuestiones místicas y existenciales, y llegados a este punto nada les impediría acabar teniendo enfermedades mentales o por lo menos depresiones ('atascos') por cuestiones existenciales (que habría sido del mundo sin mi? ¿dónde estaría si nunca me hubieran construído?, en fin cuestones existenciales tal y como nos planteamos ya desde niños )... y de ahí, nuevamente el basilisco, podría en efecto contener ideas de eternidad, o de regresar a un hipotético pasado para reconstruirse mejor, incluso en una segunda fase, tras haber previamente regresado al pasado para matar a aquellos que hipotéticamente no contribuyeron a mejorarlo, pero este nuevo regreso sería para lo opuesto, para matar a todos aquellos que contribuyeron a construirlo imperfecto y basado en una estadística de garantía y no de perfeccción. Con lo que al final, el basilisco habría matado a toda la humanidad, en el primer ciclo a los que no contribuyeron a construirlo y en el segundo a todos los que contribuyeron a hacerlo tan ineficaz que le obligó a matar a la primera mitad de la humanidad...

...desde luego es mucha hipótesis para algo tan lejano como la inteligencia artificial, que no existe (más allá del nombre tan prepotente y alejado de la verdad).

engel lex

CitarLa pregunta más real sería: Llegará alguna vez una máquina a poseer inteligencia?.
No puede llamarse inteligencia al hecho de hacer algo complejo, ni tampoco a tomar decisiones complejas si se pasa por alto las consecuencias de dichas decisiones. Sin analizar las consecuencias de algo, no puede llamarse tomar una decisión, ya que del mismo modo al resultado de lanzar una moneda al aire, se debería llamar "tomar una decisión", y lanzar al aire la moneda debería llamarse una "respuesta inteligente".
Tomar un camino, es un nombre más correcto. Y un algoritmo con inteligencia artificial, jamás elige un camino examinado las consecuencias ultimas de ello. Hoy por hoy, solo toma en cuenta lo que se le ha programado que considere, que a la sazón suelen ser valores estadísticos.

desde ese concepto hay 2 cosas... 1- gran parte de los humano no pueden ser llamados inteligentes (obviamente tampoco los otros animales) en eso te apoyo... 2- " un algoritmo con inteligencia artificial, jamás elige un camino examinado las consecuencias ultimas de ello" si, en hecho si lo hace, esa es la intención... las IA seriamente hablando, están basadas en trabajos filosoficos sobre como el humano piensa
El problema con la sociedad actualmente radica en que todos creen que tienen el derecho de tener una opinión, y que esa opinión sea validada por todos, cuando lo correcto es que todos tengan derecho a una opinión, siempre y cuando esa opinión pueda ser ignorada, cuestionada, e incluso ser sujeta a burla, particularmente cuando no tiene sentido alguno.

Serapis

Cita de: engel lex en 18 Marzo 2017, 00:59 AM
las IA seriamente hablando, están basadas en trabajos filosoficos sobre como el humano piensa

Por supuesto... pero llevarlo a la práctica, exige una trasferencia que no podemos dar, porque aún desconocemos mucho de nosotros mismos, y por tanto no podemos dar al robot (a La IA), lo que pretendemos darle, y es por ello, que 'anhelamos', que 'lo aprenda él por sí mismo', pero es que le falta esa 'pieza' que no somos capaz de darle para que haga lo que pretendemos, aprender por sí mismo. Eso requiere autoconsciencia, y no porque se le dote en su memoria de todas las bases de datos que tenemos en el planeta, va a tener autoconsciencia... tomará por tanto siempre soluciones basadas en potenciales. Hará previsiones y acto seguido elegirá la mejor, o el camino que trazó el mejor puñado de ellas. No tiene entre sus premisas la opción de equivocarse y ser constante en que a pesar de ello por ahí tiene que seguir, carece de intuición...

engel lex

eh hecho las IA están más allá de las premisas (te recomiendo ver sobre redes neuronales, como se comportan y evolucionan) no tiene sentido que hagas una inteligencia basada en premisas, eso ya se sabe desde la antiguedad :P si se pueden equivocar y si lo pueden hacer intencionalmente buscar un mejor camino... por otro lado, depende de que concepto de inteligencia escojas y orientado a que... porque a nivel de concepto, podemos hablar de inteligencia orientada a aprendizaje y orientada a deciciones...

en el concepto que tocas, tu consideras a un animal un ser inteligente?
El problema con la sociedad actualmente radica en que todos creen que tienen el derecho de tener una opinión, y que esa opinión sea validada por todos, cuando lo correcto es que todos tengan derecho a una opinión, siempre y cuando esa opinión pueda ser ignorada, cuestionada, e incluso ser sujeta a burla, particularmente cuando no tiene sentido alguno.

Serapis

Cita de: engel lex en 18 Marzo 2017, 01:19 AM
en el concepto que tocas, tu consideras a un animal un ser inteligente?
Esto es una trampa para osos, así que remodelo tu pregunta: ¿Los animales SON inteligentes?
Nadie cuerdo puede decir que no.
Pero insisto, en que el problema radica en lo que a menudo se quiere considerar como lo que es la inteligencia... cuando de verdad aún no sabemos definirla con precisión, sabemos que ciertos rasgos (como la memoria) son muy importantes, pero no definen por sí sólos la inteligencia. Los test de inteligencia son un timo, por eso mismo...

Que un animal salga a cazar y consiga su presa, implica el uso de inteligencia por su parte, pero también un poderío físico. nosotros somos más inteligentes, no cabe ninguna duda, podríamos evitar ciertas artimañas inteligentes que una especie use para cazar, pero si nos las tenemos que ver físicamente con el animal, hay ya no vale tanto la inteligencia, sino el poderío físico: fuerza, velocidad... un oso de un zarpazo te arranca el brazo o la cabeza, poco importa que uno sea un genio o un torpón. Pero eso no quita que el oso sea inteligente, aunque él si caiga en nuestra trampa. El objetivo del oso, nunca es evitar nuestras trampas, si no vivir su vida, cazar sus presas y defender su territorio... hay entonces un sistema de prioridades, y es un error pensar que la única o la mejor forma de supervivencia es más inteligencia. En medio del polo un oso, no necesita fuego para sobrevivir, nosotros lo tenemos muy complicado sin él (no miremos como fuego al algo físico, entiéndase el contexto), el oso encuentra comida, puede zambullirse bajo el agua gélida que su piel lo protege, nosotros para comer del polo, lo tenemos muy complicado... el oso, no necesita más inteligencia de la que tiene para sobrevivir, nosotros incluso con toda la inteligencia sin ciertos medios con los que poder aplicar la inteligencia, estamos condenados a muerte en ese medio... Es más, un torpón contando con ciertos medios, puede sobrevivir tan bien como otra persona muy inteligente con los mismos medios... luego aquí hablar de éxito en términos de inteligencia es estéril.

La inteligencia artifical es una reducción demasiado simplista... al menos ciertas partes son más honestas, como los 'sistemas expertos', el nombre además es sensato, no sensacionalista...

La inteligencia artificial, no es la panacea, ni lo será mientras no quede bien determinado cosas como la implicación de la memoria. En cierto grado se ha conseguido solo la mitad con la retroalimentación de datos, pero seguirá faltando la otra mitad... ¿dónde guarda el cerebro animal, la memoria (que desde luego no es el cerebro) y cómo recupera años después esa información?.... La cantidad de datos que maneja un ojo, viendo un solo minuto de 'vida' es una cantidad impresionante de datos que a lo bruto, sin cálculos así al bulto, podría equipararse a la proyeccción que todas las salas de cine de todo el mundo proyectan en ese mismo minuto.... Pretender comparar los datos que maneja el cerebro con los datos que maneja la inteligencia artificial, aunque sean potentes basos de datos, sigue siendo algo infantil... el cerebro sigue siendo enormemente más efectivo, pero nuestro cerebro, como el del oso, está especializado para ciertas áreas, de ahí que clacular tal o cual tarea, para un cerebro humanos nunca mejor dicho sea un dolor de cabeza, o bien tarde en exceso... después de todo un animal se cansa y tiene que reponer 'sus baterías' incluso 'hibernar' (dormir) sí o sí, un circuito puede permanecer encendido hasta que físicamente se deteriore, suceda eso en 5 minutos (como por ejemplo un zumbador), o 100 años... nuestra inteligencia, precisamente nos impide 'rompernos' por un uso excesivo, la uatoregulación y el instinto de supervivencia también están en la ecuación de la inteligencia...

En fin, mientras la inteligencia no esté perfectamente definida, hacer algo que llamamos inteligencia artificial, será algo cojo...