Programa que tenga libre albedrío ¿posible o imposible? ¿por qué?

Iniciado por Tachikomaia, 26 Julio 2018, 05:51 AM

0 Miembros y 3 Visitantes están viendo este tema.

Tachikomaia

#10
Cita de: NEBIRE en 27 Julio 2018, 04:28 AMHe tachado una frase, que creo no admite discusión...
En esta sección del foro, vale.

CitarUna máquina no puede tener libre albedrío
Ok.

Citarporque no puede pensar
Esto me parece que da para otro tema: "Máquina pensante: ¿Es imposible o cómo hacerla?". Pero no lo haré pronto. Sólo por curiosidad: ¿A qué llamas pensar? Porque aunque estoy de acuerdo contigo en que no pueden tener LA, las razones que doy de ello son distintas, o sea, creo que sí podrían pensar. Si el humano, que se supone es material, puede, por qué no iba a poder una máquina que también lo es. Sino es que la materia orgánica tiene alguna propiedad no imitable, pero no lo sé. No veo por qué no puede haber instrucciones que imiten el pensamiento humano. Los sentimientos son también imitables.

CitarPuede calcular, pero eso no es pensar
El tema es a qué llamas calcular. Porque si por ejemplo evaluar cosas como verdaderas o falsas es calcular entonces no veo por qué nosotros cuando hacemos eso no calculamos.
Nuestra forma de pensar implica que "vemos" cosas, o "escuchamos", etc, todo mentalmente digo. Pero eso capaz que se puede imitar...

Citarcarece de consciencia
Esto suele decir el creyente al que me referí al inicio. ¿Pero qué es eso? ¿no es simplemente información? ¿decir consciencia es lo mismo que decir autoconsciencia? Se dice que nadie puede conocerse a sí mismo totalmente, pero se dice que los humanos tienen autoconsciencia. Si una máquina sabe cuánta energía le queda y sabe si tiene alguna parte rota, etc... o sea, lo que intento decir es que no entiendo qué marca la diferencia entre ser autoconsciente y no serlo.

Citarpor lo tanto desconoce lo que es el bien y el mal...
En esto me parece que te enredaste. El LA no es simplemente poder elegir entre lo bueno y lo malo, va más allá de eso y no hay por qué enredarse con eso, ya que es un tema complicado.

Citara lo sumo podrías programar que debe entender un programa por bien y mal, incluso puedes programar que cambie, que no tenga fijo la entrada que tu le diste, pero jamás lo hará por mediación de consciencia de la que carece.
El concepto de bien o mal no está del todo definido. Yo no soy relativista pero cual sería el significado correcto no es el tema a discutir. Ahora bien, por curiosidad: Pienso que se entiende lo que son esas cosas, a partir de información. Y creo que la consciencia es la percepción de información. Pero tú pareces estar hablando de otra cosa. ¿Por qué para determinar qué es El Bien, se debería tener autoconsciencia? Puede ser porque la propia existencia es una información relevante, pero el concepto va más allá de la existencia o estado de un aparato... ¿qué importa si es autoconsciente o no?

Citar...y siempre será incorrecto, porque cada cual tendremos un juicio algo ligeramente distinto de lo que está bien y mal (es decir si no nos ponemos de acuerdo en ciertas cuestiones, un programa para una máquina implica que porta las 'ideas específicas' de alguien y que el resto tiene que tragar con ellas como si fueran las 'correctas').
Sí, esto pasa siempre, lo diga un moralista o una máquina. Y demostrar que sólo hay un concepto o idea correct@ es complicado. Aunque si una máquina pudiera y algunos no lo entiendan la falla sería de ellos.

No veo por qué esto viene al caso, pero bue.

CitarLa intuición humana, por ejemplo desdeña contínuamente porcentajes incluso del 99% a favor de ese 1%... y contínuamnete hay aciertos con ese 1%... ...esa era la respuesta correcta, en la que muchos no habían confiado.
Si te entendí bien estás diciendo que el humano a veces elige cosas que estadísticamente se consideran incorrectas o que una máquina consideraría tal. Eso suena a la película Yo Robot. Pienso que las máquinas pueden ser programadas para actuar como se quiera (nos salimos de tema pero bue), o sea, si quieres que imite al humano en el sentido de que tenga "intuición" y por ella de vez en cuando no siga las estadísticas ¿por qué no se va a poder? La intuición, a menos que sea algo medio mágico, es información de la que uno no es del todo consciente, una fuerza que nos recomienda hacer una cosa en vez de otra.
Yo no programo mucho, pero usaría estadísticas sólo cuando haya random. Considero que en iguales situaciones, si se aplica la misma acción, el resultado es siempre el mismo. El problema suele ser que no conocemos toda la situación y por ende el resultado se altera. En tales casos hay que intentar entender por qué pasa eso.

CitarUn humano sabe equivocarse y no pasa nada, se sigue mejorando... para una máquina, no suele ser aceptable el error, puede costar vidas. Si un humano comete un error puede ser aceptable (porque todos los cometemos), pero para una máquina ciertos errores son intolerables...
No le veo sentido a esto. La máquina puede ser programada para que mejore, tolere y en teoría todo lo que haga el humano. Salvo tener sentimientos, pero en esta cuestión se pueden considerar simplemente una fuerza que influye en el pensamiento.

Citarsi un hombre genera 100 ideas y 1000 pensamientos, sin duda alguna serán más eficaces que lo que haga una máquina también con 100 ídeas y 1000 pensamientos...
Pienso que depende de cómo la programes. Además las personas nos equivocamos mucho.

CitarEl modo mas sencillo de demostrarlo, es pedirle a una máquina que si es tan lista, que sea ella quien diseñe su próxima versión (en vez de otro grupo de humanos), y que sea más eficaz de forma notable no en un ridículo 1-5%... además deberá exigírsele que incluya novedades jamás vistas hasta ahora como hace el hombre constantemente... no basta con mejorar las capacidades existentes, si no crea otras nuevas...
Creo que aún no hay una máquina tan lista, pero también que tu test no es bueno, porque entre más listo sea alguien menos se podrá mejorar, mentalmente hablando, porque está más cerca del límite. Los humanos tampoco son tan hábiles en mejorar sus cosas. Si lo logran es porque adquieren nueva información, pero en tu test no has dado esa posibilidad. Algunos aspectos son más fáciles de mejorar que otros...

Citarpero créeme, las máquinas son idiotas... difícilmente superan a un niño de 5 años...
¿No es un tema de software?
Ojo, a mí no me interesa hacer una máquina con LA, y si no lo tienen o si no piensan parecido a un humano es en parte porque no interesa, ni conviene, que lo hagan. Eso explicaría en parte que el software sea pobre en inteligencia, o la máquina en sí. Pero si tiene memoria y todo lo que tiene... ¿no es suficiente? Es decir, sólo falta el software adecuado.

Citarpara no falsificar los conceptos, de 'inteligencia' y capacidades.
Sí, cuando me empecé a meter en estos asuntos me interesaba hacer una "IA" (y mi nick, es Tachikoma + IA), pero llegó un punto en que ya no quise más usar esas palabras. Parece inútil ponerse a discutir o definir qué es inteligencia. Hagamos lo que nos parezca y veremos...

Tachikomaia

#11
Cita de: animanegra en 27 Julio 2018, 09:33 AMUna máquina no tiene por que llevar las ideas de nadie programadas.
Más o menos. Uno como programador debería saber a priori cuales son los resultados posibles, pues puso posibles ideas. Está claro que la elegida no tiene por qué ser la que nosotros hubiéramos elegido, esa es la gracia y es lo que dices. Pero también es cierto que nosotros ponemos la idea de cómo determinar cual es la idea correcta, o si pudiéramos, la idea para determinar cual es la idea para determinar cual es la idea correcta. Siempre algo le vamos a poner.

Puedes cambiar la idea por "el método", si te queda más claro. Es lo que dije antes del pez. Normalmente se da el pez. En este caso damos el cómo pescar. Pero también se podría dar el método para aprender cosas, como cómo pensar.

Cita de: NEBIRE en 27 Julio 2018, 16:15 PMNo. No es ninguna convencioón social. suelta un niño en una isla y deja que crezca sólo, verás como de adulto, sabrá que hay cosas que son buenas y que otras son malas, sin que nadie le haya enseñado (manipulado), nada.
Al menos uds parecen estar de acuerdo en que esas ideas las determina el ambiente, los genes, etc.

CitarEl bien y el mal, te lo enseña en definitiva tu propia alma
¿Te refieres a nuestra mente, intuición o qué?

Citarsin importar lo que en principio cuando niño alguien te haya dicho que está bien o mal... finalmente tu acabarás cuestionando (juzgando) la veracidad de las mismas.
Depende de varias cosas. Hay cosas más difíciles de cuestionarse (porque no se nos ocurre, nos parece obvio o malo, nos sentimos mal) que otras. Y también depende del nivel de filosofía o multiculturalidad (no es lo mismo) que se promueva, porque si se promueve mucho la tradición (y no consiste en cuestionar), se complica.
Te gustará este video:
https://www.youtube.com/watch?v=cZYNADOHhVY
No siempre es tan fácil...

Citarcreo que todos estaríamos de acuerdo en que, poniendo en una bandeja 1000 temas y juzgando 1000 personas esos temas como buenos o malos, vendríamos a coincidir prácticamente en todo
Depende de los temas, pero yo te diría que no es así. Por ejemplo hoy discutí con mi padre porque según él en el fútbol está bien que los equipos tengan presidente y dirigentes, "porque en todo el mundo es así", cuando a mí me parece que uno de los dos sobra, o ambos.

CitarLa ética son reglas sociales de comportamiento.
Yo la entiendo como la rama de la filosofía, que estudia las morales. Lo que estás definiendo sería la moral o una moral.

Citarno existe ninguna obligación respecto de cómo deben ser esas reglas éticas
Si son éticas entonces deben ser de cierto modo. Que los humanos les llamen o las consideren éticas aunque no lo sean, es otra cuestión.

CitarEl bien y el mal, están por encima de la ética, tarde o temprano, tu propia conciencia te dice si algo que hiciste está bien o no, y el remordimiento, está para decirte que hiciste algo que estaba mal...
Lo que diga la consciencia depende de lo que esté captando, o sea es variable. Por ejemplo una vez le pregunté a una chica qué haría conmigo por un dinero, y muchos me hicieron sentir que eso estaba mal, que la traté de p**a, que en vez de querer esforzarme por que ella esté bien recurrí a algo fácil, y a veces me sentí mal... pero pronto recordé o pensé que eso lo hice porque quise darle algo bueno y sólo se me ocurrió ofrecerle ese dinero, y en mi opinión aunque la pregunta fuese apuntando a hacer algo sexual literalmente no es eso, por lo que es mucho más lógico que preguntar si quería ir al cine por ejemplo, ya que eso es muy limitado (lo otro podía ser básicamente lo que ella quisiera) y no estoy especificando que le pagaría la entrada. Entonces me siento mal porque ella se enojó y demás, pero si lo pienso profundamente, ya ves. Entonces eso del remordimiento depende de la capacidad de pensar de cada uno y de los valores que se tenga. Repito, yo considero que existe una definición correcta de lo que es El Bien, pero es muy difícil de demostrar, y no creo que "la consciencia" o "el remordimiento" sean la demostración.
Podemos razonar mal (falacias, delirios), podemos ver mal (o más bien interpretar mal: Ilusiones ópticas), y podemos sentir cosas que no corresponde sentir.

CitarYo recuerdo aún siendo niño haber hecho cosas de las que sentí que no estaba bien y desde luego nadie me dijo nunca antes que hacer eso estaba mal...
Alguna idea tendrías. O luego de hacerlo te diste cuenta de algo que antes no tenías en mente.

Citarun otrdenador carece de lógica para esto, se basa en acierto y error, el remordimiento es algo que aunque acabe en acierto, te dice que ESTÁ MAL
No entiendo eso. Pero el remordimiento sería como que un if no se cumpla, una variable sea -1 o -algo y haría que el programa haga revisiones extra o lo que sea.

CitarNo podemos programas que no tenga ideas mías, si soy yo quien lo programa, básicamente todo lo que tiene programasdo son ideas mías...
Sí, lo que sucede es que podemos no ser conscientes de esas ideas. Como te comenté en el otro hilo esto se basa en parte en relacionar cosas: Poner objeto A arriba de B, etc. Esa podría ser la idea base. Ahora bien, que A sea por ejemplo jugo de naranja y B un metal líquido es algo que podría no ocurrirsenos. Y te di un ejemplo, es obvio que sí me ocurrió, pero imagino que hay cosas que no a menos que me pasara haciendo millones de cosas como has comentado que hacen las computadoras, pero creo que no podría porque me aburriría.

Citarpara que esto no fuera así, un ordenador tendría que programarse a sí mismo 8o a un tercero), sin intermediación de ningún humano para ello...
En realidad si el aparato inicial lo hizo un humano y no hay azar de por medio entonces seguimos en la misma, como has dicho.

Citarsi las máquinas fueran 'inteligentes', la mitad de un niño... la propia máquina haría lo mínimo que hace un niño, tener curiosidad e investigar
No me cierra que sea necesario tener curiosidad para tener inte, pero bueno, creo que se puede programar más o menos de la misma forma que está programado un niño. Para curiosear.

CitarUna báscula pueda pesar todo lo que pongas encima de ella, pero jamás podrá pesarse a sí misma. Será otra quien la pese a ella, pero JAMÁS a sí misma. Esa es la esencia de la consciencia, pesarse a sí misma.
Demasiado metafórico para mí. ¿Qué significaría "autopesarse"? ¿autoobservarse? Existen al menos 2 teorías de lo que es la consciencia. Una es que es simplemente un observador, que quizá tiene una especie de espejo. Otra, la que yo creo, es que es un conjunto de cosas, de ideas, etc, una forma de observar, o sea, más adelante dices:
CitarCuando un ordenador tenga capacidad de decir, "mmm el comparador que tengo es lento, voy a hacer que funciones más rápido...
Ahí no es que el ordenador se esté autoobservando, sólo está observando partes de si mismo, son cosas distintas creo. Es como si la balanza hiciera una copia de alguna de sus partes y la pesara. Pero no se está pesando ella misma. ¿Podría pesar una copia? Supongo.

Por otro lado, eso que estás diciendo se puede lograr mediante un contador de tiempo que dura un proceso y un if que determine qué es lento y qué no. Lo de hacer las funciones más rápido ya es más de imaginación, pero no lo veo imposible. A las demás cosas que dices no las revisé detenidamente pero creo que tampoco.

Citaral final solo hace lo que le hemos dicho que haga, aunque ese algo sea muy amplio...

ESTÁ LIMITADO POR DISEÑO, nuestro diseño.
Es así. Pero nuestro diseño puede ser mejorar el diseño, analizando cosas que no tenemos ganas de analizar, sólo especificamos cómo analizar.

Serapis

La memoria, solo sirve para almacenar datos... es como un libro. Un libro tiene 100, 200, 300 páginas... puede ser más grande, 500, 800, 1200... y más grande que eso, una biblioteca... pero qué, acaso un libro hace algo por sí solo?. No.

El cálculo... AND, OR, NOT, XOR solo son operaciones que describen la relación entre uno o más operandos... más potencia?. Vale, añade más UAL... un chip de 64 bits, no es mucho más que uno de 4bits... quiero decir que si juntas los suficientes, uno sencillo podrá hacer lo mismo que uno más grande y complejo. La cantidad de cálculos, no se resuelve como inteligencia, como tampoco la cantidad de cálculos por segundo.

Se puede hacer sistemas predictivos, por ejemplo para "el tiempo" (en realidad el clima, el tiempo y el hombre del tiempo, realmente son tonterías como concepto), y funcionan, pero sólo porque evolucionan poco entre un momento dado y el siguiente, y  a pesar de ello, no de tanto en tanto, fracasan estrepitosamente cuando el sistema de repente evolucioona rápido... Si algo solo puede evolucionar hasta 4 estados, es más fácil de 'predecir' que si algo puede evolucionar hasta 1500 estados distintos...

Dado un sistemás más caótico, como por ejemplo la lotería, el mejor programa resulta no ser mejor que el peor programa... porqué, porque al final a la lotería apuestas 1 sola combinación de números (si puedes apostar todas las combinaciones, fijo que aciertas, pero hay no hay predicción, y lo que es peor, no habría beneficios, pués los sistemas están pensados para que el número de combinaciones posibles por el precio de la apuesta unitaria sea siempre menor que el dinero a repartir todos los premios, pués una cantidad del total irá a Hacienda y otra como beneficio de la empresa u organismo que lo gestiona)...

Sin embargo, fíjate que dispones de datos estadísticos que han salido antes... si el sistema al final fuera bueno y acertara, probablemente lo único que estaría demostrando, es que el sistema tiene fallos del tipo "el bombo no es perfectamente redondo", "las bolas del número tal al cual, siempre entran en último lugar", es decir una baja entropía en un sistema estadístico donde se esperaba una elevada entropía refleaja un error en el equilibrió del sistema, etc... en definitiva serviría para descubrir 'vicios' en el diseño... por supuesto si uno, se calla y se aprovecha de ello, ganará dinero, pero su sistema no puede reclamar que sea inteligente, tan solo puede reclamar que encontró un desequilibrio del que se aprovechó. El caso no se rige por la inteligencia, por ello si ni siquiera podemos definir el caos con reglas, es imposible programar a una máquina para predecir el caos... más aún se dedican grandes esfuerzos para simular el caos, simular aleatoriedad...

...y todo porqué, porque ese sistema no está basado en inteligencia, por eso el hombre falla al intentar predecir la lotería, si es adecuadamente aleatorio (bien diseñado el sistema, sin desequilibrios), no depende de la inteligencia, por lo tanto, tampoco puede ser emulado por una máquna, de entrada porque el propio hombre no sabe como funciona el sistema caótico (en realidad asentimos en que es todo física pero con tal cantidad de variables que varian con el tiempo, que resulta imposible seguirles la pista)... y si un programa dispusiera de sensores en cada bola, conociendo su peso, su posición su densidad, etc... para poder calcular rebotes, choques, presiones, roces, atrtacciones gravitarorias o magnéticas, etc... podría adivinar las bolas que van a salir?. No... porque entonces no es adivinar es calcular... básicamente es lo mismo que si introduces una minicámara en la boca del bombo y examinas de las que están por caer, cual tiene más probabilidades de hacerlo, dada la mayor superficie liberada que tiene, etc...
Adivinar, tampoco es inteligencia, por eso los sistemas predictivos, realmente no lo son, calculan en base a datos previos sobre un sistema poco cambiante en el tiempo, cuando algo puede desaparecer al instante y aparecer... si un sistema predictivo fuera bueno, adivinarlo si sería predicción, pero si el sistema cambia poco, es lo mismo que ver una película... que nunca hemos visto... a medida que la vemos, podemos adivinar que pasará en la siguiente escena, o unas pocas después, porque poseemos información previa y sabemos que sigue un curso lógico... luego no es tanta adivinación, ni puede otorgársele más asunto del que tiene. Las posibilidades inútiles que se pueden eliminar de un sistema que evoluciona poco en el tiempo son así muy grandes.

Sucede que cuando los sistemas son muy grandes y/o complejos, unitariamente parecen comportarse de forma inteligente, cuando en realidad es que no lo comprendemos/conocemos bien.

Una máquina capaz de sumar y restar, multiplicar y dividir, y con operaciones buleanas, no puede ser inteligente... un ordenador es una máquina de cálculo, y muchos cálculos por segundo, no confiere inteligencia.
Alcanzar soluciones, es posible, lo conocemos como algoritmia, algo puesto ya en práctica por los griegos... el mismo teorema de Pitágoras es eso, pero no hay inteligencia en ello, si conocimiento, pués soluciona un problema conocido cuando se aplica.