Y el futuro está casi aquí

Iniciado por Orubatosu, 20 Julio 2015, 16:54 PM

0 Miembros y 1 Visitante están viendo este tema.

Orubatosu

Bueno, casi casi

Hace poco se hablo de la ley de Moore, y como cada vez es mas y mas dificil bajar la escala en los chips. No es lo mismo pasar de 40 nm a 20 que de 20 a 10. A medida que la escala es mas pequeña aparecen mas y mas problemas.

Pero esto, a pesar de ser un estudio de momento sin aplicación practica, nos dice cual es practicamente el límite (o casi) de los semiconductores

http://francis.naukas.com/2015/07/20/nuevo-transistor-molecular-con-una-sola-molecula-de-ftalocianina/

Citar
Un transistor de efecto campo (FET, por Field-Effect Transistor) usa un campo eléctrico en el terminal de puerta para controlar la conductividad en un canal entre los terminales drenador y fuente. Los transistores basados en una sola molécula suelen carecer de terminal de puerta. Se publica en Nature Physics un nuevo diseño de transistor basado en una sola molécula que incorpora un terminal de puerta (un hexágono de átomos de indio que rodea a una molécula de ftalocianina o de ftalocianina de cobre). Gracias a este terminal se controla la conductancia por efecto túnel en la molécula.

Un trabajo básico muy interesante, pero de poco interés práctico. Que nadie sueñe con dispositivos electrónicos comerciales basados en esta tecnología tan alejada de la actual. Los transistores con canal de 14 nm serán reemplazado en menos de un lustro por los de 10 nm y en menos de una década por los de 7 nm, ambas tecnologías ya demostradas en laboratorio. Los transistores de una sola molécula, si alguna vez llegan al mercado, lo harían en la segunda mitad del siglo XXI.

Ojo, ya aclaran en el mismo artículo que:

Citar
Lo importante que le debe quedar al lector sobre este tipo de avances es que ofrece nuevas vías para estudiar los procesos implicados en el flujo de corriente a través de moléculas individuales. Muchos detalles de estos procesos en moléculas orgánicas omo la H2Pc o la CuPc todavía reservan sorpresas. El estudio de estos procesos es muy interesante y puede llevar a aplicaciones muy interesantes. Pero como transistores para futuros ordenadores yo no lo veo nada claro.

Vamos, que siendo optimistas para dentro de décadas puede que veamos algo parecido.

Ojo, hablamos de transistores de pocos átomos, del orden de 10 Ångström de diametro, lo que viene a ser 1 nm

Al margen de todo esto, queda claro que hacer chips a 10 nm y menos no es una tontería, hablamos de componentes de unos pocas decenas de átomos

Obviamente, el límite de esta tecnología no está tan lejos como algunos creen

"When People called me freak, i close my eyes and laughed, because they are blinded to happiness"
Hideto Matsumoto 1964-1998

MinusFour

Igual, el desarrollo de software no está a la par con el desarrollo de hardware. Van mucho más adelantados. La tecnología puede llegar a un tope, pero para que los ingenieros lleguen a usar el limite de las capacidades de ese hardware, nos va a tomar un tiempo.

Oblivi0n

Cita de: MinusFour en 20 Julio 2015, 17:28 PM
Igual, el desarrollo de software no está a la par con el desarrollo de hardware. Van mucho más adelantados. La tecnología puede llegar a un tope, pero para que los ingenieros lleguen a usar el limite de las capacidades de ese hardware, nos va a tomar un tiempo.

Eso será en aplicaciones de escritorio. Cuando veas una mega-farm de 15.000 procesadores de una nave industrial dime que tan avanzado está... o aplicaciones que consumen teras de RAM :)

MinusFour

Cita de: Oblivi0n en 20 Julio 2015, 20:55 PM
Eso será en aplicaciones de escritorio. Cuando veas una mega-farm de 15.000 procesadores de una nave industrial dime que tan avanzado está... o aplicaciones que consumen teras de RAM :)

La pregunta es... ¿Necesitan esos 15,000 procesadores y tanta memoria RAM? Fuera de lo difícil que sería montarse una arquitectura así, no significa que la usen correctamente o no haya espacio para mejorar.

Oblivi0n

Si, hay lugares en los que se procesan cientos de gigas de datos al segundo ( vease el LHC, que genera ~52MB cada 25 nanosegundos )

MinusFour

Cita de: Oblivi0n en 20 Julio 2015, 22:09 PM
Si, hay lugares en los que se procesan cientos de gigas de datos al segundo ( vease el LHC, que genera ~52MB cada 25 nanosegundos )

Pierdes de vista mi punto. No es el hecho de que procesen gigas de datos por segundo sino el como lo están haciendo. Si mejoras tus procesos, la demanda de hardware disminuye. Decir que no pueden mejorar sus procesos sería una mentira.

Orubatosu

Es una relación precio/beneficio, no le des muchas vueltas

Obviamente si el sistema operativo y las aplicaciones de esos superordenadores, en lugar de hacerlos por ejemplo en C++ se hicieran en ensamblador se podría ahorrar un pequeño porcentaje en eficiencia, pero el coste de programarlo y depurarlo sería enormemente mayor, mucho mas que el porcentaje ganado.

Eso si, si hablamos de juegos, está claro que se desaprovecha mas de la mitad de hardware, y la arquitectura PC en concreto está muy lastrada por compatibilidades con lo existente

Pero, el límite de la electrónica convencional en lo que hace referencia a los procesadores y otros componentes está como el que dice a la vista.
"When People called me freak, i close my eyes and laughed, because they are blinded to happiness"
Hideto Matsumoto 1964-1998

MinusFour

Cita de: Orubatosu en 20 Julio 2015, 22:59 PM
Es una relación precio/beneficio, no le des muchas vueltas

Obviamente si el sistema operativo y las aplicaciones de esos superordenadores, en lugar de hacerlos por ejemplo en C++ se hicieran en ensamblador se podría ahorrar un pequeño porcentaje en eficiencia, pero el coste de programarlo y depurarlo sería enormemente mayor, mucho mas que el porcentaje ganado.

Eso si, si hablamos de juegos, está claro que se desaprovecha mas de la mitad de hardware, y la arquitectura PC en concreto está muy lastrada por compatibilidades con lo existente

Pero, el límite de la electrónica convencional en lo que hace referencia a los procesadores y otros componentes está como el que dice a la vista.

El no depender en una abstracción ciertamente te provee cierto grado de eficiencia. GCC de hecho hace puede hacer varias optimizaciones y en casos muy especiales hasta correcciones, algunos incluso dirán que el resultado es mejor de lo que un programador promedio pudiera hacer con un assembler o directamente código maquina. Sin embargo, no son solamente malas abstracciones los que resultan en procesos desastrosos. Si no que simplemente no se utilizan las herramientas provistas adecuadamente o el algoritmo no es el adecuado. Y de esto estoy seguro que todos pecamos.

Realmente nunca he conocido a ningún programador que haya dicho, "Bueno, ahí está... el proceso es inmejorable." Ni siquiera de los malos.

Orubatosu

Por lo general ensamblador y código máquina son lo mismo.

Simplemente sustituyes los códigos en hexadecimal, binario o como lo prefieras de las instrucciones por lo que se conoce como memonicos (mnemonic en ingles amos)

Al menos era así cuando me toco lidiar con el, lo mismo ahora es otra cosa, pero no creo yo
"When People called me freak, i close my eyes and laughed, because they are blinded to happiness"
Hideto Matsumoto 1964-1998

MinusFour

Cita de: Orubatosu en 20 Julio 2015, 23:36 PM
Por lo general ensamblador y código máquina son lo mismo.

Simplemente sustituyes los códigos en hexadecimal, binario o como lo prefieras de las instrucciones por lo que se conoce como memonicos (mnemonic en ingles amos)

Al menos era así cuando me toco lidiar con el, lo mismo ahora es otra cosa, pero no creo yo

Dependerá del assembler, pero hay algunos que si optimizan algunas instrucciones.