Menú

Mostrar Mensajes

Esta sección te permite ver todos los mensajes escritos por este usuario. Ten en cuenta que sólo puedes ver los mensajes escritos en zonas a las que tienes acceso en este momento.

Mostrar Mensajes Menú

Mensajes - wolfbcn

#36171
El fundador de Megaupload sigue dejándonos noticias polémicas y curiosas. La última información que protagoniza alude al espionaje de la CIA en la conexión de banda ancha del informático alemán y cómo esto afectaba a sus partidas online a uno de sus juegos favoritos: Call of Duty Modern Warfare 3.

Mientras prepara el regreso de Megaupload, Kim Dotcom ha tenido tiempo de informar sobre el supuesto espionaje de la CIA en la conexión con la que cuenta en su mansión de Nueva Zelanda. El fundador de la plataforma de descargas directas intervenida por las autoridades federales estadounidenses ha declarado al portal Torrentfreak que ha sufrido extraños cortes en su conexión por este motivo, lo que le ha impedido disfrutar de una de sus grandes aficiones como son los videojuegos.

El alto lag le habría servido para detectar el espionaje

El informático alemán es un apasionado del Modern Warfare 3 en su modo online y por ello contrató una conexión de fibra hasta el hogar de 100 Mbps. Estas conexiones ofrecen entre sus múltiples ventajas un lag muy bajo a la hora de jugar online, pero Dotcom asegura que sufre estos problemas desde que volvió de su viaje a Hong Kong hace unos días, con tiempos de respuesta muy altos. A pesar de haber comprobado que todo estaba bien en su instalación, el problema persistió.

"Después de una semana de investigación para ver cuál era el motivo del lag, pedí al técnico que se pusiese en contacto con el operador", declaró el alemán. La respuesta de la compañía fue "un poco misteriosa" ya que si bien se comprometió a buscar la fuente del problema, después permaneció en silencio. Sin embargo, la respuesta al problema no tardaría en llegar después de haberse conocido el proceso de espionaje que sufría el fundador de Megaupload.

Así pues, todo apunta a que Dotcom tiene un problema más grave que un excesivo lag en su conexión ya que sus comunicaciones estarían siendo controladas. Algunos técnicos han confirmado que existe un elevado retardo en la conexión, por lo que gana enteros la teoría negada por el Gobierno neozelandés sobre el espionaje a la red del creador de Megaupload. De confirmarse, estaríamos ante un espionaje ilegal a su actividad después de la decisión de los tribunales del país oceánico que pronto volverá a ser discutida en el nuevo juicio al informático alemán.

FUENTE :http://www.adslzone.net/article9631-call-of-duty-ayuda-al-fundador-de-megaupload-a-confirmar-que-esta-siendo-espiado.html
#36172
Publicado el 5 de octubre de 2012 por Jaime Domenech

Se ha desatado una fuerte controversia en torno al juego FIFA 13 en Wii y PS Vita, al desvelarse que Electronic Arts ha hecho un reciclaje de versiones anteriores del simulador futbolístico sin aportar cambios sustanciales.

FIFA 13 ya ha logrado superar los 4,5 millones de copias vendidas en menos de 48 horas desde su estreno, pero ahora se ha visto salpicado por la polémica.

La web especializada Nintendo Gamer ha realizado una comparativa del aspecto gráfico de FIFA 12 y FIFA 13 en su versión para Wii y para su sorpresa, son inapreciables los cambios entre ambas, lo que indica un evidente reciclaje del juego de la empresa americana.

Las diferencias entre la versión 12 y 13 son mínimas como puede verse en las capturas de pantalla inferiores y podría decirse que aparte de las actualizaciones de los equipos y los jugadores, las novedades son casí inexistentes.

Por su parte la versión de FIFA 13 para la PS Vita está en una situación parecida, ya que copia gran parte del videojuego FIFA Football, que fue lanzado en febrero coincidiendo con el estreno de la consola portátil.

¿Qué os parece este compartamiento de parte de Electronic Arts?



vINQulos
DigitalTrends, Nintendo Gamer

FUENTE :http://www.theinquirer.es/2012/10/05/electronic-arts-engana-a-los-usuarios-de-wii-y-ps-vita-en-el-nuevo-fifa-13.html
#36173
Noticias / Hackeadas más de 50 universidades
5 Octubre 2012, 21:12 PM
Hasta la universidades son objetivos de hackeos a día de hoy. Con motivo de la celebración de una protesta, unos hackers como apoyo a los manifestantes han decidido llevar a cabo un "macro-hackeo" en el que se han visto afectadas en principio 50 universidades, aunque es probable que hayan sido más, llegando a ascender el número hasta 60 universidades afectadas.

Aunque suena raro decirlo, Anonymous no ha sido la encargada de llevar a cabo este ataque y ha sido un grupo llamado Team Ghostshell los encargado de reclamar la autoría de la operación. Los atacantes han accedido a los servidores de las universidades y en muchos casos han hecho una copia de todos los documentos e información que se encontraban en los servidores.

El motivo tanto de la manifestación como del hackeo, ha sido el aumento de las tasas para ingresar en la universidad así como el cambio de la normativa de admisión.

Aunque el centro neurálgico de los hackeos ha sido Europa, también han existido hackeos en Estados Unidos, aunque en este caso no han sobrepasado las 4 universidades. En Europa, los países más afectados por esta operación han sido Rusia, Italia, Alemania y Gran Bretaña. Hasta el momento, se cree que en España no se ha visto afectada ninguna universidad.

Datos de usuario y contraseñas de acceso

Como indicábamos con anterioridad, Team Ghostshell ha realizado copias enteras de la información que estaba contenido en los servidores que han sido afectados. Entre la información, que está disponible en la página web de Pastebin, destaca los nombres de usuario, correo, y contraseña de parte del personal docente, investigación y administrativo de estas universidades, así como información personal de cada uno de ellos.

Aunque en pocas universidades han conseguido acceder a todos los servidores, si es verdad que en muchas han conseguido acceder a la información privada de determinados departamentos, de los cuales se ha extraído la información nombrada con anterioridad.

Los servidores centrales han resultado inexpugnables en muchos casos

Ese es el problema que se han encontrado los atacantes en muchas universidades, por lo que han tenido que recurrir a los servidores de cada departamento que a priori, son más débiles que el principal. Muchas universidades, para no crear polémica, no han querido reconocer dicho ataque y únicamente se han limitado a desactivar los servidores afectados hasta que han conseguido solucionar el problema.

FUENTE :http://www.redeszone.net/2012/10/05/hackeadas-mas-de-50-universidades/
#36174
El Instituto Nacional de Tecnologías de la Comunicación (INTECO) ha dado el aviso de la presencia de un troyano que está afectando principalmente a versiones de los sistemas operativos Windows. En concreto, las versiones afectadas son las de XP, Vista y Windows 7. El virus, que se hace llamar Zbot.CQZ, se encarga de modificar el registro del sistema y la navegación web del usuario.

A pesar de que todavía no se sabe la forma concreta en la que el virus puede llegar al equipo del usuario, se cree que puede tener varias vías de infección.

El ordenador infectado con este troyano, se convierte en una pieza de una botnet sin que el usuario lo sepa, ya que por lo que han podido saber en INTECO, el equipo no muestra síntomas aparentes de que este siendo gobernado por otra persona o infectado.

Como indicábamos con anterioridad, no se conoce a ciencia cierta la vía utilizada para infectar los equipos, aunque se cree que las vías principales sean las redes de intercambio de archivos P2P, los correos electrónicos, e incluso la navegación por sitios web maliciosos podría propiciar que le troyano siga extendiéndose. Tampoco se descarta que haga uso de las memorias USB para llevar a cabo la infección de otros equipos.

Un fichero con el nombre TapiSysprep.exe

En el sistema de el usuario de copia un ejecutable que no es legítimo y por lo tanto, es probable que muchos casos salte algún aviso por parte del sistema operativo de que dicho archivo quiere realizar una ejecución. Sin embargo, en muchos casos, sobre todo debido al desconocimiento que los usuarios tienen, se acepta dicha ejecución. Desde INTECO advierten que en el caso de localizar dicho archivo, la mejor opción borrarlo automáticamente.

Se cree que el archivo puede ubicarse en carpetas personales del usuario, como Mis Documentos, Descargas, My Downloads, o aquellas que sean utilizadas por programas de descarga P2P.

Modificación del registro de Windows


Mientras dura su proceso de instalación, el troyano modifica el registro del sistema operativo para asegurarse que siempre posee una conexión a internet y también que se ejecuta cada vez que el equipo es arrancado. Una vez hecho ésto, el atacante podrá tomar el control del equipo de forma total y sin que el usuario tenga conocimiento de ello.

Desde INTECO recomiendan ignorar todas aquellas informaciones o páginas que posean un contenido dudoso y evitar descargar archivos de redes P2P que posean características extrañas, como tamaño desproporcionado para el tipo de archivo que sea, o bien un nombre extraño, como un .exe para una canción.

FUENTE :http://www.redeszone.net/2012/10/05/el-troyano-zbot-cqz-modifica-el-registro-de-windows/
#36175
El próximo día nueve, en el ciclo mensual de actualizaciones correspondiente a octubre, Microsoft publicará siete boletines (del MS12-064 al MS12-070) que corrigen veinte vulnerabilidades en total.

Solo uno de esto boletines ha sido calificado como crítico, con un impacto potencial de ejecución de código remoto y que corrige, entre otras, vulnerabilidades críticas en Microsoft Word en sus versiones 2003, 2007 y 2010.

El resto han sido calificados como importantes, y corrigen vulnerabilidades cuyos impactos van desde la denegación de servicio a la ejecución de código remoto, pasando por la elevación de privilegios. Además de los sistemas operativos de Microsoft tanto para servidor como escritorio, entre los productos afectados por estas vulnerabilidades se encuentran productos para servidores de Microsoft (Sharepoint, Groove), software de comunicación (Comunicator, Lync), Microsoft SQL Server y varios componentes de Microsoft Office Software.

Se incluyen en este lote de actualizaciones lasvulnerabilidades derivadas de los componentes Oracle Outside In para FAST Search Server 2010 for SharePoint, las cuales fueron reportadas en el Oracle Critical Patch Update de julio. Quedaban pendientes las actualizaciones para este producto concreto, si bien ya fueron solucionadas para Microsoft Exchange en el boletín MS12-058, publicado en agosto.

También este día se publicará en el servicio Windows Updatela actualización de la longitud mínima (de 1024bits) para claves RSA de los certificados, descrita en el Security Advisory 2661254. Hasta ahora, esta actualización se había distribuido exclusivamente a través del centro de descarga de Microsoft para su despliegue manual y evaluación por el usuario. Pasará a ser una actualización automática, distribuyéndose a todos los sistemas que las tengan activadas.

Más información:

Microsoft curándose en salud (II): bloqueará los certificados de menos de 1024 bits http://unaaldia.hispasec.com/2012/07/microsoft-curandose-en-salud-ii.html

Microsoft Security Bulletin Advance Notification for October 2012 http://technet.microsoft.com/en-us/security/bulletin/ms12-oct

Vulnerabilities in Microsoft Exchange and FAST Search Server 2010 for SharePoint Parsing Could Allow Remote Code Execution http://technet.microsoft.com/en-us/security/advisory/2737111

Update For Minimum Certificate Key Lengthhttp://technet.microsoft.com/en-us/security/advisory/2661254

FUENTE :http://www.laflecha.net/canales/seguridad/noticias/microsoft-publicara-siete-boletines-de-seguridad-el-proximo-martes_1
#36176
A pesar de las reticencias hacia Windows 8 y su interfaz Metro mostradas por algunas de las más importantes desarrolladoras de software, la adaptación de sus programas al nuevo sistema operativo se está produciendo poco a poco. Un ejemplo de ello es Mozilla, que ya ha mostrado su navegador Firefox integrado en esta plataforma.

Los creadores de Mozilla no quieren dejar pasar la oportunidad de competir con Internet Explorer en Windows 8 a partir de la llegada del nuevo sistema operativo al mercado el próximo 26 de octubre. Por ello han estado trabajando en los últimos meses en la adaptación de Firefox al nuevo entorno del sistema operativo de Microsoft, la interfaz conocida como Metro.

La compañía de Redmond quiere dar el salto hacia dispositivos táctiles como las tabletas o los equipos híbridos que cuentan con pantallas táctiles como los nuevos portátiles que se llegarán al mercado en unos meses. Con este fin ha desarrollado Metro, aunque por ahora no ha convencido del todo a usuarios y desarrolladores a tenor de las diversas críticas que han ido publicándose en la Red. En cualquier caso, desde Mozilla no se ha tardado demasiado en desarrollar su programa estrella para esta interfaz así como para el remozado entorno clásico de escritorio.

La primera versión de Firefox Metro para Windows 8 ya está disponible en la página de Mozilla. En ella se puede ver la conjunción entre el clásico estilo del navegador y la interfaz del software de Microsoft, aunque desde Mozilla se ha hecho hincapié en que se trata de una versión no finalizada de su navegador, por lo que podrían darse errores en su funcionamiento. No obstante, permite hacernos una idea de la propuesta de la compañía en esta adaptación.



"Desde comienzos de este año hemos estado trabajando en una versión de Firefox que funcione en Windows 8 bajo la arquitectura x86", explicó la compañía al presentarla. Sin embargo, no ha aclarado si la desarrollará para los dispositivos ARM, aunque todo apunta a que no tardaría en hacerlo tras lo visto en una esta preview que por ahora solo funciona con la versión RTM de Windows 8. ¿Conseguirá batir a Internet Explorer en su propio terreno de juego con esta versión específica para la nueva plataforma de Microsoft?

FUENTE :http://www.adslzone.net/article9625-asi-es-mozilla-firefox-para-windows-8.html
#36177
Investigación realizada por iFixit en asociación con HealthyStuff.org analiza los productos químicos nocivos incorporados y utilizados en la producción de 36 modelos de smartphones, incluyendo el nuevo iPhone 5 y Samsung Galaxy S III. El estudio demuestra que, en general, los nuevos teléfonos son menos nocivos que los modelos más antiguos. Aunque hay excepciones, como por ejemplo el iPhone 5, que tiene un resultado inferior a su predecesor, el iPhone 4S.

Diario Ti: Cada uno de los 36 modelos estudiados contiene al menos uno de los nocivos químicos plomo, cloro, promedio, mercurio o cadmio. El estudio indica que hay factores de contaminación en todo el ciclo de vida del producto; en las minas de donde los minerales son extraídos, en los procesos de producción, y en los vertederos de basura donde terminan sus días.

Jeff Gearheart, fundador de HealthyStuff.org declaró que "incluso los mejores teléfonos incluidos en nuestro estudio están llenos de productos químicos nocivos. Estas substancias, que pueden causar daños durante la gestación, problemas de aprendizaje y graves enfermedades, han sido detectadas en concentraciones 10 a 100 veces mayores que lo considerado niveles naturales en vertederos de basura electrónica en China".

Según estimaciones, el 50 al 80% de la basura electrónica es recibida por países como la India, China, Ghana, Vietnam o Filipinas, donde se intenta reciclar los metales contenidos en la basura electrónica, mediante procedimientos primitivos.

En el estudio se probaron teléfonos de los 10 principales fabricantes de smartphones, como Apple, Samsung, HTC, Nokia y Motorola.

El peor producto de la lista fue el antiguo iPhone 2G, que es el más venenoso de todos. En el primer lugar, como el teléfono más "limpio", se sitúa Motorola Citrus, en tanto que el iPhone 4S ocupa el segundo lugar.

El teléfono portaestandarte de Samsung, el Galaxy S III, ocupa el noveno lugar de la lista, con lo que tiene un desempeño general inferior al de los iPhones más recientes. A pesar de ello, Samsung tiene un buen desempeño general de la investigación, mientras que Apple ha mejorado considerablemente en relación con sus antiguos modelos.

En la categoría de "teléfonos peligrosos" se encuentran modelos antiguos como Nokia N95, Palm m125, Blackberry Storm 9530 y Motorola Moto W233 Renew.

Cabe señalar que el potencial de daño para los propios usuarios es relativamente pequeño. El mayor riesgo de intoxicación lo sufren los trabajadores en las fábricas donde se producen los teléfonos. Los segundos mayores afectados son los residentes en las áreas donde es depositada la basura electrónica.

Video "Niveles de toxicidad de los smartphones

http://www.youtube.com/watch?v=Uv-fvrLXW1Q&feature=player_embedded

FUENTE :http://www.diarioti.com/noticia/Presentan_lista_de_los_telefonos_mas_nocivos_del_mundo/33096#
#36178
La organización de consumidores FACUA ha mostrado su total desacuerdo con la penalización económica que el usuario tiene que pagar si se da de baja del nuevo servicio Movistar Fusión en el plazo de 12 meses, por lo que ha pedido al operador que retire esta condición por considerarla desproporcionada.

"La penalización supone una cláusula abusiva y por tanto ilegal y sancionable". Con estas palabras ha calificado FACUA-Consumidores en Acción la penalización de 190 euros que Movistar reclamará a aquellos usuarios que se den de baja de Fusión antes de 12 meses. La organización asegura que la condición inclumple lo establecido en la Ley General para la Defensa de los Consumidores y Usuarios, por lo que ha pedido a la compañía que actúe de forma inmediata y elimine la cláusula.

FACUA afirma que el operador incumple el artículo 87 de la ley, el referido a la "fijación de indemnizaciones que no se correspondan con los daños efectivamente causados". En opinión de la asociación, el operador estaría cobrando a los usuarios de Fusión "una penalización sin haber existido un perjuicio equiparable para la compañía implica un evidente supuesto de enriquecimiento injusto". Asimismo, anima a Movistar a ser más clara con la información aportada a los usuarios, puesto que no especifica si los citados 190 euros incluyen el IVA, puesto que con este impuesto dar de baja el servicio antes de 1 año supondría un desembolso de 229 euros.

Movistar por su parte defiende la existencia de la permanencia y aclara algunos detalles sobre ésta referida al servicio móvil. "En caso de baja del servicio fijo, todos los contratos móviles asociados (Línea Móvil Principal y líneas adicionales si las hubiere) pasarían automáticamente a facturarse un gasto mínimo de 30 euros al mes (más IVA)" con la tarifa Habla y Navega 30 (150 minutos al mes, SMS ilimitados y 500 MB de datos a máxima velocidad) hasta que se cumpla el compromiso de permanencia adquirido con el operador.

La postura no convence a FACUA, que ha exigido a Movistar que anule la cláusula de penalización y ha amenazado con denunciar a la compañía "ante los organismos de ámbito estatal y autonómicos competentes en materia de protección de los consumidores" en caso de no hacerlo. Habrá que ver si la compañía cede y elimina esta controvertida condición en una oferta que ya ha despertado el interés de miles de usuarios a pesar de la cláusula.

FUENTE :http://www.adslzone.net/article9623-facua-quiere-que-movistar-elimine-la-permanencia-en-fusion.html
#36179
Las páginas web de varias instituciones suecas como el Parlamento, el Banco Nacional o la Administración judicial quedaron fuera de servicio varias horas anoche tras sufrir ataques cibernéticos.

La Policía investiga el origen de los ataques, tres días después de que las web de otras instituciones, como las Fuerzas Armadas, los bancos Swedbank y SEB y la agencia de noticias TT, entre otras, quedaran inutilizadas unas horas por el mismo motivo.

Los últimos incidentes se produjeron el mismo día en que el grupo Anonymous difundió en Internet un nuevo vídeo alertando de ataques en respuesta a que Suecia pide la extradición del fundador del portal WikiLeaks, Julian Assange, investigado por supuestos delitos sexuales.

Como segundo motivo, Anonymous apeló a la redada practicada los dos últimos días por la policía en los locales en Estocolmo de PRQ, la empresa de los servidores de WikiLeaks que ha sido registrada en otras ocasiones anteriores.

Según declaró su dueño, Mikael Viborg, a varios medios suecos, agentes de policía se llevaron varios servidores, al menos uno de ellos vinculado con una web de intercambio de archivos.

El inicio de la redada policial coincidió con la caída de la web de 'The Pirate Bay' (TPB), uno de los principales portales del mundo para intercambiar archivos y cuyos creadores han sido condenados por los tribunales suecos.

Pero los responsables de TPB señalaron que todo se debía a un fallo eléctrico, aparte de que PRQ dejó de acoger sus servidores hace años y que ya no tiene ninguna relación con la popular web.

El australiano Julian Assange, de 41 años, está refugiado desde hace meses en la Embajada en Londres de Ecuador, que le ha concedido asilo político, aunque el Reino Unido se niega a facilitarle un salvoconducto para viajar al país latinoamericano.

El creador de WikiLeaks pidió asilo a Ecuador tras agotar sus recursos legales en el Reino Unido contra la extradición a Suecia.

Assange teme que las autoridades suecas lo extraditen luego a Estados Unidos, donde podría afrontar un proceso militar por las revelaciones hechas por WikiLeaks sobre la inteligencia estadounidense.

FUENTE :http://www.elmundo.es/elmundo/2012/10/04/navegante/1349337911.html
#36180
Noticias / Internet también contamina
5 Octubre 2012, 01:11 AM
Cada día se ponen en marcha cantidades formidables de datos cuando, con un inocente clic, descargamos películas en iTunes, consultamos extractos en la página de Visa, enviamos correos con archivos en Yahoo, compramos en Amazon, publicamos en Twitter o leemos periódicos en Internet.

Para sostener esta explosión de información digital, existen actualmente decenas de miles de centros de datos, con hileras y más hileras de servidores repartidos en cientos de miles de metros cuadrados, todos ellos con sistemas de refrigeración industriales.

Un estudio llevado a cabo durante un año por The New York Times revela que estos cimientos del sector desentonan con su imagen de pulcra eficiencia y respeto medioambiental. La mayoría de los centros de datos consumen deliberadamente grandes cantidades de energía de un modo incongruentemente despilfarrador.

Las empresas de Internet mantienen sus instalaciones a pleno rendimiento 24 horas al día, sea cual sea la demanda, y derrochan el 90% o más de la electricidad que extraen de la red, según descubrió The New York Times.

Expertos del sector afirman que los almacenes digitales consumen en todo el mundo alrededor de 30.000 millones de vatios de electricidad, más o menos el equivalente a la producción de 30 centrales nucleares.

Para protegerse de un corte de suministro, dependen además de hileras de generadores que emiten gases producidos por el gasóleo. La contaminación de los centros de datos ha sido citada cada vez con más frecuencia por las autoridades por violar las regulaciones de pureza del aire. En Silicon Valley, numerosos centros de datos aparecen en el Inventario de Contaminantes Tóxicos del Aire del Gobierno estatal, un listado de los principales contaminantes por gasóleo de la región.

"A la mayoría de la gente, incluso a los miembros del sector, les cuesta asimilar las cifras y la envergadura de esos sistemas", señala Peter Gross, que ha colaborado en el diseño de centros de datos. "Un solo centro puede consumir más energía que una ciudad de tamaño medio", advierte.

A petición de The New York Times, la asesoría McKinsey&Company analizó el consumo energético de los centros de datos y descubrió que, por término medio, solo utilizan entre un 6% y un 12% de la electricidad que alimenta sus servidores para realizar cálculos. El resto se destina a mantener los servidores parados en caso de un incremento de la actividad. "Este es un secreto turbio del sector, y nadie quiere ser el primero en entonar el mea culpa", señala un directivo. "Si perteneciésemos a la industria manufacturera, tendríamos que cerrar al instante", añade.

El consumo ineficaz de energía obedece en gran medida a una relación simbiótica entre los usuarios que exigen una respuesta inmediata al clic de un ratón y las empresas que ponen en peligro su negocio si no satisfacen esas expectativas.

Además de generadores, la mayoría de los centros de datos de envergadura contienen hileras de enormes volantes de inercia o miles de baterías de plomo y ácido para alimentar los ordenadores en caso de un fallo de solo unas centésimas de segundo. "Es un despilfarro", asegura Dennis P. Symanski, investigador de la organización sin ánimo de lucro Electric Power Research Institute.

Contra la calidad del aire
Durante los últimos cinco años, Savvis y Equinix, centros neurálgicos de Internet, han recibido advertencias por infracciones medioambientales en Chicago.De acuerdo con los registros estatales, al menos una docena de importantes centros de datos han sido citados por incumplimiento de las regulaciones de calidad del aire en Virginia e Illinois. En el norte de Virginia, a Amazon se le atribuyeron más de 24 infracciones en tres años.

Algunas empresas sostienen que usan programas informáticos y sistemas de refrigeración renovados para reducir el malgasto de energía. Entre ellas se encuentran Facebook y Google, que también han rediseñado sus equipos. Aun así, los centros de Google consumen casi 300 millones de vatios, y los de Facebook, unos 60 millones.

Mejorar o incluso evaluar este campo resulta complejo, debido al secretismo de un sector erigido en torno al acceso a datos personales de otros. Por motivos de seguridad, las empresas normalmente no revelan siquiera la ubicación de sus bases. Asimismo, custodian su tecnología para protegerla de la competencia.

Ningún organismo gubernamental tiene autoridad para controlar el sector. De hecho, el Gobierno de EE UU no puede determinar cuánta energía consumen sus propios centros de datos, que pasaron de 432 en 1998 a 2.094 en 2010.

'Bytes' elevados al infinito
Jeremy Burton, experto en almacenamiento de datos, comenta que, hace 10 años, cuando trabajaba en una empresa de tecnología informática, el cliente que más consumía contaba con unos 50.000 gigabytes en toda su base de datos (la letra N, por ejemplo, ocupa un byte; un gigabyte son 1.000 millones de bytes de información).

Hoy en día se procesa y almacena alrededor de un millón de gigabytes en un centro de datos durante la creación de una película animada en 3-D, señala Burton, que actualmente trabaja en EMC, una empresa dedicada a la gestión y el almacenamiento de datos. Solo uno de sus clientes, la Bolsa de Nueva York, produce hasta 2.000 gigabytes de datos diarios que deben almacenarse durante años, añade. EMC e International Data Corporation calculan que el año pasado se generaron en todo el mundo más de 1,8 billones de gigabytes de información.

Los consumidores suelen enviar enormes archivos de datos de un lado a otro, como vídeos y correos electrónicos masivos con fotografías adjuntas. Para sustentar toda esta actividad digital, existen actualmente más de tres millones de centros de datos en todo el mundo, según cifras de International Data Corporation.

En EE UU, los centros de datos consumieron unos 76.000 millones de vatios-hora en 2010, aproximadamente un 2% de toda la electricidad del país, según un análisis de Jonathan G. Koomey-, investigador de la Universidad de Stanford. En comparación, el sector del papel consumió 67.000 millones de vatios-hora de la red ese mismo año, de acuerdo a las cifras de xCensus Bureau.

Chris Crosby, consejero delegado de Compass Datacenters, una empresa con sede en Dallas, dice que no se avista el fin de la proliferación de la infraestructura digital. "Existen nuevas tecnologías y mejoras", señala Crosby, "pero todo sigue funcionando con un cable". Sin embargo, esto "no es sostenible", advierte Mark Bramfitt, exdirectivo de servicios que actualmente asesora a los sectores de la energía y las tecnologías de la información.

Sin incentivos
Con todo, es posible mejorar la eficiencia. Una empresa de Santa Clara, California, llamada Power Assure, comercializa una tecnología que permite a los centros de datos empresariales reducir de manera segura el consumo energético de los servidores cuando no son necesarios, por ejemplo, de noche.

Pero incluso con programas para animar a sus principales clientes a ahorrar energía, Silicon Valley Power no ha sido incapaz de convencer a un solo centro de datos para que utilice esta técnica en Santa Clara.

Symanski asegura que la baja eficiencia del sector solo tiene sentido para la lógica oscura de la infraestructura digital. "Uno lo ve y se pregunta: '¿Cómo es posible que lleven un negocio de esa manera?", dice. La respuesta suele ser siempre la misma: "No reciben una bonificación por ahorrar en la factura de la electricidad, sino por mantener el centro de datos en funcionamiento un 99,999% del tiempo".

FUENTE :http://tecnologia.elpais.com/tecnologia/2012/10/03/actualidad/1349284443_663373.html