Menú

Mostrar Mensajes

Esta sección te permite ver todos los mensajes escritos por este usuario. Ten en cuenta que sólo puedes ver los mensajes escritos en zonas a las que tienes acceso en este momento.

Mostrar Mensajes Menú

Mensajes - wolfbcn

#40141


Si estáis atentos a las redes sociales, blogs, etcétera, seguramente habréis oído algo sobre la SOPA. No, no es que se haya inventado un nuevo tipo de sopa para comer. Es el acrónimo de Stop Online Piracy Act, en castellano "Ley para frenar la piratería online" y que está promoviendo el Congreso de Estados Unidos.

Como suele ocurrir con este tipo de leyes, está hecha con buena intención pero mal ejecutada. Más que un peligro para la piratería, esta ley representa un grave peligro para Internet tal y como lo conocemos. Veamos por qué.



¿Qué sitios pueden ser objetivo del Stop Online Piracy Act?
Antes de nada, vamos a explicar un poco en qué consiste el SOPA. Su propósito es simple: combatir el robo de propiedad intelectual de los Estados Unidos. Traducción: tirar abajo sitios que infrinjan algún tipo de propiedad intelectual.

Hay dos tipos de webs que podrían ser objetivo de esta ley. Por un lado estarían los infractores "directos", por llamarlos de alguna forma. Aquí entra cualquier web que distribuya archivos con copyright sin permiso (por ejemplo, una página de descarga de música gratuita); que facilite la infracción, como una página que distribuya cracks de programas; y por último páginas que permitan estas infracciones (es decir, servicios de alojamiento como MegaVideo o MegaUpload o páginas de enlaces).

Por otro lado, también podrían ser objetivo de la ley los proveedores de servicios que no tomen medidas ante una alta probabilidad de infracción del copyright. En el texto legal, está así escrito:

Citar(I) is taking, or has taken, deliberate actions to avoid confirming a high probability of the use of the U.S.-directed site to carry out acts that constitute a violation [...]Línea 11, página 26 del SOPA.

Es muy importante ese high probability. Esas dos palabras implican que no hace falta una resolución judicial, sino sólo unas sospechas de infracción para empezar a tomar medidas. Ya empezamos con cosas muy peligrosas.

¿Qué medidas se toman contra los sitios "sospechosos?
Ahora vamos con lo siguiente: ¿qué medidas se llevan a cabo cuando un sitio es objetivo de la SOPA? A grandes rasgos, viene siendo lo mismo que matar moscas con bombas nucleares. Y creo que no exagero.

Cuando un sitio es sospechoso de infringir el copyright, se avisa a todos los que den financiación al sitio, tanto redes de anuncios como proveedores de pago (Visa, Mastercard, Paypal...). En un plazo de cinco días, tienen que cortar el grifo al sitio y suspender cualquier tipo de relación con él. Asfixia financiera, vamos.

¿Qué implica todo esto? Que cualquier sitio que aloje contenido que suban usuarios tendrá que estar muy, muy atento, monitorizando constantemente su actividad para que no haya ningún tipo de infracción de copyright. Desde luego, esto pone en apuros a empresas nuevas, que tendrán que dedicar bastantes recursos a esto para evitar morir en cinco días.

Además, los grandes proveedores de contenidos, como YouTube, MegaVideo, Rapidshare... pueden acabar muy mal con sólo una notifación. Es muy importante esto: es sólo una notificación. No es una resolución judicial. En cinco días, alguna empresa de contenidos podría asfixiar económicamente a gigantes de Internet, incluso aunque esa notificación sea totalmente absurda y no tenga fundamentos (cosa que ya se ha dado varias veces con notificaciones de la DMCA).

Otras medidas incluyen el bloqueo del dominio entero (filtrado DNS) y obligar a los buscadores a quitar ese sitio de sus resultados. ¿Un posible problema? La SOPA podría cerrar el acceso a todos los blogs alojados en wordpress.com con que sólo uno de ellos infringiera el copyright, por ejemplo. Divertidísimo, ¿verdad?

¿Por qué las empresas más importantes de Internet están en contra de la SOPA?


Empresas como AOL, eBay, Facebook, Google, LinkedIn, Twitter, Yahoo!, Zynga y Mozilla se han posicionado claramente en contra de la SOPA con una carta abierta a los representantes en el Congreso. No les gusta esta ley, y representa un verdadero peligro para ellos.

Con la DMCA, estas empresas tenían una especie de "puerto seguro", de forma que no se podía actuar en su contra siempre que retirasen de buena fe contenidos que supongan una infracción del copyright. La SOPA no tiene ningún mecanismo similar así que webs hasta ahora legales, como YouTube, Rapidshare o MegaUpload, podrían ser objetivo de la ley y acabar asfixiadas económicamente.

Las empresas tendrán que destinar bastantes más recursos que antes a vigilar que no se suba contenido protegido. Para las grandes es una molestia. Para las pequeñas y recién creadas, puede que suponga un impedimento tan grande que no puedan seguir con su actividad.

Resumen: la SOPA consiste en matar moscas a cañonazos
Resumiendo, la idea principal de esto es que con la SOPA (y con sus hermano E-PARASITES) se pretende parar la piratería a costa de cargarse Internet. Los objetivos no son sólo los sitios que infrinjan el copyright: también lo son los que colaboren de alguna forma (aunque no sea con mala intención) con ellos, y también los que provean herramientas para saltarse las medidas tomadas (VPNs, proxys, etc).

La SOPA, junto con E-PARASITES y PROTECT-IP es un peligro para Internet. Puede acabar con empresas enteras en menos de cinco días y sin resolución judicial. Cualquier sitio podría verse afectado.

Yo estoy preocupado. Hay métodos mejores para combatir la piratería que esto. Que vean si no cuánta gente paga por aplicaciones en iOS. O la cantidad de usuarios de Netflix que hay. Sin SOPA, ni caldo de pollo ni nada. La solución a la piratería es tratarla como un competidor, ofreciendo soluciones más sencillas que piratear y que no tengan un precio excesivo.

A nosotros, que estamos fuera de Estados Unidos,no nos pueden bloquear el acceso a ciertas webs. Pero si una empresa se ahoga económicamente y cierra, ahí si que nos afecta.

Ahora mismo, la SOPA está en trámite en el Congreso de los Estados Unidos. Todavía queda tiempo para que los representantes voten en contra y la ley no continúe. Sin embargo, las perspectivas no son demasiado halagüeñas.

En Nación Red | PROTECT IP, nada ni nadie está a salvo | E-PARASITES, lo que ya era malo se convierte en mucho peor | SOPA, o cómo pasar de lo peor a lo horrible | Infografía: ¿Qué es la SOPA?
Más información | Electronic Frontier Foundation | Texto legal: Stop Online Piracy Act
Imagen | wwworks

FUENTE :http://www.genbeta.com/actualidad/que-es-el-stop-online-piracy-act-y-por-que-la-mayoria-de-empresas-de-internet-estan-en-su-contra
#40142
¿Hasta dónde serías capaz de llegar para alcanzar el éxito profesional? ¿Estarías dispuesto incluso a infringir la ley, a meterte en asuntos turbios? Según una encuesta realizada por Monster a nivel mundial, la amplia mayoría de los encuestados no lo haría. Los profesionales más ambiciosos, aquellos que arriesgarían sin importarles las consecuencias, son un grupo verdaderamente reducido. Parece que el concepto de éxito profesional y de ética laboral, impide a casi todos los trabajadores dejarse llevar por estrategias dudosas en su ascenso al poder: más del 86% de los trabajadores encuestados a nivel mundial asegura que nunca utilizaría este tipo de "artimañas" para obtener el reconocimiento profesional.

Monster, líder global en soluciones de reclutamiento online, ha realizado una encuesta a nivel mundial que reúne las respuestas de más de 4.500 trabajadores a la pregunta En un mercado laboral tan competitivo como el actual, ¿hasta dónde serías capaz de llegar para alcanzar el éxito profesional? Los resultados son los siguientes:

Podría meterme en asuntos turbios 6%

Podría incumplir la política de privacidad de mi empresa 4%

Podría incumplir la ley 4%

No haría nada de eso, soy un profesional 86%

Parece que tan solo el 14% de los trabajadores encuestados serían capaces de realizar algún tipo de acto ausente de ética para ascender en su carrera profesional y alcanzar el éxito. Entre ellos, el 6% podría llegar a hacer cosas turbias o deshonrosas que le ayudaran a alcanzar sus ambiciones profesionales. Además, un 4% de los encuestados llegaría hasta el punto de infringir la ley y otro 4% se arriesgaría incumpliendo las políticas de privacidad de su empresa. Sin embargo, tal y como refleja la encuesta, estos son casos muy minoritarios, puesto que más del 86% de los trabajadores consideran que su profesionalidad se encuentra muy por encima de cualquier estrategia exenta de ética laboral.

Si atendemos a los resultados por países, en los que se ha establecido una comparación entre América y Europa, hay tímidas diferencias. Quizás lo más destacable es que casi el 88% de los americanos encuestados nunca realizarían este tipo de actos para ascender, frente al 85% de los europeos: son tres puntos porcentuales que envían a algunos empleados del viejo continente hacia el lado oscuro para alcanzar el éxito.

Los resultados de este Monster Meter están basados en los votos recibidos en los distintos portales de Monster por los usuarios. Sólo se ha contabilizado un voto por usuario para realizar la valoración final. Monster Meter, un producto de Monster, la Web de empleo líder en el mundo y marca insignia de Monster Worldwide Inc., se compone de una serie de sondeos online que recogen las opiniones de los usuarios sobre diferentes temas relacionados con la carrera profesional, economía y puesto de trabajo. Estos sondeos no son científicos y reflejan las opiniones de los usuarios de Internet que hayan decidido participar.

FUENTE :http://www.laflecha.net/canales/empresas/noticias/solo-el-14-de-los-trabajadores-seria-capaz-de-cualquier-cosa-por-alcanzar-el-exito-profesional
#40143
Se hacía pasar por un chico de 20 años, cuando su edad es de 40, para entablar cibernoviazgos | En su domicilio se han intervenido gran cantidad de imágenes de chicas desnudas o con poses eróticas

Barcelona. (Redacción).- Agentes de la Policía Nacional han detenido a un violador que contactaba con jóvenes y menores de edad a través de las redes sociales. El hombre se hacía pasar por un chico de 20 años cuando su edad es de 40, para entablar el primer contacto. Tras ganarse su confianza, las persuadía para tomarles fotografías desnudas a través de la webcam a modo de prueba para un futuro book de modelo. En una de las ocasiones él mismo -simuló ser el tío del supuesto joven de 20 años- se presentó como fotógrafo para citarse con una víctima a la que llegó a violar y producirle lesiones. En su domicilio se han intervenido gran cantidad de imágenes de chicas desnudas o con poses eróticas.

La investigación comenzó el pasado mes de octubre con la denuncia de una joven que había sido víctima de una agresión sexual. Manifestó que mantenía una relación con un joven que había conocido a través de Internet. Su cibernovio se describía como un chico de 20 años, residente en Barcelona y colgaba la imagen de un joven atractivo como foto de perfil.

Una vez se había ganado la confianza de la víctima, el cibernovio le manifestó que su tío era un reconocido fotógrafo que trabajaba para importantes revistas y le propuso la posibilidad de realizar un book fotográfico. A modo de prueba le pidió que conectara la webcam para tomar imágenes de contenido erótico. Cuando la joven estaba convencida de que podía trabajar como modelo, accedió a tener una cita con el supuesto tío de su cibernovio para realizar el álbum.

El supuesto joven de 20 años le dijo que sufría un trastorno bipolar y que el hecho de que ella mantuviera relaciones sexuales con su tío ayudaría a curar la enfermedad. También la coaccionó mediante la amenaza de suicidarse si no mantenía dichas relaciones. El detenido acudió a la cita como el tío fotógrafo de su cibernovio y llegó a violar a la joven, a la que también produjo lesiones físicas.

Las pesquisas de los investigadores constataron que tanto el cibernovio como el tío eran la misma persona. Igualmente, los agentes comprobaron la existencia de otras víctimas. Todas ellas aportaron los mismos datos sobre el violador y sobre el modus operandi que seguía. Con estas informaciones los investigadores han localizado su domicilio, situado en la localidad conquense de Tarancón, donde han procedido a su detención y al registro de la vivienda.

En su casa se han intervenido un ordenador portátil, una cámara de fotos, un pendrive y varios CD y DVD que contenían imágenes de jóvenes desnudas o en actitud erótica, así como varios books de otras posibles víctimas.

La investigación ha sido llevada a cabo por el Servicio de Atención a la Familia de la Jefatura Superior de Policía de Madrid.

FUENTE :http://www.lavanguardia.com/sucesos/20111116/54238219582/violador-detenido-menores-redes-sociales.html
#40144
A juicio de dos pioneros de Internet, la gran velocidad de las redes actuales aumenta el riesgo de errores e interrupciones del servicio. Esta situación hace necesario innovar la sala de servidores.

Diario Ti: "Las fuerzas armadas chinas pueden cerrar Internet en 30 segundos, y nadie puede demostrar lo contrario", asegura David Cheriton, catedrático de la Universidad de Stanford y un personaje legendario en el Valle del Silicio. Cheriton, junto a su compañero Andreas Bechtolsheim vendió su empresa Granite Networks a Cisco en 1996 por una suma multimillonaria.

Cheriton y Bechtolsheim figuraron entre los primeros en invertir en Google, lo que incrementó aún más su patrimonio económico. Bechtolsheim es también uno de los fundadores de Sun Microsystems.

Dado el perfil y trayectoria de ambos, es difícil ignorar sus advertencias, en el sentido que a futuro habrá numerosas interrupciones de los servicios en la nube. Ambos expertos explican lo anterior señalando que la infraestructura de Internet es más vulnerable de lo que muchos creen. Como ejemplo mencionan los serios problemas experimentados en las nubes de Amazon y Google este año. Estas interrupciones del servicio se producen en momentos desafortunados para ambas empresas, que intentan convencer al empresariado global de las ventajas de trasladar sus actividades a la nube.

Cheriton comentó a The New York Times que "tendemos a pensar en Internet como algo que siempre estará ahí; pero el hecho que seamos dependientes de ella no valida necesariamente tal convicción".

En un mundo en que las velocidades de transmisión de datos lleguen a ser 100 veces mayores a las actuales, y el número de transacciones en las redes experimenten un crecimiento explosivo, las incidencias de errores también tendrán un crecimiento insospechado, agregan Cheriton y Bechtolsheim, quienes anuncian que las interrupciones de los servicios online serán mayores y más frecuentes. Ambos indican que es imposible diseñar una red global sin errores ni agujeros que sean aprovechados por algunos Estados.

Las actuales conexiones de servidores, a 1 gigabit por segundo, serán aceleradas a 10 Gbps, y ya se trabaja en el desarrollo de redes a 100 Gbps. El próximo paso será el terabit por segundo.

Cheriton y Bechtolsheim están actualmente al mando de la empresa Arista, que asegura tener una solución al reto de crear una Internet más estable y libre de errores, que sea compatible además con las vertiginosas velocidades que se pronostican para mediano y largo plazo. Al contrario de Cisco, que apuesta por el diseño de chips especializados, Arista opta por el desarrollo de switches basados en software, instalados en procesadores corrientes y de bajo precio.

Arista vendió su primer producto a corredores de bolsa que necesitan procesar transacciones automáticas 100 nanosegundos más rápido que sus competidores. En el mundo bursátil, algunos nanosegundos pueden marcar la diferencia entre ganancia y pérdida, comentan los expertos.

Cheriton y Bechtolsheim invirtieron, cada uno, 100 millones de dólares en Arista, que podría convertirse en una empresa relevante para las redes ultrarrápidas del futuro.

FUENTE :http://www.diarioti.com/noticia/China_podria_cerrar_Internet_en_30_segundos/30785
#40145


En Genbeta hemos hablado en varias ocasiones sobre "Do not Track", una propuesta primero y tecnología después, que permite a los usuarios decidir si queremos ser seguidos o no por las páginas Web que visitamos.

A medida que la inquietud por la privacidad ha ido creciendo, algunos fabricantes de navegadores han ido implementando en sus productos, mecanismos para que decidamos si queremos ser objeto de rastreo en la Red. Cuestión distinta es que los sitios visitados cumplan nuestra voluntad.

La Fundación Mozilla dio el paso con Firefox 5, Internet Explorer 9 ofrece un mecanismo con el mismo fin y Safari, de Apple, está trabajando en el asunto. El problema es que cada fabricante tiene su propio enfoque. Por su parte, el World Wide Web Consortium (W3C), en un intento de normalizar el estándar, ha publicado los dos primeros Borradores de Trabajo de estándares que permiten a los usuarios expresar sus preferencias sobre el rastreo online.

El primer documento, Expresiones de Preferencias de Rastreo (DNT) define mecanismos para que los usuarios podamos expresar nuestras preferencias de rastreo en sitios Web y —lo que me parece más importante— para que los sitios Web puedan indicar si cumplirán estas preferencias.

El segundo, Conformidad de Rastreo y Especificación del Alcance, define el significado de la preferencia anti rastreo y establece métodos para que los sitios Web cumplan con nuestra preferencia.

El estado de borrador indica que son trabajos preliminares que van a ser objeto de debate y perfeccionamiento. El W3C no se caracteriza precisamente por la rapidez, pero es importante el movimiento porque a la postre, las recomendaciones de este organismo acaban siendo el modelo a seguir.

Más información | W3C (Tracking Preference Expression (DNT), Tracking Compliance and Scope)
Imagen | Arumio

FUENTE :http://www.genbeta.com/web/el-w3c-propone-unificar-el-estandar-do-not-track
#40146
El LHC aporta datos que pueden explicar el fenómenode "violación" que permitió la aparición del universo tras el Big Bang

La mayor máquina del mundo acaba de aportar nuevos datos sobre la primera guerra del universo. Sucedió hace unos 13.700 millones de años y fue el enfrentamiento entre materia y antimateria, su reverso de carga opuesta. La teoría dice que en aquellos tiempos tras el Big Bang había igual cantidad de ambas. Si fuese verdad, no existiría nada, ya que materia y antimateria se habrían aniquilado por completo. De alguna forma, la primera se impuso a su némesis y los físicos de medio mundo llevan décadas intentando saber cómo.

Uno de los experimentos del Gran Colisionador de Hadrones de Ginebra, el LHC, acaba de aportar nuevos detalles que podrían explicar esa victoria. Se trata del LHCb, concebido ex profeso para estudiar un fenómeno conocido como "violación CP" y que indica el ligero desequilibrio entre partículas y antipartículas que hizo posible el universo conocido. Los responsables del experimento han encontrado un desequilibrio entre ambas mucho mayor del que predice el modelo teórico más aceptado.

Los resultados son provisionales y podrían deberse a un fallo estadístico (el margen de error es de un 0,5%). Si son ciertos apuntarían a que el modelo de física de partículas vigente tiene una grieta por la que podría desinflarse, o crecer para aceptar en su seno nuevas partículas responsables del fenómeno. "Nuestros resultados pueden ayudar a explicar la diferencia de comportamiento que ha hecho que haya más materia que antimateria", explicó ayer a este diario Chris Parkes, físico del LHCb.

Modelo estándar

En el acelerador de Ginebra se hacen chocar protones para descomponerlos en partículas elementales, los componentes más pequeños del átomo. Tras el Big Bang, comenzaron a unirse y componer el universo tal cual es.

El comportamiento de estas partículas lo describe el modelo estándar, una teoría que "funciona muy bien" pero que "no permite explicar del todo por qué el universo es como es", resume Eugeni Grauges, físico de la Universidad de Barcelona que dirige un equipo español en el LHCb. El modelo predice un desequilibrio entre materia y antimateria del 0,1%, que, en 13.700 millones de años, no habría generado tanta materia como la que existe.

Tras analizar las colisiones acumuladas en la mitad de 2011, Grauges, Parkes y sus colegas se han topado con un desequilibrio de un 0,8%. Se trata de un resultado "sorprendente" que, sin embargo, debe ser confirmado. "No podemos decir que lo hayamos probado", advierte Parkes, pero sí "establecer que el fenómeno existe", añade Grauges. "Ahora habrá que ver si encaja con el modelo actual o no", concluye.

"No es un resultado muy espectacular", opina Alberto Ruiz, investigador del LHC y del Tevatron de EEUU. Este último acelerador encontró un desequilibrio del 0,4%, pero el margen de error era similar al del estudio actual, que en física no basta para poder proclamar un "descubrimiento".

Aunque por ahora es "pura especulación", el desequilibrio observado podría deberse a partículas no observadas hasta ahora, pero sí predichas por la teoría de la supersimetría, dice Parkes.


FUENTE :http://www.publico.es/ciencias/407117/nuevas-noticias-sobre-la-guerra-de-la-materia
#40147
La Brigada de Investigación Tecnológica de la Policía (BIT) ha identificado y localizado al hombre que había usado la red social Twitter para amenazar de muerte a Eva Hache y en la tarde de este miércoles ha sido detenido por agentes de la comisaría de la Policía Nacional de Marbella.

El detenido se personó en la comisaría tras ser citado por un presunto delito de amenazas. La Policía ha informado de la detención usando el mismo medio por el que se produjo la denuncia: Twitter. "La BIT de la Policía Nacional ha detenido en Marbella al tuitero que amenazó de muerte de forma clara y reiterada a @Eva_Hache", escribían en la red social.

"Muérete", "Yo que tú no saldría sola de casa" o "Voi al teatro i te apuñalo delante de todo el mundo", fueron algunos de los mensajes amenazantes supuestamente enviados a Eva Hache por el usuario @Pelayo_Gil, perfil que ya ha sido eliminado de Twitter. La presentadora de El club de la comedia pidió ayuda a la Policía y a la Guardia Civil a través de la red social y ambos cuerpos de seguridad respondieron a su llamada investigando la procedencia de las amenazas.

Aún no ha trascendido la identidad del supuesto autor de las amenazas. La Policía Nacional ha informado de que ampliarán los detalles de la detención a través de Twitter, por ser el medio donde se generó el caso.

FUENTE :http://www.20minutos.es/noticia/1222153/0/detenido-tuitero/amenazo/eva-hache/

Relacionado : https://foro.elhacker.net/noticias/policia_y_guardia_civil_socorren_a_eva_hache_tras_sufrir_amenazas_por_twitter-t344820.0.html;msg1684681;topicseen#msg1684681
#40148
Publicado el 16 de noviembre de 2011 por Jaime Domenech

El código fuente de Kindle Fire, la tableta de Amazon basada en Android, ya está a disposición de los usuarios, en una medida que gustará a aquellos que deseen cambiar el software de la tableta.

Lo cierto es que Amazon ha sido muy rápida y ha tardado poco en sacar a la luz el código fuente de Kindle Fire, algo que contrasta con la lentitud de Google en publicar los de las distintas versiones de Android que salen al mercado.

Tras la decisión de Amazon, los desarrolladores que lo deseen podrán crear sus propias versiones del software mientras esta no ponga barreras a la personalización de las ROMs, algo que parece poco probable si la empresa desea tener el favor de los creadores de aplicaciones.

Eso sí, el proceso de personalización de los dispositivos no será sencillo, ya que primero los expertos necesitarán obtener privilegios de root, una operación que de momento solo ha logrado un usuario de la nueva tableta.

En el siguiente enlace se puede descargar el código fuente de Kindle Fire.

vINQulos

Cnet

FUENTE :http://www.theinquirer.es/2011/11/16/se-publica-el-codigo-fuente-de-la-tableta-de-amazon.html
#40149
Publicado el 16 de noviembre de 2011 por Helga Yagüe

Un grupo de investigadores de la Universidad de Northwestern ha desarrollado una nueva tecnología que permite a las baterías de de ion-litio para teléfonos cargarse con sólo 15 minutos de conexión a la corriente y durar hasta una semana.

Los científicos han logrado este avance introduciendo una serie de cambios en los materiales de los que están compuestas estas baterías.

El resultado es una nueva batería capaz de aguantar hasta 10 veces más tiempo que las tradicionales y que puede ser recargada al completo en mucho menos tiempo.

"Hemos encontrado una manera de extender la vida de una batería de ion-litio hasta diez veces", afirma el investigador Harold H. Kung, "incluso después de 150 cargas, lo que sería un año o más de funcionamiento, la batería sigue siendo cinco veces más eficaz que las baterías de iones de litio que hay en el mercado hoy".

El equipo de científicos que ha logrado este avance considera posible que dentro de tres o cinco años este tipo de baterías lleguen al mercado.

Esta nueva técnica se basa principalmente en dos modificaciones. Por un lado, los investigadores han realizado agujeros minúsculos en las hojas de grafeno para que los iones de litio encuentren "un atajo" y se pueda acelerar el proceso de carga. En segundo lugar, han intercalado clusters de silicio entre las láminas de grafeno con el objetivo de mantener la capacidad de carga máxima de la batería.

vINQulos

The Wall Street Journal, TechCrunch

FUENTE :http://www.theinquirer.es/2011/11/16/disenan-nuevas-baterias-que-se-cargan-en-15-minutos-y-duran-una-semana.html
#40150
Noticias / Ya está disponible OpenSUSE 12.1
16 Noviembre 2011, 15:49 PM
Acaba de ser liberada la ultima versión de la conocida distribución de GNU/Linux, OpenSUSE 12.1. Al igual que en la anterior versión la 12.1, cubre todas las expectativas de cualquier usuario, con una experiencia de escritorio totalmente renovado, nuevas herramientas del sistema y tecnologías de la nube.

Citar"OpenSUSE 12.1 incluye decenas de miles de cambios y mejoras a través de una excelente selección del mejor Software Libre"


Algunas de las nuevas características son:

.- Linux kernel 3.1.0
.- Nuevo controlador AMD Catalyst 11.11
.- KDE 4.7.2
.- Xen 4.1
.- GNOME 3.2.0
.- Xfce 4.8
.- X.Org Server 7.6
.- Mozilla Firefox 7.0.1
.- Amarok 2.4.3
.- KTorrent 4.1.2
.- K3b 2.0.2
.- Integración de ownCloud2
.- virt-manager y open-vm-tools
.- Eucalyptus
.- OpenNebula
.- OpenStack
.- Lenguaje de programación Google Go

Os dejo los enlaces de descarga de las diferentes versiones.

32 bits (x86)

NET: ISO Torrent MD5

LiveCD KDE: ISO Torrent MD5

LiveCD Gnome: ISO Torrent MD5

DVD: ISO Torrent MD5

64 bits (x86_64)

NET: ISO Torrent MD5

LiveCD KDE: ISO Torrent MD5

LiveCD Gnome: ISO Torrent MD5

DVD: ISO Torrent MD5

Podéis encontrar más información en opensuse.org


FUENTE :http://www.linuxzone.es/2011/11/16/ya-esta-disponible-opensuse-12-1/