Menú

Mostrar Mensajes

Esta sección te permite ver todos los mensajes escritos por este usuario. Ten en cuenta que sólo puedes ver los mensajes escritos en zonas a las que tienes acceso en este momento.

Mostrar Mensajes Menú

Temas - wolfbcn

#40501
Desde el blog de F-Secure alertan de la aparición del primer troyano para Mac que detecta si está siendo ejecutado en una máquina virtual, para así alterar su comportamiento y evitar ser analizado.

El hecho de que el malware compruebe si se está ejecutando en un entorno de virtualización no es nada nuevo. Es una técnica que viene siendo utilizada desde hace años por gran cantidad de malware. Esto tiene un claro objetivo: los que analizamos malware solemos ejecutarlo en un entorno virtual, que permite aislar los efectos y poder volver rápidamente a un entorno "limpio" restaurando a un estado anterior.

Existen infinitas técnicas para comprobar si se está en una máquina virtual, y se ha convertido casi en un arte: buscar procesos característicos, ficheros, drivers que suelen venir en los virtualizadores más populares... Los troyanos realizan una comprobación nada más ser ejecutados y, si los detectan, no continúan. Los analistas debemos entonces o bien pasar a un entorno físico, intentar conocer qué buscan e intentar engañarlos, o bien utilizar software de virtualización menos popular (evitar VirtualBox o VMWare).

También el malware utiliza la detección de máquinas virtuales para eludir los análisis automáticos que suelen realizar sandboxes públicas que se encuentran automatizadas.

Si bien es un método antiguo, sí es cierto que es la primera vez que se observa este tipo de comportamiento en malware destinado al sistema operativo de Apple. Como viene siendo habitual, los avances técnicos de los creadores de malware suelen estar enfocados hacia evitar a los analistas "manuales". De entre sus "enemigos", son los más "peligrosos" para ellos. Desde luego, el usuario final no le supone tanto problema por ahora. Con la ingeniería social le basta y no le hacen falta artificios técnicos. En el caso de Mac, su enemigo más fuerte tampoco son los antivirus ni necesita esforzarse demasiado por eludirlos.

La muestra analizada por F-Secure en concreto, se hacía pasar por una actualización de Adobe Flash Player, y en caso de detectar que está siendo ejecutando sobre una máquina virtual, detiene por completo su ejecución. Por el momento, la única máquina virtual que sobre la que se comprueba si está corriendo es VMWare.

Existen numerosos métodos para comprobar si se está en un entorno virtual. Se puede encontrar información en la propia página de VMWare, con sus pros y sus contras:

http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1009458

En este caso en concreto no se utiliza ninguna de las técnicas descritas en la web de VMWare, muy posiblemente porque no funcionan en el 100% de los casos. Este troyano en cuestión recurre a un método descubierto por el investigador Ken Kato, que consiste en interactuar con un puerto de Entrada/Salida (puerto 'VX') que no debería existir en un entorno no virtualizado, puesto que es utilizado por la máquina huésped para comunicarse con la máquina virtual.


Sergio de los Santos
ssantos@hispasec.com
Twitter: @ssantosv

Javier Rascón
jrascon@hispasec.com

FUENTE :http://www.hispasec.com/unaaldia/4740
#40502
Seguridad / Pon a prueba tu firewall remotamente
17 Octubre 2011, 03:08 AM
Tener tu firewall activado es algo que te ayudará frente a muchos tipos de ataque que llegan a través de Internet. Pero que esté activado no quiere decir que la protección que te pueda ofrecer sea la óptima. Es por ello que no está de más comprobar "cómo te ven" desde fuera de tu red.

Muchas veces, se abren ciertos puertos para programas de mensajería, juegos, etc. También, hay servicios en el router a los que se da acceso cuando no debería ser así (SSH, Telnet, Web, etc). Si hace un tiempo os recomendábamos "Nmap Online Scanner", hoy os sugerimos poner a prueba vuestro firewall con otro servicio que cumple muy bien su función.



Se trata de http://www.whatsmyip.org/ports/

Además, como veréis en la barra de la izquierda, hay otras herramientas que pueden ser de vuestro interés.


FUENTE :http://www.daboweb.com/2011/10/16/pon-a-prueba-tu-firewall-remotamente/
#40503
Red Eléctrica de España garantiza así mejor el suministro y evita la construcción de plantas en Baleares, que deben funcionan menos horas fuera de la afluencia turística en verano | Llevar electricidad desde la Península reduce los costos: la producción en Baleares es más cara porque depende del carbón y el gas, mientras que el enlace por mar le lleva energía renovable, más barata.

El sueño de unir Baleares y la Península ya no es algo descabellado, ni una utopía; al menos, en el ámbito del suministro eléctrico. Las islas quedarán unidas a la Península a final de mes (en principio, el día 24) con una autopista eléctrica bajo el nivel del mar.

El enlace submarino, de 237 kilómetros de longitud, es el segundo del mundo por su profundidad. El cable alcanza los 1.485 metros de profundidad, una cifra sólo superada por el enlace de Cerdeña a Italia (1.600 m de profundidad). En longitud, será la tercera conexión eléctrica submarina, por detrás de la que hay entre Noruega y Holanda, y la de Italia.

Tres cables en alta tensión (250 kv) –dos de los cuales funcionan de manera permanente y un tercero está en reserva– componen la conexión entre Mallorca y la costa peninsular, en la que se utilizará un moderno sistema de corriente continua (HVDC), que reduce drásticamente las pérdidas de energía, propias de los tendidos de larga distancia.

El tendido incluye la construcción en sus extremos de dos estaciones de conversión para transformar la corriente alterna de la red en corriente continua bajo el mar: una está en Sagunt (Morvedre, 400 kv), y la otra en Calvià (Santa Ponça, 220 kv), punto de entrega de la electricidad en el sistema de Baleares.

"Una de las principales razones por las que se crea esta conexión entre Mallorca y Sagunt es reforzar la seguridad de suministro eléctrico en las islas Baleares. En Mallorca, los cortes energéticos pronto serán cosa del pasado", dice Ramon Granadino, director de Red Eléctrica de España en las islas Baleares.

La conexión permitirá transmitir 400 MW desde la Península, lo que equivale a un 25% de la capacidad eléctrica instalada en las Baleares. La obra es necesaria para los 860.000 habitantes de las islas y los diez millones de turistas que anualmente la visitan, que, en ocasiones, han sufrido un servicio muy precario.

Además, hay la previsión de construir en el futuro otro cable entre Mallorca y Eivissa, mientras que Mallorca y Menorca ya están unidas desde los años setenta por un cable de 60 km.

Creciente demanda

El nuevo tendido quiere dar respuesta a la creciente demanda de electricidad en Baleares, en donde el consumo ha aumentado a un ritmo anual en torno al 4% anual los últimos diez años, algo que, de continuar, obligaría a construir una planta cada cuatro años. No obstante, en los dos últimos años ha descendido un 1,5%.

Red Eléctrica vio preferible la interconexión porque en Baleares las plantas de producción eléctricas funcionan menos horas al año que en la Península, pues la demanda se concentra en los meses de verano. Si se levantarán nuevas plantas aquí, estarían paradas gran parte del año. "La línea aporta más seguridad en el suministro que una nueva central de 400 MW", zanja Ramon Granadino.

Energía más barata

Además, la electricidad procedente en la Península abaratará los costos totales de producción, ya que la generación en España se lleva a cabo en grandes plantas, mientras que "en Baleares las instalaciones son más pequeñas, por lo que su rendimiento es más pequeño y el combustible usado en más caro", agrega Granadino.

Concretamente, producir energía en Baleares es hasta un 70% más caro que en la media de España porque, entre otros factores, el carbón que se precisa debe importarse. "El sobrecoste que pagamos entre todos por el suministro de energía en Baleares se reducirá en unos 35 millones de euros al año", añade Granadino.

Poca producción

En Baleares, la mitad de la producción eléctrica procede de una gran térmica de carbón en L´Alcúdia y otras dos plantas de menor tamaño de gasóleo y gas. En las islas tampoco hay saltos hidroeléctricos, y las energías renovables están en mantillas.

La autopista submarina también tiene ventajas ambientales. El mix de producción eléctrica en la Península incluye un 35% de energías renovables, mientras que Baleares opera casi exclusivamente con carbón, gas y petróleo. Por eso, indirectamente se reducen las emisiones de gases invernadero. La interconexión reduce a la mitad las emisiones de CO que se porducirían si se creara otra planta eléctrica.

La construcción de la autopista eléctrica ha sido una complicada tarea, llevada a cabo de forma minuciosa y sincronizada. Los 60 primeros kilómetros del tendido (en ambos sentidos) están soterrados, para evitar el impacto en la costa, mientras que el resto del trayecto discurre por encima de la arena de los fondos marinos. La instalación fue llevada a cabo entre enero y abril de este año por tres barcos especialmente preparados, que llevaron a cabo sendos viajes de Mallorca a Sagunt cargando los 6.700 toneladas de cables. Desde el buque, el cable se dejó caer y fue depositado en el lecho del mar, con la ayuda de un pequeño vehículo de control remoto capaz de efectuar pequeños ajustes sobre el terreno. Y en las proximidades de la costa, a lado y lado, el cable se ha enterrado en la arena.

Para ello, unos robots activan unos mecanismos de chorros de agua a presión que levantan la arena y sepultan la conducción. Así quedan ocultos; y se evita que choquen con ellos las anclas de los barcos, así como posibles accidentes con barcos arrastreros.

Ayuda a las fuentes renovables


El proyecto incluye una tecnología (la HVDC de corriente continua) que permite reducir la pérdidas de transmisión eléctrica. En este caso concreto, las pérdidas puede ser de sólo el 2,3% en todo el recorrido de los 237 kilómetros, según Granadino pero el objetivo último es que sean solo un 3,7% por cada 100O kilómetros, según Udo Niehage, responsable de la división de transmisión de Siemens, empresa que se adjudicó el proyecto técnico. Niehaga es un convencido de las necesidad de fomentar estas interconexiiones en la UE. En Europa occidental, hay una capacidad eléctrica instalada de 828 GW mientras que la capacidad de interconexión es de solo 34 GW.

¿Pero puede este sistema simplemente favorecer los sistemas de producción eléctrica más descentralizados, contrarios a la meta de lograr una producción más democrática y próxima a los lugares de consumo?
Sus promotores contestan que sobre todo beneficiarán a las fuentes de producción renovable, obtenidas a larga distancias. El ejemplo que se pone es Desertec, la ambiciosa iniciativa para llevar energía de origen limpio (sobre todo solar fotovoltaica y solar termoeléctrica) desde el Sahara al norte de Europa.

La tecnología HVDC

"Con la tecnología HVDC, la electricidad de origen renovable puede ser transmitida a largas distancias con bajas pérdidas. Los enlaces HVDC se convertirá en la columna vertebral de las redes de energía, han propiciado un cambio del sistema energético alemán y ayudarán a aumentar la cuota de las energías renovables en el mix energético europeo ", dice Michael Suess, miembro del Consejo de Dirección de Siemens AG y consejero delegado de Siemens Energy.

La tecnología HVDC es un sector en rápido crecimiento. En los últimos 40 años, se han instalado conexiones con una capacidad total de 100 gigavatis, de los que el 40% corresponden a Siemens. Está previsto que para finales de esta década existan conexiones HDVC con una capacidad total de transmisión de 350 gigavatios, lo que sería el equivalente a la cantidad necesaria para satisfacer el promedio de los 27 países de la UE.

FUENTE :http://www.lavanguardia.com/vida/20111016/54231591346/la-autopista-electrica-submarina-de-sagunt-a-mallorca-entrara-en-servicio-a-finales-de-mes.html
#40504
Internet Explorer ha perdido más de un 10 % de cuota de uso en España en tan solo un año. El gran beneficiado de esta caída del navegador de Microsoft es Google Chrome, que pasa de un 12.7 % de cuota de uso en Septiembre del año pasado a un 25.23 % en el mismo mes de 2011, siendo además el único navegador junto con Safari que gana cuota de mercado en España.

En cuanto al tercer navegador en discordia, Mozilla Firefox pierde algo más de un 2 % de cuota de mercado en un año (en concreto pasa del 29.89 % en Septiembre de 2011 al 27.58 % en Septiembre de 2011).

Safari el navegador desarrollado por Apple, gana también adeptos en España ganando un poco más de 1% de cuota en un año (3.5 % Sep 2010/4.64 % Sep 2011). Por el contrario Opera pierde cuota de uso, pasando del 1.04 % al 0.84 %

A continuación os ofrecemos un gráfico de la mano de StatCounter:



FUENTE :http://www.softzone.es/2011/10/16/internet-explorer-pierde-cada-vez-mas-usuarios-en-espana/
#40505
artículo de Daniel Piñas publicado el 16 de octubre de 2011



A principios de mes llegó, junto con la noticia del fallecimiento de Steve Jobs, la confirmación oficial por parte de Samsung y Google en la que desmontaban la rueda de prensa organizada para presentar presuntamente -valga la redundancia-, el nuevo Nexus Prime.

Alegando que no era el momento, hoy las cosas cambian de torno, y parece que en esta ocasión sí hay una fecha más que oficial. Y será ni más ni menos, que el próximo día 19.

¿Qué podemos esperar por entonces? La idea de Google y Samsung es clara: el Nexus Prime tiene que llegar sin más demora, y tener muy en cuenta que el iPhone 4S está registrando un número de ventas mayor del previsto. Para combatirlo, mientras que Samsung ha apostado por un móvil con la más avanzada tecnología posible para el usuario, Google aprovechará y lanzará Android Ice Cream Sandwich junto con su nuevo teléfono. ¿Qué te parece?

Android 4.0 será la estrella por excelencia que llegará junto con el smartphone. Ambos se presentarán en la conferencia conjunta de ambos fabricantes, y en lo que respecta al sistema operativo, pasará a estar disponible momentos después.

FUENTE :http://www.ethek.com/%c2%bfahora-si-nexus-prime-debut-el-proximo-miercoles/
#40506
No a todo el mundo le gusta el lanzador de aplicaciones (dash) del escritorio Unity que viene por defecto en estas últimas versiones de Ubuntu, por ello voy a mostraros otras opciones para Ubuntu 11.04 y 11.10, que se integran perfectamente con el sistema. Todas las aplicaciones que os muestro a continuación funcionan perfectamente en Gnome, por lo que no solo sirven para Ubuntu, sino que son validas para otros sistemas operativos.

Pero antes quiero recordaros que los que echen de menos Gnome, tanto en su versión 3 como en la clásica, pueden instalarlo con un simple:

Citarsudo apt-get install gnome-shell

GLX Dock o Cairo Dock, podríamos decir que es el Rey de este tipo de aplicaciones, no es que se integre bien en el escritorio, es que una vez instalado tendremos una nueva entrada en la pantalla de inicio para iniciar ubuntu con este lanzador, además es muy configurable y tiene diversos temas y tipos de barras.
Para su instalación solo debemos agregar el repositorio e instalar la aplicación junto con los plug-in:

Citarsudo add-apt-repository ppa:cairo-dock-team/ppa
sudo apt-get update
sudo apt-get install cairo-dock cairo-dock-plug-ins

Una vez instalado, cerramos la sesión y veremos que tenemos una nueva opción en nuestro menú.



En la configuración podemos elegir entre varios efectos y apariencia para la barra y los iconos.



 



GNOME Do, es uno de los más populares entre los lanzadores de aplicaciones que no sólo permite lanzar aplicaciones o buscar ficheros, también permite especificar acciones sobre el resultado de una búsqueda, adaptándose mejor a los hábitos del usuario.
Para instalarlo:

Citarsudo add-apt-repository ppa:do-core/ppa
sudo apt-get update
sudo apt-get install gnome-do

Podemos configurarlo casi todo, aparte de poder añadir algunos extras.





GNOME Pie, es un lanzador inspirado en el juego World of Warcraft, te permite abrir aplicaciones que se encuentran en el menú de Ubuntu, controlar tu reproductor de música y de vídeo, e incluso las ventanas (como cerrarla, minimizarla, etc), entre otras cosas. Permite ser manejado con el ratón o mediante atajos de teclado ya predefinidos.
podemos instalarlo con las siguientes lineas:

Citarsudo add-apt-repository ppa:simonschneegans/testing
sudo apt-get update
sudo apt-get install gnome-pie

Podemos configurar los menús o cambiar el tema que trae por defecto.





Avant Window Navigator, es otro lanzador muy personalizable, que además admite plugins y applets como por ejemplo para mostrar el progreso de una descarga en Mozilla Firefox o para controlar un reproductor de música como Rhythmbox.
Para su instalación:

Citarsudo add-apt-repository ppa:awn-testing/ppa
sudo apt-get update
sudo apt-get install avant-window-navigator



Como vemos podemos encontrar muchas opciones para configurarlo.



Synapse, es uno de esos lanzadores que pasan desapercibidos por no ser muy espectacular, de hecho no tiene una barra que se vea ni nada de eso, trabaja en segundo plano y podemos acudir a el en cualquier momento.
Para su instalación:

Citarsudo add-apt-repository ppa:synapse-core/ppa
sudo apt-get update
sudo apt-get install synapse

Una vez instalado para ejecutarlo solo tenemos que presionar Ctrl+Espaciador y nos aparecerá el lanzador.



Al igual que los demás, podemos configurarlo a nuestro gusto.



Wbar, este es todo un clásico, es una barra sencilla pero muy funcional que además apenas consume recursos. Tambien viene en los repositorios de Ubuntu, por lo que se instala con:

Citarsudo apt-get install wbar

Aunque para configurarlo tendremos que descargar e instalar wbarconf que es un archivo .deb.



Una vez configurado podemos ejecutarlo desde consola y después reiniciamos la sesión.

Citarwbar -above-desk



Estas son solo algunas opciones, pero hay otras muchas.

FUENTE :http://www.linuxzone.es/2011/10/15/varias-alternativas-al-lanzador-de-aplicaciones-de-ubuntu/
#40507
Los usuarios más dormidos socialmente ahora ya no tienen excusa para poder comunicarse.

Pepsi ha creado en su perfil de Facebook la aplicación 'Despiertamuros' para dar vida a los perfiles más abandonados y con menos vida social. Es posible incluso publicar fotos de lugares donde el usuario no estuvo nunca o relaciones sentimentales que nunca existieron.

El 'Despiertamuros' es un contestador automático y una aplicación para todos aquellos que no entran demasiado en su perfil. Los usuarios más dormidos socialmente no tienen excusa para poder comunicarse con sus contactos de una forma más divertida y entretenida.

La idea desarrollada por Pepsi permite actualizar el muro diariamente sin entrar a la red social. No es la primera vez que Pepsi ha puesto en marcha una actividad de estas magnitudes ya que abrió este campo con la acción "en 12 días de vida", que obtuvo más de 600 descargas.

Según la compañía, gracias a esta aplicación son más los usuarios que han conseguido que por fin alguien visite su perfil y menos aquellos que abren su cuentan y no la actualizan. De momento, son 2.000 los usuarios que han pinchado en el botón 'Me gusta' del 'Despiertamuros'.

Además, el 'Despiertamuros' tiene varias configuraciones en función de la acción que se desee compartir con el resto de usuarios. Por una parte, permite adoptar un rol, al que el 'Despiertamuros' elegirá las frases más divertidas en función del elegido.

Mientras, si lo que pretende el usuario es mostrar momentos interesantes de su vida, la propia aplicación lo que hará es publicar fotos de sitos y lugares a donde no se ha ido o novios que nunca se tuvieron. El resto de opciones son responder a los comentarios de amigos y que el usuario se felicite a sí mismo en el dia de su cumpleaños.

FUENTE :http://www.libertaddigital.com/internet/2011-10-15/crean-una-aplicacion-de-facebook-para-quien-no-tiene-nada-que-decir-1276438312/
#40508
El software basado en web, e-Stetix, de la compañía Crisalix, es el primero en permitir la vista previa en 3D para cirugía plástica y estética sobre la base de las propiedades físicas del cuerpo, ayudando a los pacientes a tomar una decisión informada antes de realizarse un aumento de mama.

Diario Ti: La inyección de grasa se está convirtiendo en la nueva tendencia de moda en cirugía plástica y estética. Un número creciente de pacientes en todo el mundo está pidiendo este nuevo procedimiento ya que es menos invasivo. El software de cirugía plástica en 3D e-Stetix presenta un nuevo editor de 3D volumétrico, ofreciendo a médicos y pacientes una forma innovadora para visualizar en 3D y modificar los volúmenes de grasa en zonas específicas del cuerpo, como el busto.

De esta manera, los doctores podrán proveer a los pacientes con imágenes del antes y el después, sobre la visualización 3D del procedimiento de aumento de busto, ya sea con inyecciones de grasa o implantes de senos, para ayudar a los pacientes con la toma de decisiones de una manera significativa.

El proceso de la inyección de grasa
El objetivo de las inyecciones de grasa (también conocida como "transferencia de grasa" o "injertos de grasa") consiste en añadir volumen al busto, la cara, labios, mejillas, nalgas o incluso las manos, para crear una apariencia más juvenil. Las inyecciones de grasa son también cada vez más utilizadas para la cirugía cosmética en el aumento de senos y la cirugía de reconstrucción después del cáncer de mama. Es un procedimiento mínimamente invasivo y ofrece una alternativa natural al aumento de senos con implantes.

Según la Sociedad Americana de Cirujanos Plásticos (ASPS), los cirujanos miembros de la ASPS llevaron a cabo 57.643 procedimientos de inyección de grasa en el 2010 - un aumento del 14% respecto al año anterior.

Según el Dr. Schlaudraff, de "Concept-Clinic" en Ginebra, "los procedimientos de injerto de grasa se han popularizado grandemente entre los pacientes, debido a que el propio exceso de tejido graso del abdomen, caderas o los muslos se utiliza para mejorar o reconstruir el volumen de tejido perdido en las diferentes zonas del cuerpo, como la cara, las nalgas o el pecho. Las células madre enriquecidas con injertos de grasa en la mama - normalmente se conocen como ´aumento de pecho natural´, ofreciendo resultados naturales y con cicatrices casi imperceptibles, que son estables a largo plazo.

La visualización a través de e-Stetix, de Crisalix, muestra los resultados en 3D que se tendrá después de la cirugía. Esto permite que el paciente pueda tomar una mejor y más informada decisión en el preoperatorio, tanto para el volumen deseado y el método quirúrgico; y permite al cirujano planear con precisión el procedimiento de injerto de grasa o implante de mama.

El compromiso de Crisalix con el desarrollo de la tecnología 3D a partir de simples imágenes estándares en 2D nos permite comunicarnos de manera eficiente con nuestros pacientes y documentar el éxito de los procedimientos de injertos de grasa a largo plazo."

e-Stetix – el primer simulador 3D online para la cirugía plástica
e-Stetix es diferente de los demás simuladores en 3D basados en la tecnología 'morphing'. Es el primer simulador en línea que tiene en cuenta las propiedades físicas del cuerpo humano, como el torso, la grasa, la piel, los músculos, el tejido glandular, para poder simular tanto la inserción del implante como la inyección de grasa de una manera precisa y realista.

El modelo elástico de e-Stetix (TEM) reconstruye con precisión el propio cuerpo del paciente, de adentro hacia afuera, en 3D, usando capas volumétricas llamadas "vóxel" que integran las propiedades del músculo, la piel, la grasa y las áreas glandulares del cuerpo, con un nivel de detalles no alcanzado hasta ahora.

Utilizando las últimas tecnologías y empleando cálculos científicos sofisticados en superordenadores de alto desempeño basados en los centros de datos suizos, cada paciente puede ver en línea simulaciones en 3D ilimitadas e instantáneas de su nuevo cuerpo durante la consulta.

FUENTE :http://www.diarioti.com/noticia/Software_3D_permite_ver_resultados/30594
#40509
Aduciendo "preocupaciones relacionadas con la seguridad nacional" el gobierno estadounidense ha negado al fabricante chino Huawei participar en una licitación para la construcción de una red de telefonía móvil para emergencias. Huawei pide explicaciones.

Diario Ti: La publicación Bloomberg informa que Huawei Technologies Co., el principal fabricante chino de equipos para redes de telefonía móvil, ha pedido explicaciones al gobierno estadounidense luego que este le prohibiera participar en un programa nacional de redes de emergencia.

En un e-mail enviado a Bloomberg, el portavoz del Departamento (Ministerio) de Comercio de Estados Unidos, Kevin Griffis, adujo "preocupaciones del Gobierno de EEUU relacionadas con la seguridad nacional", negándose a entrar en detalles sobre las aprensiones en sí, o de la forma en que se llegó a la decisión de excluir a Huawei.

Anteriormente, las autoridades políticas y administrativas estadounidenses han hecho una serie de acusaciones contra Huawei, en el sentido que la empresa tendría vínculos con las fuerzas armadas chinas. Huawei ha rechazado categóricamente tales acusaciones.

Representantes de Huawei en EEUU, donde la empresa se estableció en 2001, y que ahora cuenta con una plantilla de 1.500 empleados, calificaron de infundadas las preocupaciones gubernamentales, agregando que la negativa podría afectar sus actividades comerciales en el país.

William Plummer, portavoz de Huawei, comentó a Bloomberg que la empresa ha pedido a las autoridades de Washington explicarles el fundamento legal y normativa vigente que sustentarían la exclusión en la licitación nacional.

No es la primera vez que Huawei experimenta situaciones de este tipo en Estados Unidos. Sus intentos de comprar, entre otras empresas, 3Com, 2Wire y la división de equipos de redes inalámbricas de Motorola, han sido objetados mediante procedimientos administrativos y judiciales.

Ninguna de estas medidas han impedido a la empresa, fundada por un emprendedor en 1988, rebasar a todos sus competidores estadounidenses.

Ciento treinta redes móviles en todo el mundo operan con equipos de Huawei. En 2010, la empresa tuvo una cuota del 16% del mercado global de equipos para operadores de telefonía móvil, sólo superada por Ericsson, que llegó al 20%.

FUENTE :http://www.diarioti.com/noticia/Estados_Unidos_prohibe_a_Huawei_participar/30582
#40510
Las mujeres de Nueva Delhi pronto serán capaces de espantar a potenciales atacantes con solo apretar el botón de un teléfono móvil, lo que avisará no solo a sus amigos, familiares y a la Policía, sino que también hará saltar una alarma en sus redes sociales.

Según fuentes policiales, una de cada cuatro violaciones en India tiene lugar en Nueva Delhi, donde algunas mujeres han sido empujadas dentro de coches en movimiento y violadas antes de ser tiradas en las cunetas. Esto le ha dado a la ciudad el calificativo de "la capital de la violación" del país. Hay una violación cada 18 horas, según fuentes policiales.

La aplicación telefónica 'Fight back' la lanzará en noviembre una organización caritativa local y funcionará como un dispositivo de alerta SOS, enviará un mensaje de texto con una ubicación por GPS a un máximo de cinco personas, incluyendo a la Policía, y poniendo un mensaje en Facebook y Twitter.

"La seguridad de las mujeres se ha convertido aquí en un tema importante y sentimos que los ciudadanos de Delhi, que es donde más ataca el problema, podrían usar este tipo de ayuda tecnológica", señaló el cofundador de la empresa creadora Whypoll, Hindol Sengupta.

"Las mujeres son acosadas y molestadas en todos lados, en autobuses, estaciones de metro, mercados (...) creemos que es la primera aplicación telefónica de Asia dedicada a hacer sentir seguras a las mujeres", defendió.

Sengupta declaró que la aplicación, que forma parte de la campaña de Whypoll 'seguridad en la ciudad', también trasladará las alertas a un mapa de la ciudad para construir una base de datos precisa de qué delitos y dónde se producen los crímenes relacionados con el género.

"Hemos creado una plataforma donde las mujeres pueden permanecer en el anonimato, sin embargo el incidente que cuentan se queda reflejado en un mapa en nuestra página web que nos ayudará a impulsar la campaña en los lugares donde parece existe más riesgo para las mujeres", añadió.

FUENTE :http://www.noticiasdot.com/wp2/2011/10/14/crean-una-app-de-movil-para-prevenir-abusos-a-mujeres-en-nueva-delhi/
#40511
Varios usuarios de Xbox Live denuncian que sus cuentas han sido hackeadas y utilizadas para comprar comprar el juego FIFA 2012. Hasta ahora, ni Microsoft ni Electronic Arts, se han pronunciado sobre el tema oficialmente, aunque los de Redmond han desactivado las cuentas de los usuarios afectados para investigar los casos individualmente. De momento, la opción que se baraja tanto por Microsoft como en varios foros de la red de redes, es que pudiera existir algún tipo de vulnerabilidad en los servidores de Electronic Arts que permitiera el acceso a cuentas de usuario (datos personales y tarjeta de crédito asociada).

Uno de los casos reportados más llamativos, es el del usuario Speedjack, que pese a odiar el futbol y jamás haber jugado a ningún juego basado en el deporte rey, asistió estupefacto a la desaparición de todos sus MS points gastados en DLC de FIFA 21012 e incluso vió aparecer en su cuenta 35 achievement points de FIFA 12 sin haber jugado al juego.

Se desconoce el número de usuarios afectados ...

Fuente: Levelup

LEIDO EN :http://www.softzone.es/2011/10/15/usuarios-de-xbox-live-afirman-que-sus-cuentas-han-sido-hackeadas-y-utilizadas-para-comprar-fifa-2012/
#40512
Un estudio de la Universidad de Stanford ofrece un ranking de los sitios que divulgan más datos de los usuarios

El tracking es la piedra de toque del marketing 2.0. No es ningún secreto. Por eso, las últimas versiones de los navegadores incorporan una opción 'do not track' (no rastrees), que permite a los usuarios tener más control sobre los datos que emiten, aún sin saberlo, y preservar su intimidad. Un concepto, por otra parte, cada vez más relativo, que últimamente da lugar a la coletilla: "Si no quieres que se sepa, no lo publiques".

Aun así, Jonathan Mayer, estudiante de doctorado del Computer Security Lab de la Universidad de Stanford, considera que los usuarios tienen derecho a saber qué es lo que algunos servicios dicen de ellos a otras empresas. Por eso, ha elaborado un ranking de los sitios que más datos divulgan.

Del informe, titulado 'Tracking the Trackers', se desprende que el 61% de las webs norteamericanas más visitadas mandan datos a otras empresas y el 45% a hasta cuatro dominios diferentes. Rottentomatoes.com, que envía datos a 83 dominios, y Cafemom.com, que se relaciona con otras 59 empresas, se llevan la palma.

Entre los datos sensibles que, según dice Mayer, se distribuyen, figura no sólo el nombre de usuario sino también el sexo, la edad, el código postal, el estado civil y, en algunos casos, como el del portal de contactos OKCupid.com, "la frecuencia de uso de drogas". Éste es, de hecho, el dato que ha levantado más ampollas. Hace unos días, BlueKai y Lotame, dos de las compañías que reciben datos de los sitios mencionados, negaban manejar información personal y aseguraban en el Wall Street Journal que sólo utilizan datos demográficos para hacer estudios de mercado. Comscore y Google Analytics reiteraban que ni analizan ni divulgan datos sensibles.

Sin embargo, Mayer señala que su investigación muestra que no se respeta la política de privacidad que muchos sitios exhiben a pie de página. El doctorando concluye que "el tracking no es anónimo" y que sería mejor apostar por la sinceridad e informar a los consumidores de que "la divulgación de la identidad a terceros forma parte de la vida en la web". La famosa frase que rezaba "en Internet, nadie sabe si eres un perro" deja de tener sentido en la web 2.0.

FUENTE :http://www.lavanguardia.com/tecnologia/20111014/54230387632/tracking-the-trackers-saben-que-eres-tu.html
#40513
Los europeos seguramente no olviden qué es la 'E. coli', después de que este pasado verano un brote de esta bacteria sembrara el pánico en Alemania y acabara con la vida de más de 50 personas e infectara a unas 4.440. Pero a veces ni el miedo es suficiente para concienciarse de que las medidas de higiene básicas son fundamentales para evitar infecciones. Lo demuestra el hecho de que un estudio, llevado a cabo en Reino Unido, constata que uno de cada seis móviles está contaminado con bacterias fecales, una de ellas la 'E. coli'.

Dirigidos por Ron Cutler, un equipo de especialistas de la Universidad Queen Mary de Londres viajó a 12 ciudades británicas y tomó muestras de 390 móviles y de las manos de sus usuarios que fueron enviadas al laboratorio en busca de bacterias. Además, los científicos realizaron cuestionarios a los participantes sobre sus medidas de higiene.

"Aunque el 95% de las personas dijo que se lavaba las manos con agua y jabón siempre que podían, en el 92% de los teléfonos y en el 82% de las manos había bacterias. Lo más preocupante es que el 16% de las manos y el 16% de los teléfonos estaban contaminados por 'E. coli' (una bacteria de origen fecal)", determinan los autores de la investigación.

Cutler reconoce que "nuestro análisis reveló algunos resultados interesantes relación con el Reino Unido. Mientras que en algunas ciudades había menos contaminación que en otras, el hecho de que la 'E.coli' estuviera presente en los teléfonos y manos de cada uno de los lugares analizados muestra que se trata de un problema nacional. La gente puede decir que se lava las manos con regularidad, pero la ciencia demuestra lo contrario".

Peter Barratt, director de Soluciones Iniciales para el Lavado de Manos, que apoya el 'Día Mundial del Lavado de Manos' , que se celebra mañana, asevera: "La investigación es sorprendente y demuestra la importancia de la higiene. Es muy importante que la gente se la tome en serio y que las empresas ofrezcan a sus empleados y clientes los medios para llevarla a la práctica con el fin de que se protejan a sí mismos y ayuden a combatir la propagación de enfermedades".

De las 12 ciudades analizadas, Birmingham se ha revelado como la que más móviles contaminados tiene (41%), mientras que los londinenses fueron los ciudadanos con más 'E.coli' en sus manos (28%).

Los científicos reconocen que cuanto más al norte se situaron mayores fueron los niveles de bacterias. Así, la ciudad más sucia fue Glasgow, donde el grado de promedio de contaminación en los teléfonos y en las manos era nueve veces superior al de Brighton (en el sur). Otro dato que aportan es el que hace referencia a que los usuarios que tenían patógenos en sus manos eran hasta tres veces más propensos a tenerlos también en sus móviles.

El ' Día Mundial de Lavado de Manos' , con motivo del cual se ha presentado este informe, pretende desde 2008 reforzar el llamamiento a extender mejores prácticas de higiene en todo el mundo.

FUENTE :http://www.elmundo.es/elmundosalud/2011/10/13/noticias/1318530671.html
#40514
Orden judicial contra Copwatch, que permitía consultar datos personales de agentes de la autoridad

Un juez francés ha ordenado a seis proveedores de acceso de aquel país que bloqueen la web Copwatch Nord-Ile-de-France. El sitio, que tiene como objetivo "luchar por la transparencia de la información" y contra "la violencia e impunidad policial", había sido denunciado por el Ministerio del Interior por ofrecer en sus páginas acceso a datos personales de agentes de la autoridad. El bloqueo deberá ser mantenido hasta que el tribunal tome una decisión definitiva sobre las demandas por injurias y difamación a funcionarios de la administración. Esta tarde, el sitio ya era inaccesible.

Las informaciones personales sobre policías había sido en muchos casos obtenidas de las páginas personales en las redes sociales. El tribunal precisa que el ministerio deberá sufragar los costes que suponga esta orden de bloqueo para los proveedores de acceso, informa Le Monde. Los sindicatos policiales han mostrado su satisfacción por la medida.

FUENTE :http://www.elpais.com/articulo/tecnologia/Francia/bloquea/web/informaba/policia/elpeputec/20111014elpeputec_5/Tes
#40515
Proliferan las páginas especializadas en encontrar oportunidades para reciclarse laboralmente

Casi nadie está contento con lo que tiene. Los parados ansían un empleo. Y muchos de los que están trabajando querrían perder de vista su empresa para dedicarse a algo distinto. Aunque se diría que el presente invita exactamente a lo contrario, o sea, a conservar el puesto, proliferan en internet las páginas que sirven para encontrar mejores oportunidades. Por lo general no son obra de estafadores o farsantes, sino sitios bien planificados con abundante información.

El envejecimiento de la población y la preocupación por el cuidado personal en los países industrializados repercute favorablemente en la demanda de profesionales de la salud, como médicos, enfermeros o fisioterapeutas, pero también entrenadores, profesores de yoga, monitores de pilates, etc. Esta tendencia será todavía más marcada en el futuro, según señalan las principales webs especializadas.

Los analistas coinciden en afirmar que el crecimiento tecnológico, alimentado en buena medida por la expansión de las redes sociales (Facebook, Twitter...), ha convertido este otro mercado en uno los más prometedores a escala internacional. Ello, en un contexto de crisis severa y en un entorno en el que, de acuerdo con un estudio de la consultora de recursos humanos Mercer, la mayoría de las plantillas está ahora menos satisfecha de su empleo que cinco años atrás.

Probablemente por este motivo, y a pesar de las dificultades económicas, uno de cada tres trabajadores está pensando en cambiar de oficio: para disfrutar de salarios más altos, para tener la jornada idónea, etc. Esta realidad, que en países como Estados Unidos –con una tasa de paro estabilizada en el 9% desde hace dos años– está dejando de ser latente para hacerse patente, ha llevado a la revista Money y la web PayScale.com a identificar las mejores opciones para reciclarse.

Muchas alternativas

Iniciativas como Military.com incluyen ofertas civiles adaptadas a la experiencia y las aptitudes de los soldados y mandos dispuestos a abandonar el ejército. Taprootfoundation.org, Volunteermatch.org o Hacesfalta.org ponen en contacto a los interesados con las organizaciones sin ánimo de lucro que necesitan expertos en sanidad, informática, marketing, estrategia... Los técnicos del centro de estudios Civic Ventures destacan que este será otro filón. Así, calculan que unos siete millones de los 14,6 millones de puestos de trabajo que previsiblemente se crearán en 2018 en Norteamérica pertenecerán al sector social.

Para quienes superen los 50 años existen enlaces laborales entre particulares y corporaciones como Empleosenior.org, Retiredbrains.com o Reserveinc.org. La finalidad de sitios como Momcorps.com o Teletrabajo.es "es facilitar la producción y la gestión sin salir de casa", por ejemplo para madres y padres –en el primer caso–, explica Ana, un usuaria catalana de 43 años residente en Nueva Jersey.

Como su nombre indica, en Flexjobs.com se encargan de dar con trabajos flexibles para sus candidatos, una función similar a la que desempeñan Sparked.com, Bridgestar.org o Idealist.org para proyectos en línea. "Todo un mundo que trasciende el campo de acción de las clásicas redes profesionales, como Linkedin o Xing", concluye Ana.

FUENTE :http://www.lavanguardia.com/internet/20111014/54231090973/webs-para-cambiar-de-trabajo-pese-a-la-crisis.html
#40516
Desde la aparición de Google+, todos sabíamos que Buzz tenía los días contados. Su existencia no tenía sentido frente a la aparición de la nueva red social de Mountain View. Pues bien, ahora se ha anunciado: Buzz cerrará sus puertas virtuales en unas indeterminadas "pocas semanas".

Desde Google indican precisamente que el cierre de Buzz y su API se produce para concentrarse en Google+. Aunque ya no será posible publicar nada, se podrá ver el contenido que se haya publicado por medio de nuestro perfil de Google, además de poder descargarlo a través de Google Takeout.

Pero Buzz no cae solo. Otro que tenía los días contados era Jaiku, y ahora ya tiene fecha definitiva de defunción: dejará de funcionar el 15 de enero de 2012 y están trabajando para que los usuarios puedan sacar sus datos de allí antes de esa fecha.

Y para terminar con las modificaciones en la estrategia social de Google, iGoogle perderá sus características sociales el mismo día en que Jaiku pasa a mejor vida: el 15 de enero. iGoogle sigue ahí, igual que todo lo que no es social, pero los usuarios no tendrán la posibilidad de interactuar entre ellos.

Por último, dos cosas más. La primera se trata otros dos cierres: adiós a Code Search y su API, que permitía buscar código fuente abierto en la web, y al University Research Program for Google Search, un acceso a la API de búsqueda de Google que daban a investigadores. La fecha límite es la misma que en los casos anteriores: el 15 de enero.

La segunda: hoy echan la persiana en Google Labs, como anunciaron. Recordemos que esto no afecta a los labs existentes en diferentes productos, como en Gmail. Ah, y hoy también Boutiques.com y Like.com, una compra de la que os hablamos hace más de un año, pasan a ser reemplazados por Google Product Search.

Google se ha tomado muy en serio lo de ir limpiando la casita, desde luego, y es algo digno de elogiar. De hecho, yo incluso creo que Buzz ha tardado mucho en ser dado de baja desde que apareció Google+. Tal vez lo que deberían haber hecho desde un principio es haber integrado ambos servicios para permitir una transición suave a los usuarios, que los había, de Buzz.

Creo que podemos terminar con preguntas: ¿cuántos servicios más van cerrar? ¿Hasta dónde van a llegar con todos estos reajustes? Son más bien preguntas retóricas. Pero os hago una directa: ¿conocéis algún servicio de Google que merezca especialmente darle "matarile" o que creáis que tenga todas las papeletas para que sea así?

Vía | The Official Google Blog

FUENTE :http://www.genbeta.com/web/google-cierra-buzz-jaiku-y-quita-las-caracteristicas-sociales-de-igoogle-entre-otras-cosas
#40517
El récord lo ha fijado uno de los miembros de Bethesda.

Bethesda ha desvelado que The Elder Scrolls V: Skyrim, que previsiblemente será uno de los juegos más extensos de la generación, siguiendo la línea de su predecesor Oblivion, podrá terminarse en tan solo dos horas.

La compañía ha desvelado que será posible ver los créditos finales del título en tan solo dos horas de juego tras realizar una competición de velocidad en finalizar el juego entre miembros de la compañía. Sam Bernstein se impuso finalmente a Jeff Brown, uno de los diseñadores del juego, y consiguió terminarlo en 2:16:10... veinte segundos menos que su rival.

Este tiempo, claro está, no es el normal de finalización del título, sino que lo han logrado los diseñadores del juego, conocedores a la perfección de todo el mundo de Skyrim y sus secretos. No quiere decir que los usuarios normales vayan a terminar el juego en dos horas, ni que el título sea corto.

De hecho, como las anteriores entregas, se basa en ofrecer multitud de misiones y objetivos que el jugador decide cuándo y cómo afrontar, si es que finalmente lo hace, de manera que estiman que su duración puede superar las 100 horas de juego.

FUENTE :http://www.vandal.net/noticia/61515/skyrim-puede-terminarse-en-tan-solo-dos-horas/
#40518


El culebrón de OpenOffice.org (que proviene, recordemos, de la compra de Sun por parte de Oracle, hace ya tiempo) sigue su curso. Recordemos la última entrega, cuando Oracle dejó a OpenOffice.org en manos de la comunidad mientras nacían LibreOffice y la Document Foundation. Pero todavía no ha terminado el culebrón, dado que el último numero todavía nos deja algo más desconcertados.

Oracle entregó en junio a la fundación Apache el código fuente de OpenOffice.org por si querían hacerse cargo del proyecto. En aquel momento fue aceptado como un brote en la incubadora de proyectos de Apache. De hecho tenían incluso su página de proyecto dentro de dicha incubadora. Y OpenOffice.org desde hoy es parte de la familia de herramientas que desarrolla la Apache Software Foundation.

De esta manera el desarrollo de OpenOffice.org permanece asegurado (y Powered by Apache) por un grupo de aproximadamente 70 desarrolladores, aunque lleve casi un año de retraso respecto a LibreOffice. El proyecto todavía no va a salir a la luz, dado que de momento los esfuerzos del equipo se centran en migrar el código fuente, la documentación y demás a la infraestructura de Apache.

Como curiosidad, LibreOffice está bajo la licencia GPL y OpenOffice.org (desde ahora Apache OpenOffice.org) está bajo el paraguas de la Apache Software Foundation (y, por tanto, utiliza la licencia Apache). LibreOffice podrá utilizar código de OpenOffice.org pero la inversa sería totalmente inviable. Por supuesto, el equipo de OpenOffice.org no niega la existencia del fork y da la enhorabuena al equipo de LibreOffice por el año inaugural, deseándole un futuro brillante.

Bueno es saber el final de una de las ramificaciones de uno de los culebrones que más están dando de sí en los últimos tiempos. Queda por ver el futuro de MySQL, a la vista de que es la principal competencia del producto estrella de Oracle.

Más información | The Apache Software Foundation Blog

FUENTE :http://www.genbeta.com/actualidad/finalmente-apache-se-hace-cargo-de-openofficeorg
#40519
Un robot programado para realizar en el futuro labores asistenciales, un simulador réplica de la cabina del avión comercial Boeing 737 o un globo sonda. Se trata de algunos de los proyectos que se exhiben en la Campus Party Milenio, que fue inaugurada el jueves por los Príncipes de Asturias.

En este encuentro internacional, que se celebrará hasta el domingo en Armilla (Granada) dentro de los actos conmemorativos de la celebración, en 2013, del Primer Milenio de la Fundación del Reino de Granada, participan más de 600 expertos de 22 países de la cuenca Mediterránea, como Albania, Argelia, Chipre, Egipto, Francia, Italia, Marruecos o Turquía.

Lo último en ocio y tecnología se da cita en este encuentro digital que conocieron de cerca los Príncipes de Asturias durante un recorrido guiado por algunos de los expositores, como el que acoge a Icube, un robot creado por un consorcio de universidades europeas que forma parte de una nueva generación de máquinas que lograrán realizar numerosas tareas asistenciales para los humanos.

Y ello gracias a su capacidad para interactuar con las personas en su actividades cotidianas, ya sea en el centro de trabajo o en la casa.

Además de este robot, con el que los príncipes interactuaron, don Felipe y doña Letizia encendieron el denominado Mod del Milenio, un ordenador construido por los participantes y basado en el diseño de una brújula personalizada con mensajes ligados a la celebración del evento.

En esta brújula se sustituyen por ejemplo los puntos cardinales por valores como la paz, la innovación y la cooperación.

Otro de los proyectos que protagonizan la muestra son un globo sonda que estaba previsto que se lanzara este viernes y que se ha concebido como símbolo de cooperación entre los participantes, y 'Wayra' de Telefónica, una plataforma que recoge las iniciativas de los emprendedores y selecciona a algunas de ellas, que recibirán ayuda económica y asesoría para su puesta en marcha.

La Campus Party acoge también expositores como el dedicado al Milenio, al Parque de las Ciencias de Granada o proyectos innovadores como una fuente fotovoltaica capaz de usar la energía solar para enfriar el agua, lo que paliará el sobrecalentamiento de las fuentes públicas.

Concebido como punto de encuentro para el intercambio de conocimientos y escaparate de los proyectos más innovadores, la Campus Party cuenta con una zona abierta al público y otra denominada Campus Futuro, que es una exposición interactiva sobre las últimas innovaciones tecnológicas, como el primer robot humanoide con capacidad para mantener una conversación en árabe.

FUENTE :http://www.20minutos.es/noticia/1188411/0/campus/party/milenio/
#40520
En muchas ocasiones hemos hablado sobre la seguridad inalámbrica de los distintos tipos de cifrado.

Os hemos enseñado a cómo comprobar que realmente estos cifrados son vulnerables (Hackear una red Wi-Fi con WEP ; Hackear una red Wi-Fi con WEP sin clientes conectados).

También os hemos informado sobre diccionarios con claves WPA de los principales operadores, para que pudiérais comprobar de que las claves que vienen por defecto no son seguras, y que siempre debemos cambiarlas por unas fácil de recordar para nosotros, pero a la vez difíciles para los demás.

Hoy os presentamos una conjunto de vídeos que describen detalladamente los tipos de cifrados y cómo romperlos.

La duración de los vídeos hacen un total de 12 horas, y ocupan 4,2GB. En los vídeos podremos apreciar el escritorio de un ordenador donde se realizarán los ataques a los diferentes tipos de cifrado, y a un interlocutor hablando en inglés.

Para todos aquellos que os interesen este tipo de información, os recomendamos ver estos vídeos, aunque estén en inglés se entiende bastante bien.

Tenéis los enlaces de descarga aquí:

WLAN Security Megaprimer

Enlace directo de descarga:

http://securitytube.aircrack-ng.org/Wi-Fi-Security-Megaprimer/WLAN-Security-Megaprimer-v1.iso

Esperamos que os guste.

FUENTE :http://www.redeszone.net/2011/10/14/seguridad-de-las-redes-wireless-todo-lo-que-debes-saber-ahora-en-video/
#40521
Opera 12 alpha con un tema y usando la aceleración WebGL.

Después de las habituales snapshots de Opera, ya tenemos disponible la primera alpha de Opera 12. Esta nueva versión no trae casi ningún cambio visual, pero sí muchas mejoras internas y de rendimiento.

Los noruegos han cambiado el motor javascript, Carakan, para que use menos memoria y cumpla a la perfección con el estándar ECMAScript 5.1. Además, han incluido un parser de HTML5, Ragnarök. ¿Para qué sirve este parser? Para que las páginas web se muestren siempre de la misma forma en cualquier navegador. Casi nada.

Esta alpha incluye lo que ya os contaba mi compañero Manu Mateos: aceleración hardware con WebGL. Ahora mismo está en fase de pruebas, con OpenGL (todavía no soporta DirectX) y no funciona en algunas gráficas. Pero tranquilos: si no funciona en vuestro ordenador, Opera usará un motor de renderizado por software así que no hay que preocuparse de nada.

Y por último, los de Opera han hecho un pequeño cambio a sus skins: ahora se llaman temas y pasan a ser más coloridos, con imágenes y gráficos. Lo único malo, que de momento sólo están disponibles para los usuarios de Windows y Mac.

Como siempre, Opera es gratuito y ya lo podéis descargar, aunque como es una alpha no esperéis un navegador estable e infalible. Si tenéis Opera Next, debería bajarse la actualización a la alpha automáticamente.

Vía | Opera Desktop Team
Descarga | Opera Next

FUENTE :http://www.genbeta.com/navegadores/llega-opera-12-alpha-con-aceleracion-hardware-nuevos-motores-js-y-html5-y-temas

Relacionado : https://foro.elhacker.net/noticias/opera_12_mejorara_y_mucho_el_uso_de_aceleracion_grafica_incluso_en_xp-t341494.0.html
#40522
La Comisión del Mercado de las Telecomunicaciones (CMT) ha negado a Orange la posibilidad de comercializar una oferta de 30 megas utilizando la red de fibra óptica (FTTH) que se encuentra desplegando Movistar basándose en la actual regulación. El exmonopolio no está obligado a alquilar sus redes a dicha velocidad ni a superiores.

El pasado mes de marzo Orange acudía a la CMT para denunciar que "la oferta de comercialización por terceros de las ofertas minoristas FTTH de Telefónica incumple lo dispuesto por la CMT en su resolución de 11 de noviembre de 2010". La filial española de France Telecom se refiere a la Resolución del organismo regulador de las telecomunicaciones sobre el Nuevo servicio Ethernet de acceso mayorista de Banda Ancha (NEBA), en la que se indica que a partir de la fecha de disponibilidad efectiva de éste (2012) Telefónica ofrecerá una "solución de comercialización por terceros de sus ofertas minoristas FTTH".

Con el paso de los meses, tras las previas solicitudes de información por parte de la CMT, Telefónica informa de que "las únicas modalidades
disponibles FTTH son las que ofrecen velocidades de acceso de 10 Mbit/s, 50 Mbit/s y 100 Mbit/s". De este modo, cerraba la puerta a que Orange lanzase su modalidad de 30 megas, una velocidad que el exmonopolio eliminó en 2010 para migrar a sus usuarios a los 50 megas que comercializa en la actualidad.

La normativa actual no obliga a Movistar a alquilar sus redes por encima de los 50 megas, por lo que la única posibilidad que le quedaría a Orange sería comercializar una oferta FTTH de 10 megas, velocidad muy inferior a la que pretende vender a los usuarios.

Recordemos que Orange, al margen de pretender aprovechar la red desplegada por Movistar, se encuentra desplegando su propia infraestructura para ofrecer sus conexiones FTTH. En concreto, el operador alternativo ofrece en determinados puntos de Madrid, Barcelona y Asturias sus conexiones de 100 megas simétricos por 45,95 euros al mes (más IVA pero con la cuota de línea incluida en este precio).

Jazztel fue otro de los operadores alternativos que se han mostrado interesados en que la nueva regulación de la CMT incluya las redes de fibra óptica de modo que se garantice la competencia real y efectiva también en las conexiones más veloces.

FUENTE :http://www.adslzone.net/article7066-orange-no-podra-lanzar-su-conexion-de-fibra-optica-de-30-megas-sobre-la-red-de-movistar.html
#40523
Supimos de la compra el 10 de mayo, pero no fue hasta junio que la comisión entimonopolio de los Estados Unidos estuvo de acuerdo y no ha sido hasta hace pocos días que la Comisión Europea no dio su visto bueno a la operación y no ha sido hasta esta madrugada que oficialmente, Skype ha pasado a formar parte del gigante Microsoft. Desde ahora, el servicio de llamadas y conferencias por VoIP es una división de la compañía de Redmond. Steve Ballmer, su CEO, declara:

CitarSkype es una marca y un producto fenomenal y querido por millones y millones de personas alrededor del mundo. Vamos a trabajar con el equipo de Skype para crear nuevas formas de mantener conectadas a familias, amigos, clientes y compañeros cuando sea y donde sea.
Tony Bates, hasta ahora CEO de Skype, ocupará ahora el cargo de presidente de la división Skype de Microsoft. Es de esperar que Microsoft empiece a integrar Skype en sus servicios y sistemas, al mismo tiempo que mantiene la promesa de mantenerlo en el resto de plataformas de la competencia. Haremos lo único que se puede hacer en estos casos: esperar a ver cómo en Microsoft utilizan Skype y observar la reacción de los usuarios.

Vía | Microsoft News Center
Vídeo | YouTube

FUENTE :http://www.genbeta.com/voz-ip/skype-ya-es-oficialmente-una-division-de-microsoft-la-compra-se-ha-completado

Relacionado : https://foro.elhacker.net/noticias/la_comision_europea_ha_autorizado_la_compra_de_skype_por_microsoft-t341192.0.html;msg1671669;topicseen#msg1671669
#40524
Jerry Decime ha reportado un error en el router DIR-685 Xtreme N Storage de D-Link que haría que una red inalámbrica cifrada pasase a transmitir todo su tráfico sin ningún tipo de protección.

Al parecer, una de las condiciones en las que se ha conseguido reproducir el fallo se da cuando el router está configurado para ofrecer una red inalámbrica con cifrado WPA o WPA2 y clave AES precompartida (PSK).

La segunda condición que da lugar al fallo es la de transmitir una gran cantidad de datos sobre la red. Bajo esta carga, el router pasaría de cifrar todo el tráfico generado, a enviar todos los datos en claro a través de la red. Además no sería necesario conocer la contraseña para poder acceder a la red inalámbrica. Habría que reiniciar el dispositivo para volver a la configuración de protección de la red inalámbrica original establecida por el usuario, es decir WPA o WPA2 y clave AES PSK.

Precisamente las condiciones para que el tráfico sea desvelado no son nada "extrañas". Precisamente este dispositivo se anuncia como ideal para utilizar aplicaciones y protocolos orientados a la transmisión de gran cantidad de datos, como son BitTortrent, NAS, FTP o streaming... Además, el uso de WPA o WPA2 con clave AES es lo más recomendado por no conocerse ningún fallo grave de seguridad aún en esta configuración.

Por el momento D-Link no ha publicado ningún parche o contramedida oficial para solventar el problema. Se recomienda los usuarios del modelo afectado evitar el uso del cifrado AES y pasar a la alternativa "menos mala" en estos momentos, que es RC4 (y por tanto, el protocolo TKIP) o si es posible, autenticación por RADIUS.

Javier Rascón
jrascon@hispasec.com

FUENTE :http://www.hispasec.com/unaaldia/4737
#40525
El código de Ultraviolet permite acceder al portal donde están las películas compradas y verlas desde distintos dispositivos.- También se aplicará a las compras de títulos en línea

En la era de Internet, ¿cómo se define un coleccionista de películas?

La respuesta no es sencilla. Los formatos DVD y Blu-Ray sufren un descenso constante de ventas y una bajada progresiva de precios muy dañina para la industria. Páginas web como Netflix permiten pagar cuotas mensuales por ver títulos en streaming, redefiniendo el concepto de alquiler. Los alquileres, sin embargo, no son provechosos para los grandes estudios.

Ayer, sin embargo, nació UltraViolet, un nuevo formato que pretende casar viejos coleccionismos con nuevos hábitos de navegación en la Red.

Mucho han cambiado las cosas desde la época en que las colecciones de películas eran estantes y estantes de cintas de VHS. Hoy en día, donde todo pasa por la Red, incluso el DVD parece abultar demasiado. Pero comprar una copia digital de una película, a través de un sistema como iTunes, de Apple, implica descargarla en un dispositivo y depender de él para verla. UltraViolet, creado con el apoyo de todos los grandes estudios cinematográficos de Estados Unidos (excepto Disney, que prepara en solitario un sistema similar para sus títulos) ofrece acceso digital al film desde cualquier dispositivo, en streaming.

Con cada DVD, Blu-Ray o copia digital que se compre con el sistema UltraViolet, vendrá un código de 12 dígitos para introducir en el portaluvvu.com, donde se almacenarán los títulos adquiridos.

Un total de seis miembros de la misma familia podrán acceder con sus propias cuentas a ese título. No tienen por qué hacerlo desde la misma conexión a la Red. Una pareja puede comprar la película en Nueva York y su hijo puede verla en Tejas. En total, se podrá acceder a él desde 12 dispositivos diferentes, sean éstos pecés, portátiles, tabletas u otros dispositivos móviles.

"Lo que sucede con UltraViolet es que un cliente compra un DVD en formato físico, y lo compra también almacenado en la nube desde el mismo momento en que sale de la tienda", dijo recientemente en una conferencia con analistas el presidente de Time Warner, Jeffrey Bewkes. "Si el cliente adquiere una copia digital de una operadora de cable o de cualquier tienda online, también compra esa copia digital en UltraViolet, y se puede mover de un dispositivo a otro.

Eventualmente, los clientes podrán llevar sus viejos DVD a la tienda para que se les aplique el formato UltraViolet y se les pueda transferir también a la nube, para poder acceder a ellos desde otros dispositivos.

La primera película en estrenarse en este nuevo sistema, Cómo acabar con tu jefe, de Warner, comenzó a comercializarse ayer en EE UU. El viernes llegará a las tiendas Green lantern, de los mismos estudios.

El precio de una copia de Blu-Ray con derechos UltraViolet ronda, de momento, los 30 dólares, unos 21 euros. En diciembre, Sony estrenará en ese sistema Con derecho a roce y Los Pitufos. Universal lo incluirá en la copia para venta de Vaqueros y aliens, también a finales de año. De ese modo, las distribuidoras intentarán popularizar el formato en plena época de compras navideñas.

El consorcio tras UltraViolet, bautizado como Digital Entertainment Content Ecosystem, incluye también a las distribuidoras Paramount Pictures, 20th Century Fox y Lionsgate. Está, además, en negociaciones con Sony, Nokia, Panasonic, Motorola, Toshiba, HP, Samsung, Dell, LG, Philips y otros fabricantes para generalizar al máximo el número de dispositivos que podrán reproducir el contenido digital de las productoras. En esa lista hay una gran ausencia: Apple, que de momento se ha mantenido al margen de las negociaciones.

FUENTE :http://www.elpais.com/articulo/tecnologia/Hollywood/lanza/venta/DVD/derecho/ver/filme/Internet/elpeputec/20111011elpeputec_6/Tes
#40526
 El virus informático que afectó a los aviones militares no tripulados (drones) de Estados Unidos en la base de Creech, Nevada, ha sido una "simple molestia" según la Fuerza Aérea de EEUU.

Según la revista Wired, citando fuentes anónimas, hace unas dos semanas un virus informático entró en los sistemas que controlan este tipo de aviones. El 'malware' fue detectado en los ordenadores de la base de Creech, según explicó el Comando Especial de las Fuerzas Aéreas.

También han comentado que "este tipo de 'malware' es común y ha sido más una molestia que una amenaza para el funcionamiento de los equipos, y puede ser aislado". Parece que el virus afectó a las cabinas de los aviones tipo Predator y Reaper, pero no causó ningún problema en las misiones de control remoto de estos aparatos.

Se cree que la 'contaminación' vino a través de los discos utilizados para la actualización de los mapas topográficos. Los drones suelen ser utilizados por los militares de EEUU y la CIA para controles militares y bombardeos en lugares como Pakistán o Yemen.

FUENTE :http://www.elmundo.es/elmundo/2011/10/13/navegante/1318501640.html

Relacionado : https://foro.elhacker.net/noticias/un_virus_se_infiltra_en_la_red_de_aviones_teledirigidos_de_estados_unidos-t341208.0.html;msg1671611;topicseen#msg1671611
#40527
Publicado el 13 de octubre de 2011 por Jaime Domenech

La versión final de Ubuntu 11.10, que emplea el kernel 3.0, ha salido hoy de forma oficial y ofrece importantes mejoras, destacando las que afectan a la interfaz de usuario Unity.

Lo cierto es que desde la implantación de la interfaz Unity en Ubuntu 11.04 muchos usuarios se quejaron de que tenía algunas carencias que debían corregirse y por esta razón los desarrolladores han tratado de perfeccionarla.

En ese sentido, Unity es más robusta y la compatibilidad con 2D está garantizada, de forma que aquellos usuarios con gráficas de menor calidad puedan usar la interfaz sin problemas.

Una de las novedades en el diseño de Unity está en el debut de un nuevo panel dedicado a la búsqueda y reproducción de música y que se integra con Banshee, el programa elegido por defecto para escuchar canciones.

Asimismo, los menus de la esquina superior derecha se han reordenado para que a los usuarios les sea más fácil manejarse con ellos.

Eso si, aquellos que no gusten de Unity para el escritorio podrán optar por GNOME 3.2, KDE 4.7.1 o bien Xfce 4.8.

En el apartado del cliente de correo electrónico se sigue confiando en Thuderbird, tal y como os informamos el pasado agosto, y como gestor de acceso al escritorio se prescinde de Gnome Display Manager (GDM), que ha sido reemplazado por LightDM.

Por otra parte, el cliente Gwibber para la gestión de redes sociales ha mejorado su rendimiento y modernizado su diseño.

En el aspecto del software también destaca la inclusión en los repositorios de Adobe Flash 11 en su versión de 64-bit, así como la de GCV 4.6.1 y X.org 7.6.

Para el formato de archivos del sistema por defecto se vuelve a confiar en Ext4, pero también se podrá seleccionar Btrfs, aunque en caso de optar por este último será necesario hacer una partición de arranque separada.

En el Software Center se estrena la función OneConf, gracias a la cual se podrá sincronizar con otros ordenadores la lista de paquetes instalados y algunos apartados de su configuración.

Los usuarios que lo deseen pueden descargarse ya la versión oficial de Ubuntu 11.10 en el siguiente enlace.

vINQulos

Ars Technica, h-online

FUENTE :http://www.theinquirer.es/2011/10/13/ubuntu-11-10-oneiric-ocelot-ya-esta-en-el-mercado.html
#40528
Después de cuatro días de incidencias continuas, el servicio de Internet de Blackberry ha quedado restablecido al completo. Así lo ha anunciado el codirector general de Research in Motion (RIM), Mike Lazaridis, quien ha pedido disculpas a los afectados por el fallo técnico.

La comparecencia de Lazaridis se ha producido en un esperado comunicado de prensa junto a Jim Balsillie, el otro director general de la compañía canadiense. Ambos reconocieron los fallos y entonaron el mea culpa ante los asistentes, pidiendo perdón a los usuarios afectados. "Éste es el mayor fracaso de la historia de Blackberry", reconocieron tras el problema que ha afectado a varias regiones como Europa, Oriente Medio y África.

Aunque no se especificó cuántos usuarios en concreto se habían visto afectados por el problema se admitió que había sido una situación "lamentable". Lo que no explicaron fue el motivo del fallo y se limitaron a afirmar que se experimentó "una degradación en la infraestructura" en las citadas regiones. "Trabajamos mucho para asegurar que el problema no se extendiese a la infraestructura global", aseguraron.

Sin cifra exacta de usuarios afectados

España ha sido uno de los países afectados, aunque el director general de RIM en nuestro país, Eduardo Fernández, no concretó el número de afectados ya que se han centrado en "volver a dar servicio cuanto antes". Sin citar cantidades ni plazos, Fernández aseguró que su compañía se encuentra en conversaciones con los operadores para llegar a un acuerdo que sirva para compensar a los usuarios. Recordemos que éstos amenazaban con emprender acciones contra RIM ante el temor de las primeras denuncias.

Precisamente la primera denuncia tanto contra RIM como contra Movistar ha llegado en el día de hoy. El abogado y usuario del conocido smartphone Ramón Arnó aseguró que reclamaría la compensación por pequeña que fuese (FACUA señala que la máxima compensación rondará el euro y medio). No obstante, si las empresas que trabajan con estos terminales pueden justificar pérdidas por el fallo también sería posible que se les recompensase económicamente.

Por último, señalar que desde la cuenta oficial en Twitter de la compañía en España se sugiere a los afectados que en caso de persistencia de los problemas prueben a apagar el terminal, quitarle la batería y volver a encenderlo.

FUENTE :http://www.adslzone.net/article7060-punto-y-final-a-los-problemas-de-conexion-con-blackberry.html
#40529
La tradición señala como único autor de los cinco primeros librosde la Biblia o Pentateuco al patriarca hebreo Moisés. Sin embargo, los estudiosos han afirmado que estos libros fueron redactados en realidad por diversas fuentes. Un nuevo algoritmo computacional desarrollado por investigadores de varias universidades de Israel y que posibilita el reconocimiento de indicios lingüísticos, como la preferencia por ciertas palabras o la diferencia en la elección de sinónimos, permitirá dividir estos textos en diferentes grupos de autoría posibles.


Por Yaiza Martínez de Tendencias Científicas.

La Toráh es el nombre con el que se designan los cinco primeros libros de la Biblia o, para los cristianos, el Pentateuco.

Aunque en bibliografía cristiana suele denominarse ley mosaica, ley de Moisés o ley escrita de Moisés porque, según la tradición, el Pentateuco fue escrito sólo por Moisés, en el pasado los especialistas han proporcionado evidencias de que estos libros fueron en realidad obra de múltiples autores, al igual que otros libros de la Biblia hebrea y del Nuevo Testamento.

Sin embargo, hasta la fecha, establecer esta diversidad de fuentes había supuesto una laboriosa tarea. Ahora, nuevas investigaciones realizadas por expertos de la Escuela de Ciencias Computacionales Blavatnik, de la Universidad de Tel Aviv (TAU) en Israel, han dado lugar al desarrollo de un algoritmo que podría ayudar a desvelar dichas fuentes.

Buscando en las "palabras vacías"

Los desarrolladores de dicho algoritmo han sido el profesor de la TAU, Nachum Dershowitz, y sus colaboradores, el estudioso de la Biblia Idan Dershowitz, de la Universidad Hebrea de Jerusalén, y los especialistas Moshe Koppel y Navot Akiva, de la Universidad Bar-Ilan, publica American Friends Tel Aviv University en un comunicado.

Según los investigadores, el algoritmo computacional desarrollado reconoce indicios lingüísticos -como la preferencia por ciertas palabras o la diferencia en la elección de sinónimos- que permiten dividir los textos en diferentes grupos de autoría posibles.

Centrándose sólo en el estilo de la escritura, en lugar de en la materia o en el género, Dershowitz y sus colaboradores soslayaron diversos obstáculos metodológicos que entorpecían el estudio de estos textos: los análisis basados en el contenido entrañaban una potencial falta de objetividad, y la diversidad de géneros presentes en la Biblia (poesía, narrativa, leyes y parábolas) representaban múltiples complicaciones.


Dershowitz señala que el software creado busca y compara detalles que los estudiosos difícilmente detectarían, como la frecuencia en el uso de verbos auxiliares, preposiciones o conjunciones (las denominadas palabras vacías ).

Estos detalles tienen un efecto pequeño en el significado del texto, pero en su uso cada autor o fuente presenta un estilo propio que permite identificarlo.

Exactitud casi total

Para probar la validez de su método, los científicos mezclaron aleatoriamente pasajes de dos libros del Antiguo Testamento, el de Jeremías y el de Ezequiel, y le pidieron al ordenador que los separase.

Mediante la búsqueda y la categorización de los capítulos en función de las preferencias en el uso de sinónimos (palabras que tienen un significado similar o idéntico entre sí y pertenecen a la misma categoría gramatical), así como en la elección de palabras comunes, el programa informático fue capaz de separar ambos pasajes con una exactitud del 99%.

El software también pudo distinguir entre materiales "sacerdotales" (aquéllos referidos a temas religiosos, como los rituales) y materiales "no-sacerdotales".

Aunque el algoritmo aún no está en un estadio lo suficientemente avanzado como para proporcionar un número probable de autores implicados en la escritura de cada uno de los libros de la Biblia, Dershowitz afirma que ya podría ayudar a identificar los puntos de transición en el interior de cada texto, es decir, el momento en que cambió el autor de cada uno de ellos.

Otros textos enigmáticos

El software desarrollado por el profesor Dershowitz y sus colaboradores se enmarcaría en un nuevo terreno de investigación bautizado como "humanidades digitales".

Dentro de este sector, desarrollado para conocer mejor las fuentes históricas, ya se han creado otros programas informáticos destinados a ayudar a atribuir textos anónimos a autores conocidos, mediante el reconocimiento de su estilo, por ejemplo.

En el caso del estudio de La Biblia con estas nuevas herramientas, el desafío es mayor, dado que no existen trabajos atribuidos con los que comparar los textos bíblicos.

Por otro lado, los científicos creen que el algoritmo desarrollado para la Torá podría proporcionar información sobre otros textos enigmáticos, como los contenidos en numerosos tratados de origen desconocido y que han ido apareciendo a lo largo de la historia.

Las pruebas realizadas hasta ahora con el software han aparecido detalladas en Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics.

FUENTE :http://www.laflecha.net/canales/curiosidades/noticias/un-algoritmo-computacional-aclara-la-autoria-de-los-textos-biblicos
#40530
artículo de Daniel Piñas publicado el 13 de octubre de 2011

A estas alturas, todos conocemos perfectamente la historia y guerra de patentes que están teniendo grandes fabricantes como Apple, Samsung, y en menor medida LG. Y si bien creíamos que el asunto se había calmado mínimamente algo, nos equivocamos... y de sobremanera.

Hoy nos hemos despertado con la noticia de que Apple ha conseguido una nueva prohibición que no permitirá a Samsung vender sus tablets en Australia. A priori puede sonar algo insignificante para nosotros, pero desde luego, no lo es. Todos estos ataques y bloqueos de patentes se corresponden con un mismo patrón: perjudicar al usuario final. Somos nosotros los más perjudicados, no los grandes fabricantes. ¿Deberíamos permitir esto?

El hecho de ir más allá con prohibiciones, intentos de bloqueos de ventas y en general todo lo que no apoya a una libre progresión del mercado, se traduce a su vez en una competencia mucho menor de lo esperado. Las multinacionales no progresan tecnológicamente de cara al usuario como deberían, y el resultado son productos recién estrenados que ya parecen anticuados. Véase, por ejemplo, el iPhone 4S.

Dicho esto, ¿no crees que estos bloqueos de patentes deberían ser inexistentes? La libre competencia mejoraría en todos los aspectos, y esto, por supuesto, finalizaría en un gran beneficio para los usuarios y clientes de estas empresas. Productos más avanzados, desarrollo sin limitaciones, y en general un libre mercado que todos queremos.

FUENTE :http://www.ethek.com/apple-y-samsung-continuan-perjudicandonos/
#40531
Publicado el 13 de octubre de 2011 por Helga Yagüe

Google es uno de los mayores gigantes de la red y debe estar acostumbrado a recibir críticas por todos lados pero en esta ocasión el enemigo está en casa ya que ha sido un ingeniero del proyecto Google+ en encargado de echar por tierra a la red social.

El susodicho es Steve Yegge, miembro del equipo de desarrollo de Google+, que ha calificado a la red social como "una idea patética de último momento"para rivalizar con Facebook.

El empleado de Google escribió estas reflexiones para compartirlas de forme interna con sus compañeros a través de Google+, pero accidentalmente sus ideas fueron publicadas y quedaron a la vista de todo el mundo, bien por despiste o porque el propio ingeniero de la red social no sabe utilizarla demasiado bien.

Para su desgracia los comentarios ya han visto la luz en numerosos medios y la compañía ha debido tomar buena nota.

Yegge considera que el lanzamiento de Google+ se basó en la "noción incorrecta de que Facebook tiene éxito porque han construido un gran producto". En este sentido considera que la red social de Mark Zuckerberg ha triunfado porque "han construido una constelación entera de productos permitiendo a otras personas hacer el trabajo".

El ingeniero piensa que la red social de Google es "un buen ejemplo de nuestro fracaso para comprender las plataformas", y añade que dado el nivel de improvisación de este proyecto ni siquiera tenían una API cuando se lanzó.

Poco después de que estas críticas fueran publicadas Yegge eliminó la entrada y publicó una aclaración tratando de quitar hierro al asunto.

Además de estas críticas, Google se ha tenido que enfrentar a la publicación de unas estadísticas según las cuales el tráfico en su red social ha caído en un 60%.



vINQulos

Cnet, International Business Times

FUENTE :http://www.theinquirer.es/2011/10/13/un-ingeniero-de-google-califica-de-%e2%80%9cfracaso%e2%80%9d-a-google.html
#40532
Un investigador de la Universidad de Texas, en Estados Unidos, ha impulsado una estrategia para frenar la acción de los virusinformáticos y demás códigos maliciosos, antes de que éstos empiecen a ejecutarse y mutar por ordenadores personales, redes y servidores. Dicha estrategia está basada en la aplicación de los avances en lenguaje de programación a la investigación del software de seguridad. Por Patricia Pérez de Tendencias Científicas.

Hasta hace una década, la principal preocupación de los especialistas en seguridad informática era combatir los clásicos virus, cuya finalidad era destruir o dificultar el normal funcionamiento de los ordenadores. Con el aumento progresivo de usuarios de Internet, la atención está puesta ahora en el malware, un tipo de software mucho más potente que, como gusanos y troyanos, es capaz de apoderarse de datos privados y delinquir con ellos.

Pero lo peor está por llegar, pues aunque los expertos en seguridad cibernética no han visto una clara evidencia de malware que ataque a las aplicaciones antivirus existentes, creen que es sólo cuestión de tiempo.

Uno de esos investigadores es el doctor Kevin Hamlen, del Centro de Investigación sobre Seguridad Cibernética de la Universidad de Texas en Dallas, quien con sus averiguaciones ha abierto el camino hacia una nueva generación de herramientas y estrategias para luchar contra esos códigos maliciosos e indeseables.

Según publica la revista Signal Online, el estudio de Hamlen es posible gracias al Premio Académico al Desarrollo Profesional Precoz(CAREER) que otorga la Fundación Nacional de la Ciencia (NSF), agencia norteamericana que impulsa la investigación en todos los campos no médicos de la ciencia y la ingeniería. Materializado en 500.000 dólares por un periodo de cinco años, este premio ha permitido a Hamlen desarrollar un trabajo bautizado por él mismo como "carrera armamentista virus-antivirus".

A su vez, el investigador de la Universidad de Texas reconoce que el proyecto actual es la consecución de un estudio inicial realizado para la Oficina de Investigaciones Científicas de las Fuerzas Aéreas de Estados Unidos (AFOSR), en el que ya trató de anticiparse a la "próxima generación de ataques de malware".

Evolución de los virus

Según se desprende del estudio de Hamlen, actualmente la mayoría de los virus se propagan al azar a través de la Red, mutando para evitar ser copias exactas y dificultar así su detección.

"Lo que nuestra investigación estaba viendo era si estos virus podrían empeorar al mutar de forma directa en lugar de al azar, de modo que pudieran infectar una máquina, detectar qué tipo de defensas tiene, aprender sobre ellas utilizando avanzadas técnicas automáticas, y luego trabajar activamente para derrotarlas a través de la Red", detalló el informático.

Por eso su proyecto, más que perfeccionar los actuales sistemas de detección de malware, pretende anticiparse a la acción de esos códigos malignos. Para ello, Hamlen plantea aplicar los avances en el lenguaje de programación a la investigación de software de seguridad.

Como recoge también en un comunicado la propia Universidad de Texas, la idea es "implementar algoritmos que capten el código sospechoso cuando va a empezar a ejecutarse, e interrumpirlo en los microsegundos entre las pruebas de daño inminente y el daño real en sí", extrapolando la fórmula que usan los programadores informáticos para tratar de predecir lo que los programas hacen una vez que los ejecutan.

Beneficios añadidos

La aplicación de esta investigación no llevaría aparejada la adquisición de ningún dispositivo adicional, pues aprovecharía las capacidades de cómputo y las funciones ya programadas en la gran mayoría de los chips de CPU que se utilizan actualmente, aunque con otros fines, desde los portátiles a los grandes servidores de computación en nube.

"Nadie tiene que salir a comprar nuevos chips o software: es una combinación de características que ya existen, pero que al unirlas y configurarlas con el software correcto, pueden interrumpir el malware en ese momento mágico, en el punto exacto donde se pueden aplicar algoritmos y realizar todo tipo de predicciones sobre lo que estos virus son capaces de hacer", destaca Hamlen.

En ese sentido, el investigador trabajará durante los próximos cinco años con su equipo a la búsqueda de aquel lenguaje que resulte más eficaz para hacer frente a los códigos infecciosos. En algunos casos, estos hallazgos podrían ser integrados de forma rápida y directa en los actuales programas antivirus, para mejorarlos, mientras en otros propiciarían la creación de nuevo software.

En última instancia, Hamlen apunta además que la aplicación de su estudio podría mejorar la resistencia de la infraestructura cibernética estadounidense y, por ende, la mundial, ante un ataque malicioso. Y es que, aunque los virus personales pueden no tener una trascendencia significativa, a menudo son utilizados para atacar objetivos de prioridad baja desde los que tejer la red hasta las grandes esferas.

FUENTE :http://www.laflecha.net/canales/seguridad/noticias/los-algoritmos-avanzados-posibilitan-una-nueva-generacion-de-antivirus
#40533
Con más de 5.750 millones de dispositivos móviles en servicio en todo el planeta, – entre ellos más de 5.200 millones de dispositivos 3GPP – la telefonía móvil es la forma más dominante de comunicación del mundo.

Diario Ti: Las tecnologías inalámbricas emergentes de trabajo en red; están tejiendo un nuevo futuro conectado, según un informe reciente de Yankee Group, la familia de tecnologías 3GPP es una base ideal para desarrollar un plan de despliegue a prueba del futuro para los dispositivos conectados. 4G Américas, una asociación de la industria inalámbrica que representa a la familia de tecnologías 3GPP, anunció hoy la publicación del libro blanco de Yankee Group: Mobile Broadband Connected Future: From Billions of People to Billions of Things (El futuro conectado por banda ancha móvil: de miles de millones de personas a miles de millones de cosas).

El informe independiente solicitado por 4G Américas, analiza dos áreas clave que resultan esenciales para la planificación estratégica de negocios y tecnológica, de los fabricantes originales de equipos (OEM), fabricantes de chips, operadores móviles, proveedores de infraestructura móvil, proveedores de soluciones, industrias de negocios verticales, industrias de consumo masivo horizontales, empresariales, entre otros participantes del ecosistema industrial del mundo conectado del futuro: 1) ¿Por qué incorporar movilidad? y 2) ¿Cuál es la tecnología correcta para incorporar en los dispositivos conectados?

"Se prevé que todo lo que tenga un interruptor de encendido y apagado se conectará en forma inalámbrica, – ya estamos viendo aplicaciones de la industria vertical que están transformando con éxito los negocios, incluso los que no poseen interruptores, como las trampas para cazar ratones", afirmó Vicki Livingston, titular de Comunicaciones y Relaciones, con analistas de 4G Américas. "Uno de los dispositivos más sencillos, – la trampa caza ratones – ya está disponible en la forma de dispositivo que alerta a los exterminadores mediante una conexión inalámbrica, lo que ahorra tiempo, además de recursos valiosos. La visión futura que incluye hasta 50 mil millones de cosas conectadas en el 2020, no es tan difícil de alcanzar como podría parecer inicialmente".

El informe de Yankee Group; confirma que el futuro dependerá de la conectividad. Al incorporar conectividad celular en sus dispositivos, los OEM diferencian sus marcas y satisfacen a los consumidores. Según encuestas de Yankee Group, más del 69 por ciento de los consumidores exigen conectividad ubicua, y el 88 por ciento desea conectividad a velocidades de banda ancha. Según el informe, las siguientes tendencias llevaron a los actores de la industria y los usuarios finales de toda la cadena de valor hacia la conectividad incorporada:

· Los consumidores demandan una experiencia al cliente irresistible.

· Los consumidores demandan conectividad en todo momento.

· Fabricantes de dispositivos pueden apuntar a nuevos segmentos de la población de consumidores.

· Los proveedores de redes pueden monetizar nuevos servicios.

· Las empresas pueden obtener una ventaja competitiva sobre sus pares.

Además, el informe de Yankee Group concluye; que las implantaciones de dispositivos conectados gozan de claros beneficios al emplear tecnologías 3GPP (GSM-LTE), desde el nivel del dispositivo individual hasta el de la infraestructura de red. Los OEM que incorporen tecnología a sus dispositivos deberán elegir una tecnología de red escalable, costo-efectiva y de gran ancho de banda. La familia de tecnologías 3GPP es superior que sus pares en las siguientes características:

· La familia de tecnologías 3GPP provee una opción escalable para la conectividad. Las tecnologías 3GPP; aseguran capacidades de roaming mundial para los artículos conectados que crucen fronteras. Más de 800 operadores alrededor de todo el mundo utilizan tecnologías 3GPP, para conectar a más de 5.200 millones de personas. Ningún otro estándar tecnológico ostenta la misma escala mundial.

· Los módulos 3GPP son costo-efectivos. Las redes GSM omnipresentes les permiten a los fabricantes de módulos 3GPP, escalar la producción a grandes volúmenes. Soluciones de dispositivos conectados implican grandes volúmenes de módulos, e incluso pequeñas ventajas en los precios del hardware, pueden sumarse para representar un Costo Total de Propiedad (TCO) - su sigla en inglés -, significativamente menor en una implantación.

· La familia de tecnologías 3GPP ofrece la gama más flexible de opciones de redes de pequeño y gran ancho de banda. Cada aplicación M2M, (de máquina a máquina), tiene necesidades singulares de ancho de banda o latencia. Las aplicaciones SMS que funcionan en ráfagas presentan buen desempeño tanto en redes GPRS como GSM. Pero la familia de tecnologías 3PGPP, también ofrece cobertura a baja latencia con: HSPA+ y LTE, para aplicaciones que requieren mayor ancho de banda en las industrias verticales de la administración de flotas, la seguridad y la cartelería digital. Más de 400 redes en 152 países, brindan servicio con el uso de tecnologías HSPA y HSPA+.

El futuro conectado por banda ancha móvil: de miles de millones de personas a miles de millones de cosas, incluye investigaciones sobre dispositivos conectados en el ámbito de los casos de negocios, la reducción de las barreras de ingreso en la conectividad inalámbrica, el desarrollo de estándares, los beneficios tecnológicos para los dispositivos, incluso la latencia y las velocidades de transmisión, también provee aplicaciones y casos de uso de varias industrias verticales u horizontales clave, entre ellas telemática de flotas, energía, salud móvil, cartelería digital, telemática de "autos conectados", educación, sin mencionar la electrónica de consumo masivo.

"El Yankee Group llevó a cabo investigaciones sobre las categorías de dispositivos emergentes y dispositivos conectados, si bien el modelo de negocios ha estado presente durante más de una década, aún está en una etapa naciente", afirmó Eugene Signorini, Vicepresidente del Yankee Group, e investigador principal del informe. "Esta etapa va cambiando rápidamente a medida que el mundo abre muchas industrias, también dispositivos a un nuevo nivel de conectividad. Nuestra investigación demuestra que los beneficios de las tecnologías 3GPP, son correctos para el éxito en M2M, otros dispositivos empresariales y al consumidor virtual de todas las industrias horizontales y verticales."

El libro blanco de Yankee Group, Mobile Broadband Connected Future: From Billions of People to Billions of Things (El futuro conectado por banda ancha móvil: de miles de millones de personas a miles de millones de cosas, (octubre de 2011), y la correspondiente presentación en slides se encuentran disponibles para descargar gratuitamente en: www.4gamericas.org

FUENTE :http://www.diarioti.com/noticia/Recomiendan_banda_ancha_movil_3GPP/30573
#40534
O2 Connect pretende hacerle la competencia a Skype y WhatsApp

Los operadores de telefonía ven como su negocio tradicional -vender minutos de llamadas y de mensajes- se les escapa de las manos. Nuevos actores están aprovechando las aplicaciones casi infinitivas que permite Internet para arrebatarle ese negocio. Las llamadas y mensajes a bajo precio (o gratuitas) de Skype o WhatsApp, respectivamente, son solo los ejemplos más señeros de esta competencia. Telefónica lo sabe y quiere intentar frenarlo. O2, su filial en Reino Unido, ha anunciado el lanzamiento del servicio O2 Connect, que permitirá el envío de llamadas y SMS gratis a través de las redes Wi Fi.

Gracias a la tecnología VoIP (voz sobre el protocolo de Internet), todos los clientes que tengan un teléfono inteligente (smartphone) podrán realizar llamadas gratis con su número de teléfono móvil normal, a cualquier móvil o fijo de Reino Unido. El servicio, que por el momento solo es de prueba, estará disponible para los iPhone (iOS) y los smartphones que funcionan con Android, el sistema operativo de Google, y posteriormente se extenderá a otros dispositivos. Un número de clientes de O2 y de empresas podrá participar en el test mediante una selección que se iniciará este mes.

Se espera que el lanzamiento comercial de este servicio se produzca en 2012, según anunció O2 en una nota, y que se extienda a otros países, entre ellos España. Se trata del primer gran lanzamiento de Telefónica Digital, la nueva unidad de la multinacional española que engloba la innovación, y que dirige Mathew Key, antiguo responsable de O2.

FUENTE :http://www.elpais.com/articulo/economia/Telefonica/ensaya/Reino/Unido/llamadas/gratis/Internet/elpepieco/20111013elpepieco_13/Tes
#40535

Luego de la defensa que hizo Microsoft de su decisión de reemplazar el Menú inicio por la "Start Screen" en Windows 8, salieron al paso numerosas críticas por parte de los usuarios, quienes opinan que, contrario a lo que dice Microsoft, la nueva pantalla de inicio implica un retroceso en usabilidad respecto a lo que había en Windows 7.

A raíz de eso los de Redmond han publicado un artículo kilométrico, donde en parte se sigue respondiendo a las críticas, pero a la vez se anuncian cambios concretos para resolver algunos reclamos populares. Uno de ellos es la vista de "todas las aplicaciones", la cual hasta ahora mostraba todos los programas instalados en orden alfabético, sin ninguna otra categorización. Resulta que a partir de la Beta de Windows 8 (sí, habrá una Beta pública), esta vista mostrará a las aplicaciones agrupadas de acuerdo a las carpetas que existían en el anterior menú Inicio (tal como se ve en la captura de arriba).

Otro cambio relevante será el facilitar la creación y modificación de los grupos de "live tiles" que aparecen en la Start Screen, y el entregar mayores capacidades de configuración a las empresas para que creen pantallas de inicio que se adecuen a las necesidades corporativas. Incluso le será posible al administrador bloquear la personalización de la Start Screen, para así asegurarse de que los empleados usen sólo la configuración que la empresa da por defecto.

Pero más allá de esos cambios, creo que el punto más interesante que creo que tocó Steven Sinofsky es que en la nueva "Start Screen" el usuario en realidad se demora menos en alcanzar los programas con el mouse que en el Menú Inicio, a pesar de que las "live tiles" estén más lejos. Esto es debido a la llamada "ley de Fitts" la cual dice que el tiempo que una persona tarda en mover el puntero hacia un objetivo aumenta cuando el objetivo está más lejos, pero también disminuye cuando el objetivo es de mayor tamaño (ya que se requiere menos precisión). Según explica Sinofsky, las Tiles de Windows 8 son lo suficientemente grandes como para que el aumento en tamaño compense la mayor lejanía, por lo que en realidad uno se debería demorar menos en alcanzarlas con el mouse.

Eso se ve en el siguiente "mapa de calor", en el cual las zonas más verdes son las que se demoran menos en alcanzarse, de acuerdo a la ley de Fitts (el punto que intenta hacer Microsoft es que mientras en el menú Inicio hay solo 2 items en verde, en la Start Screen hay 17).



Esas son, en general, las ideas y anuncios más relevantes. Como mencioné antes, el artículo original es casi kilométrico, y además divaga mucho en temas secundarios que no resumiremos acá (por ejemplo, se explica como la evolución humana ha hecho que nos sea más fácil navegar por entornos en 2D que en listas unidimensionales, cita investigaciones del MIT sobre porqué son mejores los colores planos y formas cuadradas como las de Metro, etc.). Sin duda es una lectura recomendadísima para aquellos que estén más interesados en el tema de las interfaces.

Más información | Building Windows 8

FUENTE :http://www.genbeta.com/sistemas-operativos/microsoft-anuncia-cambios-en-la-start-screen-de-windows-8-para-responder-a-las-criticas-de-usuarios
#40536
 Las infraestructuras tecnológicas de los Juegos Olímpicos de Londres 2012 continuarán funcionando incluso si se produce un ataque terrorista que fuerce a las autoridades a desactivar las redes móviles, según el responsable de la división tecnológica de Londres 2012, Gerry Pennell.

En ese caso, las comunicaciones por redes de radio estarían operativas aunque, además, la organización dispone de teléfonos vía satélite que podrían funcionar en esos momentos, explicó Pennell esta semana durante la inauguración del centro de control de operaciones tecnológicas de Londres 2012.

Sin embargo, las circunstancias "extremas", como un atentado, en las que las autoridades podrían tomar la decisión de desconectar las redes móviles son "bastante pocas y lejanas", dijo.

Por otro lado, "en el caso de que le pase algo al edificio" del distrito financiero londinense de Canary Wharf donde está el control tecnológico, la organización dispone de unas instalaciones auxiliares.

"Es importante para nosotros que las cosas funcionen", aseguró Pennell, para lo que se necesita una "infraestructura suficiente", capaz de ofrecer un buen nivel de servicio durante los Juegos Olímpicos.

Pruebas previas

Para garantizar el correcto despliegue de la tecnología de este evento deportivo, la organización ha realizado 18 pruebas previas y tiene previstas otras 24 antes de que comience la cita olímpica.

Pennell no descarta que haya "momentos individuales" en los que sea difícil establecer comunicaciones, aunque confía en que, la gran mayoría del tiempo, la red funcionará "bastante bien".

Una de las razones por las que la organización ha puesto especial foco en las infraestructuras tecnológicas es la creciente demanda de información.

La multinacional francesa Atos, socio tecnológico del Comité Olímpico Internacional (COI) y responsable del centro de control, espera procesar el 30% más de resultados de competiciones que en las olimpiadas de Pekín.

Según los datos que maneja la compañía, el año que viene, en el que se desarrollarán los Juegos, habrá 8.500 millones de dispositivos conectados a la red.

FUENTE :http://www.elmundo.es/elmundo/2011/10/12/navegante/1318410216.html
#40537
Un tribunal ampara a la compañía por tratarse de una empresa extranjera

Yahoo! no está obligada a responder directamente a las demandas de colaboración y proporcionar información de sus clientes a la fiscalía belga, al tener su sede en Estados Unidos y depender de la legislación de ese país, según decidió hoy el Tribunal de Apelación de Bruselas. La corte ha señalado que el Ministerio Fiscal belga "no es competente para imponer actas de instrucción fuera de sus fronteras", dado que la sede de la compañía está situada en California (Estados Unidos).

El tribunal bruselense debía pronunciarse sobre si Yahoo! podía seguir beneficiándose de las leyes estadounidenses e internacionales en materia de cofidencialidad, o si debía colaborar con las autoridades judiciales belgas cuando le solicitasen información para una investigación, como la dirección IP de un internauta. La Fiscalía de Dendermonde (norte del país), que llevó a la empresa tecnológica ante los tribunales por su negativa a colaborar mediante la transferencia de información, estudia ahora recurrir ante el Tribunal Supremo.

Según el Ministerio Público, Yahoo! es la única compañía de servicios de comunicación electrónica que "se niega" a cooperar en las instrucciones judiciales (asegura que otros de sus competidores como Microsoft, Google o Facebook sí que están dispuestos a colaborar), al alegar que no se rige por la ley belga. Y ello, "a pesar de que a simple vista en internet se puede ver que Yahoo! está presente y activo en el plano comercial en Bélgica", añade la Fiscalía.

Para la Fiscalía de Dendermonde la sentencia emitida hoy ha significado un revés importante, ya que supone tener que dirigir una petición de colaboración judicial a las autoridades estadounidenses para obtener datos procedentes de Yahoo!. Según sus cálculos, esto puede provocar retrasos de entre seis y 18 meses en la investigación.

FUENTE :http://www.elpais.com/articulo/tecnologia/Yahoo/puede/negarse/colaborar/Justicia/belga/elpeputec/20111012elpeputec_7/Tes
#40538
Tercer día de problemas en Blackberry, los usuarios siguen reportando errores a la hora de sincronizar el correo o de navegar desde sus teléfonos móviles. En Movilzona.es estamos recogiendo las últimas informaciones oficiales proporcionadas por la marca canadiense.

Una de las principales fortalezas de RIM es el servicio que proporciona a sus clientes por medio de sus servidores centrales. La compañía controla el tráfico y la seguridad de las comunicaciones, un valor añadido clave para muchas empresas que confían en la robustez del servicio. Sin embargo, en esta ocasión su fortaleza se ha convertido en debilidad.

¿Por qué se produce la incidencia?

Los problemas técnicos se iniciaron hace tres días y se originaron en uno de los servidores principales. El switch encargado de balancear el tráfico no hizo su trabajo y las tareas comenzaron a encolarse saturando todo el servicio. Una vez que la firma solucionó el problema principal se encontró con una cantidad ingente de datos que tampoco fue capaz de gestionar provocando numerosas caídas de red.

Desde el departamento de comunicación de Blackberry España nos han confirmado que siguen trabajando para resolver cuanto antes los problemas técnicos. A la vez reiteran las disculpas y es que los afectados se cuentan por millones.

Indeminizaciones

La organización de consumidores en acción FACUA recomienda a los usuarios reclamar por los días que han tenido problemas. Según el portavoz de la asociación, las indemnizaciones podrían ascender hasta 1,5 euros por día, una cantidad irrisoria para el trastorno que supone el no acceder al correo o Internet desde el terminal.



Sigue al minuto la información

A pesar de ser un día festivo, desde Movilzona.es vamos a hacer un seguimiento especial de la incidencia que de momento se está prolongando más de la cuenta.

¿Sigues teniendo problemas con tui Blackberry?

FUENTE :http://www.adslzone.net/article7049-incidencia-blackberry--persisten-los-problemas-con-el-correo-y-navegacion.html
#40539


Tras anunciarlo en la WWDC y recordarlo en la pasada presentación del iPhone 4S, Apple ha lanzado iOS 5 para todos sus dispositivos móviles. La actualización trae consigo toda una serie de novedades interesantes, pero la más remarcable es la de la entrada de iCloud. La nube de Apple ya está aquí, y con ella viene la posibilidad de abandonar el clásico proceso de sincronización que siempre se ha empleado en los terminales Apple.

Con iOS 5 también llega un nuevo sistema de notificaciones mucho más eficaz que nos recuerda mucho al de Android, la integración de los SMS con el servicio iMessage, recordatorios, una profunda integración con Twitter, edición de fotografías y mejoras en la aplicación de la cámara, más rendimiento y estabilidad... y el asistente Siri de forma exclusiva en el iPhone 4S.

Los dispositivos compatibles con iOS 5 son el iPad y el iPad 2, el iPhone 4S, 4 y 3GS y los iPod touch de tercera y cuarta generación. La actualización es completamente gratuita y podéis activarla desde iTunes. Paralelamente, una actualización de OS X Lion a la versión 10.7.2 también nos prepara Mac OS X para iCloud. A descargar se ha dicho.

Vía | Applesfera

FUENTE :http://www.genbeta.com/mac/ios-5-y-os-x-1072-ya-estan-aqui-bienvenido-icloud
#40540
Publicado el 12 de octubre de 2011 por Jaime Domenech

Con el nombre de openQA 1.0, openSUSE acaba de poner en marcha una plataforma con la que simplifica la tarea de realizar pruebas técnicas en sistemas operativos.

En concreto, la nueva plataforma está preparada para trabajar con cualquier sistema operativo que sea compatible con máquinas virtuales, lo que hace que además de funcionar con distribuciones de Linux, también pueda poner a prueba sistemas como Windows.

openQA recoge capturas de pantalla y registra el texto proveniente de la máquina virtual y compara ambos con sus imágenes y textos de referencia.

Además, el sistema operativo es controlado mediante la herramienta OS-autoinst, que envía órdenes virtuales al teclado y ratón, y puede examinar la pantalla virtual del sistema operativo para hacer frente a los problemas que puedan surgir durante el proceso de prueba.

Al final, la plataforma presenta los resultados obtenidos de los tests a los que se ha sometido al sistema operativo bien el formato de video ogv o bien en el tradicional txt.

Eso sí, conviene aclarar que a pesar de que openQA se puede usar en diversos sistemas operativos, la funcionalidad que permite ver un resumen de los tests y acceder a los pantallazos de las pruebas fallidas, en estos momentos sólo está disponible para openSUSE.

vINQulos

h-online

FUENTE :http://www.theinquirer.es/2011/10/12/opensuse-presenta-una-plataforma-para-testar-las-distros-de-linux.html
#40541
Publicado el 12 de octubre de 2011 por Jaime Domenech

A pesar de que en los últimos tiempos se le viene dando importancia a los ataques zero-day, un estudio de Microsoft Security Intelligence asegura que estos solo suponen el 1% del total de "exploits" que circulan por internet.

Para su investigación analizaron datos de más de 600 millones de equipos de más de 100 países diferentes y descubrieron que en el primer trimestre de 2011 el 99% de los ataques fueron perpetrados mediante el uso de ingeniería social.

Asimismo, el estudio asegura que el 90 por ciento de las vulnerabilidades que fueron explotadas por los "hackers" ya tenían sus correspondientes parches y actualizaciones en el mercado desde hace más de un año.

Microsoft considera que los consumidores no deberían de preocuparse tanto por las vulnerabilidades zero-day, y en cambio estar más atentos a los parches y actualizaciones que lanzan desde el software, sistemas operativos y herramientas antivirus.

En cualquier caso, el estudio tampoco se olvida de que los ataques zero-day no siempre son detectados, y explica que aunque sean escasos, tienen unos efectos muy dañinos debido a que son difíciles de eliminar.

vINQulos

TechEye

FUENTE :http://www.theinquirer.es/2011/10/12/microsoft-asegura-que-las-vulnerabilidades-zero-day-son-escasas.html
#40542
Noticias / Aparecen rumores sobre un iPad Mini
12 Octubre 2011, 21:24 PM
Publicado el 12 de octubre de 2011 por Jaime Domenech

El pasado febrero ya os informamos sobre los rumores que apuntaban hacia un iPad de 6 pulgadas, y ahora las últimas informaciones aseguran que Apple planea lanzar el "iPad Mini", una tableta que debutaría en 2012.

Todavía se desconoce si el tamaño será igual o inferior al del iPad 2, pero los expertos aseguran que tendrá un precio mucho más asequible, en la franja entre los 200-300 dólares.

El lanzamiento del iPad Mini podría producirse en durante los meses de marzo-mayo del próximo año, ya que en torno a esas fechas Apple suele hacer las presentaciones de sus nuevos modelos de tabletas.

Según el analista Brian White, de la empresa Ticonderoga Securities, una vez estrenado el iPad Mini se producirá la llegada del iPad 3, seguramente en el segundo trimestre de 2012.

Desde AppleInsider aseguran que si Apple no se ha animado a presentar una tableta inferior a las 10 pulgadas ha sido debido a la oposición de Steve Jobs, que no era partidario de dispositivos de 7 pulgadas como la Samsung Galaxy Tab.

Para el recientemente fallecido Jobs, 7 pulgadas era un tamaño demasiado grande para considerar esos dispositivos como smartphones y demasiado pequeño para garantizar una perfecta usabilidad en el ecosistema tablet.

A pesar de esto, parece que en el caso del iPad Mini, el lanzamiento tendría visos de obtener éxito en el mercado si cuenta con un precio tan bajo con respecto a su hermano mayor.

¿Te parece interesante la idea de un iPad más pequeño y barato?

vINQulos

DigitalTrends, Apple Insider

FUENTE :http://www.theinquirer.es/2011/10/12/62709.html
#40543
Los días posteriores a esta apertura pública registró picos de incremento de hasta un 1.200%.

El 20 de septiembre Google+ dejó atrás su fase de pruebas y fue abierta a todo el mundo. A pesar llegar a los 25 millones de visitantes únicos tan solo cuatro semanas después de su puesta en funcionamiento, la red social de Google ha visto disminuir su base de usuarios, tal y como recoge un estudio de la compañía Chitika Insights, dedicada al análisis de publicidad online.

Ante la novedad, ese mismo 20 de septiembre, el tráfico de Google+ se disparó, pero tres días después este tráfico se redujo hasta en un 60 por ciento, según la compañía.

"Los datos muestran que, tras el día de su debut público, el tráfico de Google+ se disparó a niveles máximos. Sin embargo, poco después, el tráfico se redujo en más del 60 por ciento", asegura la compañía en el estudio.

La compañía encargada de realizar el estudio cree que este descenso de tráfico se ha producido por falta de interés de los usuarios, ocasionada por dos razones. Por un lado, porque para poder diferenciarse de entre las demás redes sociales es necesario "destacar y ofrecer un servicio distinto a las demás" y, por otro lado, porque las características de una red social deben ser "únicas y difíciles de duplicar" por la competencia. Si esto no se produce, la ventaja competitiva desaparece rápidamente.

"A pesar de su nueva interfaz llamativa, la rapidez en lanzar nuevas aplicaciones y centrarse en la interacción de los usuarios, Google+ no parece ser capaz de mantener sus visitas únicas de una manera sostenible", asegura la compañía.

FUENTE :http://www.libertaddigital.com/internet/2011-10-12/el-trafico-de-google-se-reduce-en-un-60-1276438011/
#40544
El FBI ha detenido a una persona en el marco de una investigación sobre el 'hackeo' de móviles de famosos y que hace unas semanas supuso la circulación en la red de varias fotos de la actriz Scarlett Johansson desnuda, tal y como informa el diario 'Los Angeles Times' en su edición electrónica.

La actriz y otros famosos denunciaron entonces que sus teléfonos habían sido 'hackeados' después de que empezaran a circular por Internet las fotos de la famosa actriz, que ella misma había sacado desde su teléfono móvil, tal y como confirmó su abogado.

Por el momento, las autoridades no han revelado la identidad del detenido en el marco de la operación bautizada como 'Hackerazzi', aunque en las próximas horas ofrecerán una rueda de prensa para dar más detalles sobre el operativo.

La investigación arrancó a finales de 2010 cuando comenzaron las primeras denuncias sobre el pirateo de móviles y ordenadores de algunas personalidades de Hollywood, explica el diario.

FUENTE :http://www.elmundo.es/america/2011/10/12/gentes/1318433047.html
#40545
La multinacional Sony investiga un defecto en cerca de 1,6 millones de televisores de su línea Bravia en todo el mundo que podría provocar el sobrecalentamiento de los aparatos, informó un portavoz de la compañía nipona.

El defecto podría afectar a 630.000 unidades en Europa, unas 30.000 en Latinoamérica, cerca de 480.000 en Estados Unidos y Canadá y casi 190.000 en Japón, además de unas 270.000 unidades en el resto de Asia y Oriente Medio.

En el caso de Japón, los televisores (cinco versiones de su modelo Bravia fabricadas entre julio de 2007 y junio de 2008) ya no están en el mercado, añadió el portavoz, sin ofrecer datos sobre la situación en el resto del mundo.

Al parecer, un fallo en una de las piezas del interior de esas unidades podría causar el calentamiento excesivo de las mismas e incluso hacer que se quemen, lo que podría provocar que la parte superior del aparato se funda parcialmente.

Según el Ministerio japonés de Industria, hasta el momento en Japón se ha informado de una decena de casos de sobrecalentamiento en los televisores, aunque ninguno de ellos provocó daños mayores.

Está previsto que Sony detalle en Japón el problema a través de anuncios en la prensa y en la página web, además de avisar a los clientes registrados, y en todos los casos revisará y reparará los televisores afectados de forma gratuita.

FUENTE :http://www.elmundo.es/elmundo/2011/10/12/navegante/1318415162.html