Menú

Mostrar Mensajes

Esta sección te permite ver todos los mensajes escritos por este usuario. Ten en cuenta que sólo puedes ver los mensajes escritos en zonas a las que tienes acceso en este momento.

Mostrar Mensajes Menú

Mensajes - wolfbcn

#37961
Escapar de la rutina del trabajo o simplemente que en la oficina pasamos la mayoría de las horas del día delante de un ordenador. Estos motivos o una mezcla de ambos pueden ser la explicación de que el horario laboral sea el preferido para realizar las compras a través de Internet.

Así lo asegura la compañía Shoppydoo, que ha registrado un aumento considerable de las visitas a la web de su comparador, www.encuentraprecios.es, en horario laboral.

En cuanto al resto del día, por las tardes disminuye el tráfico de la página (se produce un 14,44% de las visitas), mientras que de madrugada vuelve a experimentar un aumento (33,32%).

El informe se ha extraído de los datos de tráfico experimentado por la red internacional de ShoppyDoo, que en el periodo estudiado registró un total de 32.930.929 visitas, así como 105.441.100 páginas vistas y un total de 19.189.173 ofertas publicadas.

Pero los españoles no somos los únicos europeos que navegan por internet en el trabajo. En Francia, la hora punta de búsquedas en el portal son las 9 de la mañana, mientras que en Alemania llega a las 10.

Por su parte, los italianos también se conectan a internet en sus primeras horas de trabajo, ya que su máxima afluencia de visitas es a las 9 horas de la mañana.

Por otra parte, los españoles e italianos son los que más utilizan los dispositivos móviles para realizar búsquedas en la red de portales con que cuenta Encuentraprecios, seguidos de franceses, que se están acercando cada vez más al resto de europeos en lo que se refiere a usar estos dispositivos para realizar estas tareas.

FUENTE :http://www.libertaddigital.com/internet/2012-04-29/las-horas-de-trabajo-el-momento-preferido-para-comprar-online-1276457152/
#37962


En las últimas actualizaciones de los diferentes navegadores un tema recurrente es el rendimiento que obtienen cuando hacen uso de la aceleración por hardware para procesar animaciones. Parece que la gente de Google Chrome lleva la delantera y para demostrarlo lanzan el Play Map's Cube.

El juego no deja de ser un paseo por las diferentes funcionalidades de Google Maps mediante un cubo que puedes mover en las tres dimensiones para que una bolita vaya recorriendo las avenidas de las principales ciudades del mundo. Un poco de autobombo, pero al menos entretenido.

Pero casi mas divertido que el propio juego es llevar el enlace de paseo por nuestros diferentes navegadores y ver el comportamiento y fluidez del movimiento del mismo. Y es que este experimento de Google Chrome, como ellos mismos escriben durante la carga del juego, pone al descubierto las prestaciones de algunos navegadores.

Enlace | Play Map's Cube

FUENTE :http://www.genbeta.com/navegadores/la-aceleracion-por-hardware-a-prueba-con-cube-el-juego-de-google
#37963
Como ya comentamos hace seis días en estas páginas, el soporte para Mozilla Firefox 3.6 terminó el Martes 24 de Abril, coincidiendo con la fecha final del lanzamiento de Firefox 12 Final. De esta forma, su navegador no recibirá más actualizaciones de seguridad para la versión 3.6 de Mozilla Firefox a la vez que Mozilla recomendaba encarecidamente actualizar a la última versión estable del navegador. Ahora, y a través de una actualización que de forma automática lanzará Mozilla a primeros de Mayo, el navegador se actualizará automáticamente a la última versión.

Si todavía estás utilizando la versión del navegador del panda rojo: Mozilla Firefox 3.6, quizás es conveniente que sepas que la organización Mozilla a principios de Mayo lanzará una actualización automática para que tengas la última versión de Firefox.

Es decir, Mozilla Firefox 3.6 pasará de forma automática en Mayo a Mozilla Firefox 12.0 Final.

El motivo, es que la organización Mozilla ha estado aconsejando a todos los usuarios que utilizan su navegador en versión 3.6 que actualicen a la última versión disponible, ya que la versión comentada está obsoleta y no recibirá más actualizaciones de seguridad.

En palabras del gerente de Firefox: Alex Keybl:

Citar"Advertimos a los usuarios que se actualizará automáticamente a menos que específicamente hayan deshabilitado las actualizaciones. Sin embargo, recomendamos a nuestros usuarios actualizar Firefox 3.6 ya que dejará de recibir actualizaciones de seguridad críticas"

No obstante, si no queremos actualizar nuestra versión de Firefox 3.6 debemos desmarcar la opción correspondiente desde el menú: "Opciones > Avanzado> Actualizar > No comprobar actualizaciones".

Nosotros desde Softzone recomendamos actualizar a la última versión de Firefox cuanto antes, si es que todavía estamos utilizando esa versión de Firefox por los motivos de seguridad comentados, ya que Mozilla Firefox 3.6 no recibirá más actualizaciones de seguridad críticas.

No es la primera vez que ocurre esto, ya que hace ahora un año, Mozilla también lanzó una actualización para la versión 3.5 de forma inesperada actualizando el navegador a la última versión

La actualización de Mozilla Firefox 3.6 tendrá lugar en algún momento de principios de Mayo, aunque todavía no se sabe la fecha concreta.

Via: Computerworld

FUENTE :http://www.softzone.es/2012/04/29/mozilla-actualizara-de-forma-automatica-la-version-de-firefox-3-6/

RELACIONADO : https://foro.elhacker.net/noticias/el_soporte_de_firefox_36_termina_manana-t359849.0.html;msg1739978;topicseen#msg1739978
#37964


Que un proyecto de software como es el sistema operativo GNU/Linux requiere de una infraestructura enorme es algo más que evidente. Son muchas las personas que contribuyen al desarrollo de Linux, son muchas las que acceden a su código fuente y son muchas las modificaciones que proponen para cada uno de sus componentes.

Google lo sabe, y dado que ya dispone de infraestructura suficiente para servir muchos billones de bytes cada día, ha decidido dedicar una parte a hospedar y poner a disposición del mundo un mirror de sólo lectura de los repositorios del núcleo de Linux, copiado byte a byte cada 30 minutos del oficial en git.kernel.org.

La infraestructura que dedicará Google a este asunto es la misma que está dedicando para distribuir el código fuente de Android, que actualmente sirve, según dicen, más de un terabyte de datos en dos millones y medio de peticiones al día. Ésta se encuentra repartida a lo largo de tres datacenters en Estados Unidos, Asia y Europa, procurando dar acceso rápido a todo el que lo solicite.

Por mi parte, poco más que agradecer a Google que preste ese trocito de su infraestructura para contribuir, de un modo u otro, a la comunidad que se encarga de desarrollar Linux. El mirror puesto en marcha por Google es accesible a través de la URL kernel.googlesource.com.

Más información | Open Source at Google
Imagen | Eduardo Quagliato

FUENTE :http://www.genbeta.com/linux/google-lanza-mirrors-de-los-repositorios-con-el-codigo-fuente-del-kernel-de-linux
#37965
De acuerdo con los planes de inversión anunciados por diversas empresas para los próximos años a nivel mundial, el cómputo en la nube se anuncia como una de las principales tendencias en el mercado de tecnología.

Diario Ti: Su concepto es muy sencillo: la información, servicios o aplicaciones de una empresa están en recursos compartidos en centros de datos escalables, y pueden ser vistos, accedidos y manejados en cualquier dispositivo conectado a Internet, como notebooks, tabletas, Asistentes Digitales Empresariales (PDA, por sus siglas en inglés) y teléfonos inteligentes , entre otros. De acuerdo con datos de IDC en Latinoamérica1 las ventas de servidores que operan los procesos de cómputo en nube crecieron más de 70% durante el 2011.

La tendencia es que este sea un servicio flexible de pago conforme el uso, y con el tiempo remplace algunos comportamientos del modelo tradicional de compra de tecnología, pero – cómo toda gran transición y cambio – tendrá una coexistencia de la antigua y la nueva tecnología.

Hoy, el cómputo en la nube ya es una realidad en Latinoamérica, en especial, en las nubes privadas. De acuerdo con una encuesta hecha por Intel con sus mayores clientes en el 2011, cerca del 40% tienen planes de utilizar, en la nube, alguna aplicación específica en los próximos 18 meses. Además, según IDC 1 durante 2011 en Latinoamérica fueron invertidos cerca de 200 millones de dólares en el área de cómputo en la nube, y la expectativa es que el mercado continúe creciendo a una tasa compuesta anual de cerca de 60% en los próximos cinco años, alcanzando la marca de mil millones de dólares hacia el año 2015.

Hablemos de beneficios: una mejor plataforma

El cómputo en la nube ofrece muchas ventajas, tanto para las empresas, como para el medio ambiente. Uno de los resultados más visibles es la adopción de centros de datos de mayor dimensión y más modernos servidores con mejor desempeño que además ayudan a reducir el consumo de energía y los costos de operación. Estos centros de datos también cuentan con la suficiente flexibilidad para ajustar los recursos disponibles sobre demanda.

La seguridad es el tema de mayor relevancia para el éxito del concepto. Antes de mover aplicaciones o datos a una nube privada, los clientes quieren a tener plena certeza sobre la seguridad de su información. La adquisición de McAfee por Intel forma parte del objetivo estratégico de la compañía para que las aplicaciones en la nube sean aún más seguras.

Actualmente, un gran número de clientes ya están preparados para usar la nube, por lo que de manera muy activa están ya consolidando servidores y virtualizando sus aplicaciones, quienes tendrán una buena base para evaluar el uso de la nube en el futuro.

Para que ésta tecnología sea más atractiva para las empresas, los profesionales de TI tienen que saber cómo articular los diferentes modelos de cómputo en la nube. Es necesario leer y conocer mucho sobre el tema, teniendo información de los impactos, beneficios y desventajas de cada uno.

En las empresas aún tenemos la mayoría de las aplicaciones en nubes privadas, porque la seguridad es el reto más grande para ir a nubes públicas. Sin embargo, hoy en día ya hay aplicaciones y servicios más simples, con menos impactos de seguridad, considerados buenos candidatos para las nubes públicas. Una buena práctica para iniciar con este modelo tecnológico sería una aplicación de colaboración a distancia que no tenga información confidencial.

También existe el concepto de nube híbrida, que tiene aspectos más complejos, como: seguridad, on-boarding, latencia y facturación.

Solución para los retos de 2015
Las previsiones de la industria de tecnología indican un impacto de 15 mil millones de dispositivos en línea2 y más de 3 mil millones de usuarios conectados3 hacia el 2015. Para este mismo año, está previsto un aumento de 33% anual en la cantidad de tráfico de IP global en los centros de datos 4. Esto aumentará la cantidad de información que deben ser almacenados en casi 50% por año5. Con el fin de acompañar este crecimiento, se espera que el número de servidores en la nube se triplique hacia el 20156.

Considerando que el crecimiento del cómputo en la nube y de dispositivos conectados están transformando la manera en que los negocios se benefician de las tecnologías y servicios de TI, Intel ha lanzado este año una nueva familia de procesadores Intel Xeon E5-2600, que aumenta el desempeño hasta en 80% comparado con la generación anterior.

Estos nuevos procesadores ofrecen un desempeño líder, el mejor rendimiento por vatio en centros de datos, un I/O innovador y características de hardware seguras y confiables para permitir el crecimiento de la TI en el mundo y de forma competitiva en la región. Necesitamos soluciones potentes que puedan operar con total seguridad y confiabilidad, sistemas de almacenamiento y comunicación. Para cubrir las necesidades de los nuevos esquemas de negocio, Intel trabaja con sus aliados en la industria para traer al mercado
arquitecturas de referencias para la nube. ¡Este es el camino!

Por María Gabriela Gallardo Gerente de Marketing de Negocios de Intel para América Latina.

FUENTE :http://www.diarioti.com/noticia/Resultados_y_desafios_del_computo_en_la_nube_en_America_Latina/31693
#37966
Apple ha presentado una solicitud de patente complementaria para Macbook Air, incluyendo su diseño y estética específica.

Diario Ti: La solicitud de patente, agrupa nueve patentes relacionadas, y fue dada a conocer por la oficina estadounidense de patentes y marcas esta semana. La nueva solicitud conjunta en describe una unidad de hardware con una tapa (pantalla) ultra delgada conectada a una bisagra. En la documentación presentada, Apple recalca que el diseño en sí constituye un elemento específico, que "contribuye a la percepción que los usuarios tienen de la unidad, y de su bajo peso y durabilidad".

Al combinar tal descripción con diversas ilustraciones, resulta evidente que Apple intenta fortalecer sus derechos respecto de lo que, a su juicio, son características exclusivas de Macbook Air.

Patently Apple, sitio especializado en patentes de Apple, escribe que sólo el tiempo demostrará si se trata de una estrategia defensiva de Apple, o si, en realidad, constituye una iniciativa tendiente a contener la propagación de clónicos o imitaciones. En teoría, y en caso de ser aprobada, la patente de Apple puede ser utilizada para impedir la venta de productos con diseño muy similar al de Macbook Air. La nueva categoría de PC de Intel, con su diseño ligero y ultra plano, compite directamente con Macbook Air. Otros fabricantes también han creado modelos de ultrabook, con diseño similar.

Un ejemplo de ellos es Asus, con su Zenbook UX31, muy similar a Macbook Air.


En caso de ser aprobada, la patente de Apple podría ser utilizada para bloquear las ventas de PC muy similares a Macbook Air (Imagen: Free Patents Online)

FUENTE :http://www.diarioti.com/noticia/Patente_estetica_de_Apple_podria_causar_problemas_a_los_ultrabook/31698
#37967
El Reporte de Inteligencia de Seguridad de Microsoft advierte sobre la continua amenaza de Conficker y explica la realidad sobre los ataques dirigidos.

Diario Ti: Microsoft Corp. publicó hoy el doceavo volumen de su Reporte de Inteligencia de Seguridad (SIRv12), el cual encontró que el gusano Conficker fue detectado casi 220 millones de veces en los últimos dos años y medio, lo que lo convierte en una de las amenazas más graves para las empresas. El estudio también muestra que el gusano continúa esparciéndose como resultado de contraseñas débiles o robadas y de vulnerabilidades, para las cuales ya existe una actualización de seguridad.

De acuerdo con el Reporte de Inteligencia de Seguridad volumen 12 (SIRv12), las detecciones trimestrales del gusano Conficker han aumentado más de 225% desde principios del 2009. Tan solo en el cuarto trimestre del 2011, Conficker se detectó en 1.7 millones de sistemas en todo el mundo. Al analizar los motivos detrás de las prevalencia de Conficker en las empresas, el estudio mostró que el 92% de las infecciones de Conficker fueron resultado de contraseñas débiles o robadas, y el 8% de las infecciones se debieron a la explotación de vulnerabilidades, para lo cual ya existe una actualización de seguridad.

"Conficker es uno de los problemas de seguridad más grandes que enfrentamos, pero está en nuestro poder defendernos en contra de él", dijo Tim Rains, director de Computación Confiable en Microsoft. "Es sumamente importante que las empresas se enfoquen en los aspectos básicos de la seguridad para poder protegerse en contra de las amenazas más comunes". Conficker fue detectado por primera vez en noviembre de 2008.

El Reporte de Inteligencia de Seguridad de Microsoft también reveló que muchas de las amenazas con frecuencia descritas como 'Amenazas Persistentes Avanzadas' o 'APT', por sus siglas en inglés, no son más avanzadas ni sofisticadas que otros tipos de ataques. En la mayoría de los casos, esos ataques aprovechan vectores conocidos como contraseñas débiles o robadas o explotaciones de vulnerabilidades, para lo cual ya existen actualizaciones de seguridad, pero su eficacia yace en la persistencia y determinación de probar diferentes tácticas para poner en riesgo al objetivo. Por tal motivo, Microsoft se refiere a esos tipos de amenazas como 'ataques dirigidos realizados por adversarios determinados' en lugar de APT.

"Etiquetar las amenazas cibernéticas como 'avanzadas' en ocasiones puede ser equivocado y distraer la atención de las empresas de los problemas básicos de seguridad que pueden evitar que las amenazas más comunes se infiltren en sus sistemas", dice Rains. "La mayoría de los ataques no cuentan con tecnologías ni técnicas súper avanzadas como lo implica la etiqueta de APT. En casi todos los casos, simplemente explotan contraseñas débiles o robadas y vulnerabilidades, para lo cual ya existe una actualización de seguridad, y emplean ingeniería social".

Microsoft recomienda a los clientes y a las empresas a seguir las prácticas de seguridad básicas para asegurarse de que estén protegidos:

· Utilice contraseñas fuertes y explique a los empleados la importancia de las mismas
· Mantenga sus sistemas actualizados mediante la aplicación periódica de actualizaciones disponibles para todos los productos
· Utilice software antivirus proveniente de una fuente confiable
· Invierta en productos más nuevos que ofrezcan una calidad mayor de protección de software
· Considere la nube como un recurso para su empresa

Tal y como lo indicó Scott Charney, vicepresidente corporativo de Computación Confiable de Microsoft, durante su conferencia magistral en RSA 2012, Microsoft recomienda a las empresas definir una estrategia más completa para manejar los riesgos y ayudar a protegerse en contra de los ataques tanto masivos como dirigidos que incluya los siguientes elementos:

· Prevención: Aplicar prácticas básicas de seguridad y poner atención especial a la administración de las configuraciones y a la instalación puntual de las actualizaciones de seguridad.

· Detección: Supervisar detenidamente los sistemas y realizar análisis avanzados para identificar las amenazas. Mantenerse al día sobre los incidentes de seguridad y utilizar fuentes veraces de inteligencia de seguridad.

· Contención: Si la empresa objetivo ha configurado su ambiente pensando en los ataques dirigidos realizados por adversarios determinados, es posible contener las actividades del atacante y, de ese modo, ganar tiempo para detectar, reaccionar y mitigar el ataque. Para contener el ataque, se debe considerar el desarrollo de modelos de administración de dominio que restrinjan la disponibilidad de credenciales de administrador y empleen tecnologías como codificación de red basada en IPsec para limitar la interconectividad innecesaria en la red.

· Recuperación: Es importante contar con un plan de recuperación bien trazado que tenga una capacidad adecuada de respuesta a incidentes. Asimismo, se sugiere formar un "comité de crisis" para definir las prioridades de respuesta y participar en ejercicios que evalúen la capacidad de la empresa para recuperarse de diferentes escenarios de ataque.

Microsoft publica su Reporte de Inteligencia de Seguridad dos veces al año para mantener a la industria informada sobre el cambiante panorama de las amenazas y proporcionar una guía práctica a los clientes en un esfuerzo por crear experiencias de cómputo más seguras y confiables para todos. El reporte más reciente, Volumen 12, brinda una perspectiva sobre los datos de las amenazas en línea, con información nueva para el periodo de julio a diciembre de 2011 y con un análisis de datos de más de 100 países y regiones de todo el mundo. Para más información sobre el doceavo volumen del Microsoft Reporte de Inteligencia de Microsoft, visite www.microsoft.com

Vídeo de presentación del informe:

http://www.youtube.com/watch?feature=player_embedded&v=vLY0Rb4hf2g


Infografía de Microsoft sobre Conficker:









Fuente: Microsoft

LEIDO EN :http://www.diarioti.com/noticia/Conficker_registra_220_millones_de_incidencias_en_2_anos_y_medio/31697
#37968
La conocida como crisis de los discos duros comenzó a mediados de octubre del año 2011, cuando Tailandia sufrió unas terribles inundaciones, que causaron numerosas muertes y daños materiales. El sector de los discos duros fue uno de los más perjudicados debido a la destrucción de buena parte de las fabricas que allí se encuentran.

Como consecuencia de las inundaciones, el volumen de producción de discos duros bajó sustancialmente y por lo tanto, los precios subieron de forma espectacular. A pesar de los problemas que han sufrido, los fabricantes ya se están recuperando, y las fábricas se recuperan poco a poco.

Los fabricantes, Seagate y Western Digital, han anunciado sus resultados financieros de los tres primeros meses del año. Estos resultados han supuesto una contradicción respecto a lo que se podría esperar después de las inundaciones. Seagate y Western Digital, han tenido mejores resultados económicos, con un mayor numero de ingresos que al año pasado en el mismo periodo, periodo en el que no hubo ningún problema de producción.

Western Digital tuvo unos ingresos de 3.000 millones de dólares y unas ganancias de 483 millones de dólares, los envíos fueron de 44,2 millones de unidades. En el mismo periodo del año pasado los ingresos fueron de 2.300 millones y la ganancias fueron de 146 millones de dólares, en cambio los envíos fueron superiores, 49,8 millones.

Seagate durante el primer trimestre del año pasado tuvo unos ingresos de 2.700 millones de dólares y unas ganancias de 113 millones de dólares, durante el mismo periodo de este año Seagate ha tenido unos ingresos de nada menos que 4.450 millones y unas ganancias de 1.146 millones de dólares.

Teniendo en cuenta los resultados económicos de los dos mayores fabricantes de discos duros podemos preguntarnos, ¿Dónde están las consecuencias de esta supuesta crisis?

Nos gustaría saber que opináis sobre esta situación. ¿Creéis que Seagate y WD se han aprovechado de las inundaciones?

Fuente: CHW

LEIDO EN :http://www.hardzone.es/2012/04/28/crisis-de-los-discos-duros-verdad-o-mentira/
#37969
Según los resultados de un estudio realizado por Trustworthy Internet Movement, más del noventa por ciento de los poco más de 200.000 sitios web en internet que cuentan con seguridad HTTPS, son totalmente vulnerables a ataques SSL, de acuerdo con el informe publicado por TIM.

Los datos obtenidos, forman parte de un nuevo proyecto llamado SSL Pulse, en el cual se utiliza un nueva tecnología que proporciona un escaneo automatizado, y que está desarrollada por la empresa de seguridad Qualys, para llevar a cabo un estudio de la seguridad de estos sistemas de sguridad.

Esta tecnología, se encarga de analizar la fortaleza de las implementaciones HTTPS utilizadas en los diferentes sitios web. A continuación, detallamos el procedimiento por el cual, se comprueban los diferentes sitios web.

Antes de nada, para aquellos que no la conozcan, TIM se trata de una organización, cuya principal finalidad es la de tratar de resolver problemas relacionados con la seguridad, privacidad y confidencialidad en la red.

La herramienta desarrollada para llevar acabo este estudio revisa los protocolos que son soportados en sitios web que tienen activado HTTPS, es decir, SSL 2.0, SSL 3.0, TLS 1.0, TLS 1.1, etc. y además, todas las posibles longitudes que pueden aplicarse para una comunicación segura, desde 512 bits, pasando por 1024, 2048, etc. . Para finalizar, la herramienta también es capaz de comprobar la fortaleza que poseen los algoritmos( de 256 bits, 128 o incluso menos).

Los resultados obtenidos son calificados por un filtro. La puntuación se recoge en una escala de 0 a 100, siendo una puntuación mayor que 80 un resultado "bueno".

La mitad de los sitios obtienen una calificación superior 80 puntos

De los más de 200.000 sitios web que soportan HTTPS, más del 50% pasaron los 80 puntos en su calificación, lo que a simple vista, hace creer que se tratan de unos resultados buenos, con algoritmos fuertes y llaves largas. A pesar de estos resultados, el estudio ha demostrado, que sólo el 10% de los sitios web analizados son totalmente seguros. Este dato nos deriva en otro resultado, y es que aproximadamente el 75% de los sitios web analizados son considerados vulnerables al ataque conocido como BEAST.

Este tipo de ataque se vale de la desencriptación de las cookies de las solicitudes HTTPS, descifrando las peticiones HTTPS y atacando de forma directa la confidencialidad del protocolo.

Del estudio, también se encontró que, cerca del 13% de sitios web con la seguridad HTTPS activada, realizaban conexiones SSL inseguras.

¿Como evitar el ataque BEAST?

Los causantes de la facilidad para llevar acabo este ataque, fueron corregidos en el protocolo TLS, concretamente, en su versión 1.1. A pesar de esto, la mayoría de los servidores de seguridad continúan utilizando protocolos vulnerables, como el SSL 3.0, por el simple motivo de tener una mayor compatibilidad con sus antecesores.

Los servidores que implementan este sistema, pueden ser vulnerables a ataques SSL, que consisten en "engañar" al servidor, para que utilice versiones SSL/TLS que poseen mayores vulnerabilidades, siempre que el usuario posea dicha versión en su ordenador.

El desconocimiento del usuario, otro problema añadido

Tal y como se menciona en el informe obtenido, la mayoría de los navegadores modernos poseen la protección necesaria contra un ataque BEAST. Sin embargo, en el informa parece reflejado, que una proporción importante de empresas, aún continúa utilizando la versión 6 de Internet Explorer, versión que es vulnerable, ya que, es a partir de la versión 7 del navegador, cuando el problema de seguridad es resuelto.

Todo depende el número de usuarios

Para un sitio web de uso medio, el problema puede ser medianamente pequeño o inexistente. Sin embargo, las cosas cambian cuando estamos hablando de sitios web de entidades bancarias, donde el número de usuarios que relizan conexiones a diario es inmenso, y si a esto le añadimos las operaciones que se realizan, esto hace que sea necesario que exista un servidor de seguridad actualizado y seguro.

Como reflexión final, en el informe indican que a pesar de que un número suficiente de páginas, son más o menos seguras, no hay que dejarse engañar por lo resultados, ya que sólo el 15% presume de ser totalmente seguras.

FUENTE :http://www.redeszone.net/2012/04/28/los-sitios-web-con-seguridad-https-son-inseguros/
#37970
Avast Software ha confirmado el lanzamiento de la versión definitiva de avast! Free Antivirus para Mac, su nueva aplicación de seguridad para Apple OSX. Se trata de una solución de seguridad gratuita que se ocupa de la protección y análisis de los equipos de Apple. Desde Avast han confirmado que ya se puede descargar y está disponible para uso doméstico empresarial.

En las últimas semanas se ha confirmado la necesidad de disponer de sistemas antivirus en Mac. Aunque siempre había sido considerado uno de los sistemas operativos más seguros, los incidentes con los troyanos FlashBack y SabPad han dejado de manifiesto que su seguridad no es infalible. Además, un estudio reciente indicaba que el 20 por ciento de los Mac actualmente tienen virus para Windows, que aunque no afecten a los ordenadores de Apple, deberían ser eliminados.

Ante esta necesidad de proteger los ordenadores de Apple, la compañía Avast se ha decidido a lanzar su solución antivirus para el sistema, Se trata de avast! Free Antivirus, que llevaba semanas en fase beta. Durante su fase de pruebas para Mac, avast! ya ha demostrado su utilidad, protegiendo a los usuarios contra las amenazas antes mencionadas, FlashBack y SabPad.

avast! Free Antivirus para Mac está basado en el nuevo motor de avast! antivirus 7, utilizado ya por más de 150 millones de usuarios activos de otros sistemas. Según la compañía, la nueva aplicación proporciona a los usuarios de Mac tres escudos defensivos: escudos para la Web y correo, para los datos entrantes y el escudo de archivo para analizar el disco duro de los equipos.

Desde Avast Software han explicado la filosofía de funcionamiento de su solución antivirus. El sistema se basa en avast! CommunityIQ, una red de sensores basados en el usuario, que envía al laboratorio de Virus Avast una secuencia sin escalas de datos sobre malware detectado. A su vez, los usuarios reciben actualizaciones sobre amenazas nuevas y emergentes, enviadas a sus equipos.

Otra de las características que incorpora avast! Free Antivirus es WebRep, un plugin de reputación de avast! anti-phishing. Esta herramienta ofrece a los usuarios de Mac las experiencias de la avast! Comunidad, que combina comentarios enviados por los usuario con la detección de Virus de laboratorio y bloqueo de sitios de 'phishing'.

Junto a estas opciones, los usuarios que ya utilicen avast! en equipos Windows de su domicilio podrán utilizar una herramienta para conocer el estado de protección de todos sus equipos. Se trata de una característica gratuita que permite a los usuarios conocer el estado operacional de avast! instalado en cada equipo de la familia, independientemente de que use Mac o Windows.

El sistema avast! Free Antivirus ya está a disposición de los usuarios de Mac que quieran proteger sus equipos. Se puede descargar esta solución a través de la página web de Avast.

FUENTE :http://www.iblnews.com/story/68984