Menú

Mostrar Mensajes

Esta sección te permite ver todos los mensajes escritos por este usuario. Ten en cuenta que sólo puedes ver los mensajes escritos en zonas a las que tienes acceso en este momento.

Mostrar Mensajes Menú

Mensajes - wolfbcn

#36451
Después de 30 años, las direcciones IPv4 llegan a su límite. Este sistema ha sido sustituido por el nuevo protocolo de Internet, IPv6, para sanar la falta de espacio para nuevas direcciones que sufre la anterior versión. El protocolo IPv4 fue diseñado para que un gran número de ordenadores se conectaran a Internet, permitiendo así que la información circulará de un punto a otro del mundo.

Originalmente, el sistema IPv4 fue concebido en los años sesenta y estandarizado en 1981 para dar servicio a más de 4.000 millones de direcciones. Sin embargo, el número de direcciones que abarca este protocolo de Internet ha llegado a su límite, puesto que según el RIPE NCC (Centro de Coordinación de redes IP europeas), este había utilizado el último bloque de 16,8 millones de direcciones.

En contra de lo ocurrido, el director de RIPE NCC, Axel Pawlik, dijo que en los comienzos de Internet "parecía muy poco probable que el espacio de direcciones IP sería un problema". Pawlik continuó sus declaraciones afirmando: "las limitaciones del espacio de direcciones IPv4 se hicieron evidentes con el tiempo, y en los últimos años hemos estado monitorizando los suministros, preparándonos a nosotros y a todos los inversores para la siguiente etapa de Internet".

Como ya se supo en su momento, el histórico IPv4 será sustituido definitivamente por el nuevo protocolo de Internet, IPv6. Este es un nuevo estándar de direcciones que ofrece más de 340 trillones de direcciones únicas.

El padre de Internet, Vint Cerf, aseguró a The Telegraph que el "arrastre de pies" -refiriéndose a la demora del lanzamiento de un nuevo protocolo de Internet- podría poner en peligro el auge de teléfonos inteligentes y 'tablets', que ya ha conectado a cientos de millones de nuevos dispositivos a la red.

Vint Cerf explicó al medio británico que "la gente se pregunta por qué sus nuevos y pequeños dispositivos no funcionan. Todas la promesas y el potencial de estos dispositivos caerán en error si los ISP no lo aprovechan".

"Más del cincuenta por ciento de nuestros miembros ya tiene una dirección IPv6 asignada, pero todavía hay un largo camino antes de que nosotros podamos decir que todo está preparado", admitió el pasado viernes el director del Centro de Coordinación de redes IP europeas, Axel Pawlik.

Según Pawlik, el nuevo protocolo IPv6 incrementa la cantidad de espacio de direcciones, "ayudando a hacer posible un giro emocionante en la sociedad así como dispositivos conectados a Internet cada vez más sofisticados".

Un punto en contra del reciente protocolo de Internet, IPv6, es que su velocidad de acceso es un 80 por ciento más lenta que con la anterior versión IPv4, según un análisis llevado a cabo por la firma especializada en soluciones para optimizar el rendimiento de las aplicaciones Compuware.

Esta pérdida de velocidad supone un riesgo a la experiencia del usuario y por lo tanto a los ingresos de las compañías y a la reputación de marca, además de provocar cambios en la forma de medir y monitorizar el rendimiento, ha indicado la firma.

FUENTE :http://www.iblnews.com/story/71904
#36452


Twitter ya provocó el enfado de toda la comunidad de desarrolladores imponiendo ciertos límites a los clientes de terceros del servicio, y hoy ha decidido comunicar otra limitación que también promete polémica: dentro de poco todos los clientes oficiales de Twitter eliminarán la opción de elegir un servicio externo para subir imágenes. Es decir, sólo podremos subir imágenes usando el servicio oficial de Twitter para tal efecto.

La opción de poder elegir servicio de terceros para añadir imágenes a nuestros tweets está presente casi en todos los clientes (en la imagen superior tenéis el caso de Tweetbot con una lista de once opciones), y hay muchas compañías que se han dado a conocer integrándose con la subida de imágenes en Twitter: Twitpic, Lockerz, yfrog... todos estos servicios dejarán de estar presentes como opción en los clientes oficiales de Twitter en su próxima actualización.

Hay casos particulares, como por ejemplo el cliente oficial de Twitter para OS X, que llevan tanto tiempo sin actualizarse que todavía no tienen la opción para subir imágenes usando el servicio oficial. Es más, parece que dicho cliente tiene los días contados, así que habrá que ver cómo resuelven situaciones como esta. Mirándolo por el lado bueno, estos servicios podrán seguir presentes en los clientes no oficiales que representan casi una cuarta parte de todos los mensajes publicados en Twitter.

Los motivos por los que en Twitter hayan tomado esta decisión son bastante claros: la compañía se sustenta gracias a la publicidad y ganando el control de las imágenes que se suben en sus clientes oficiales tendrán más oportunidades para poder colocar anuncios. También se equiparan así a Facebook o Instagram, redes que guardan las imágenes en sus propios servidores. Estaremos atentos a las actualizaciones y a los cambios que traigan en cuanto éstas se confirmen en todas las plataformas que Twitter soporta oficialmente.

Vía | Buzzfeed

FUENTE :http://www.genbeta.com/redes-sociales/twitter-eliminara-los-servicios-de-terceros-para-subir-imagenes-de-sus-clientes-oficiales
#36453
Noticias / Los planes de Facebook
17 Septiembre 2012, 02:49 AM
Ha guardado silencio desde la oferta pública inicial de la compañía en mayo, pero durante una conferencia de tecnología celebrada el pasado martes el fundador y director general de Facebook, Mark Zuckerberg, charló sobre una serie de temas, entre ellos los planes de la red social para entrar en el negocio de las búsquedas.

Durante una entrevista en TechCrunch Disrupt en San Francisco (EE.UU.), Zuckerberg señaló que los usuarios de Facebook realizan unos mil millones de consultas por día "prácticamente sin querer". La mayoría de ellas son para encontrar a alguien en la red social, pero una "parte significativa" son esfuerzos por encontrar aplicaciones e información acerca de marcas, indicó. "Creo que supone una gran oportunidad, y solo nos tenemos que poner a ello".

Facebook estaría en una posición única para construir un motor de búsqueda, ya que tiene una gran cantidad de datos sobre sus 950 millones de usuarios. Motores de búsqueda como Google y Bing de Microsoft han evolucionado para incorporar características sociales, pero no está claro si un motor de Facebook tendría el mismo aspecto que ellos o uno completamente distinto.

A pesar de la insistencia por parte del entrevistador, el fundador y exeditor de TechCrunch Michael Arrington, Zuckerberg también negó que Facebook estuviera trabajando en un teléfono. Aunque esto se ha rumoreado muchas veces durante los últimos años, Zuckerberg señaló que crear un teléfono "siempre ha sido la estrategia equivocada" para Facebook. "Hacer un teléfono no tiene ningún sentido", aseguró.

Incluso si la empresa construyera un teléfono y 10 millones de personas lo utilizaran, "no nos beneficiaría", indicó, y agregó que Facebook está más interesada en la construcción de una red social que esté lo más profundamente integrada posible con todos los dispositivos que sus usuarios quieran utilizar.

Zuckerberg también señaló que aunque él ya no escribe código en Facebook, puesto que la compañía tiene una regla por la que cada cual debe mantener su propio código, y él no quiere que otra gente tuviera que ser responsable por el suyo, aún sigue programando por diversión.

Además, señaló que su código a veces funciona mal. "Todo lo que hago se rompe en algún momento", aseguró. "Pero lo arreglamos rápidamente".

Zuckerberg también habló sobre las acciones de Facebook, que han caído a la mitad desde que la compañía comenzara a cotizar públicamente, y señaló que el rendimiento ha sido "decepcionante". Aseguró que algunas personas subestiman a la empresa en este momento, pero prefiere ser subestimado a sobreestimado, ya que eso da a la compañía la libertad de hacer cosas que exciten y sorprendan a la gente.

"Cuando miremos hacia atrás, 10 o 20 años más tarde, el legado de esta empresa debería ser haber conectado a todas las personas del mundo, y que todos puedan compartir lo que quieren. Y eso es mucho", afirmó.

Sus declaraciones podrían haber aliviado las preocupaciones de algunos inversores: las acciones de Facebook subieron más de un 3 por ciento en operaciones posteriores al cierre.

FUENTE :http://www.laflecha.net/canales/blackhats/noticias/los-planes-de-facebook
#36454


Ya sabíamos que Office 2013 será incluido por defecto en aquellas máquinas con Windows RT, e incluso comentamos que, si se vendían antes del lanzamiento oficial de Office 2013 RT, se instalaría la versión beta y se actualizaría posteriormente. Lo que nos faltaba realmente era la fecha: al parecer la actualización aparecería en Windows Update entre noviembre y enero, dependiendo sobre todo del idioma.

Esta versión, recordemos, no será tan completa como la versión que funcione en procesadores x86. La versión RT será esencialmente igual a la que podremos instalar en nuestros ordenador, y de hecho ha sido compilada usando el mismo código, pero con algunos ajustes para ajustarse al funcionamiento de un procesador ARM y para reducir el consumo energético.

Ya adelantamos que algunas de las características de Office, sobre todo usadas por las empresas, no estarán disponibles en la versión RT de la suite. Las macros, por ejemplo, o los Data Models, y también se aplican algunas limitaciones de Windows RT relativas a los programas de correo.

Como digo, Office 2013 Hogar y Estudiantes RT debería aparecer por Windows Update entre noviembre y enero, dependiendo del idioma (cuando dispongamos de información más concreta actualizaremos el post). Pero de Office 2013 también tenemos información nueva: al parecer habrá programa de actualización de Office 2010 a la nueva versión.

Lo que se dice (la información viene de Mary Jo Foley, que cuenta con importantes fuentes dentro o muy cerca de Microsoft) es que se ofrecerán dos opciones a los que deseen actualizarse a la versión de Office: o una suscripción por un año (dos en el caso de Office para universitarios) a Office 365, la modalidad "software as a service" de Office que permite instalar Office 2013 en hasta cinco ordenadores y utilizarlo durante ese periodo, o una licencia para instalar Office 2013 (en la versión equivalente: Hogar y Estudiantes, Profesional...) en una única máquina.

No se ha filtrado un precio: ¿significa esto que la actualización será gratuita? Al parecer, además, sería necesario adquirir Office a partir del 19 de octubre y antes del 30 de abril de 2013.

Respecto a las fechas de Office 2013 (sin RT) no hay nada confirmado todavía, pero de lo que se habla es de noviembre para la RTM y de febrero de 2013 para que veamos cajas físicas en las estanterías de los centros especializados, y cajas virtuales en la tienda de software de Microsoft. Habrá que ver también el precio: quizá también vendan las licencias a precios apetecibles para el público general.

Vía | ZDNet (1) (2)

FUENTE :http://www.genbeta.com/ofimatica/office-2013-rt-para-noviembre-y-empiezan-a-aparecer-rumores-del-programa-de-actualizacion-a-office-2013
#36455


Hace poco tiempo vimos cómo WhatsApp daba pasos hacia adelante en su seguridad lanzando una nueva versión de su aplicación oficial con cifrado incluida. Antes de la actualización los mensajes se enviaban completamente al descubierto, sin ningún tipo de codificación, lo que representaba una fortísima amenaza para nuestra seguridad. Ahora llegan más malas noticias para esta plataforma de mensajería, ya que al parecer la seguridad de esa cifrado de los mensajes no es lo suficientemente buena.

Dicha seguridad varía si usamos WhatsApp en Android o en iOS. El cifrado de nuestras credenciales en Android se reduce a un simple hash MD5 del número IMEI del móvil puesto del revés, algo que se puede conseguir muy fácilmente. En el caso de iOS el cifrado se obtiene haciendo el mismo hash MD5 de la dirección MAC del terminal repetida dos veces. Para los que no lo sepan: un hash MD5 de un archivo genera un código alfanumérico que sirve para identificar o confirmar la integridad de dicho archivo.

Datos como el IMEI o la dirección MAC de un teléfono móvil son demasiado fáciles de obtener, incluso para una persona que no tenga conocimientos avanzados de hacking. Un par de búsquedas en Google pueden proporcionarte las aplicaciones necesarias para obtener estos datos. Y eso no es todo: cuando WhatsApp revisa nuestra agenda de teléfonos móviles los datos siguen enviándose en un documento XML que muestra información de un usuario como su número, su estado o su cuenta de Jabber si consta en la agenda.

En la fuente sacan una conclusión bastante clara: "No uses WhatsApp. En serio, no lo uses". Eso no es nada fácil de conseguir si tenemos amigos y familiares acostumbrados al protocolo, así que sólo me queda recomendar que tengáis especial prudencia con WhatsApp, sobretodo si estáis en una red Wifi pública; y esperar que los desarrolladores apliquen una cifrado mucho más adecuada.

Vía | Fileperms

FUENTE :http://www.genbeta.com/movil/whatsapp-envia-sus-mensajes-cifrados-pero-su-seguridad-sigue-siendo-baja
#36456
Muchos son los usuarios que hace tiempo comenzaron a preguntarse el por qué de tanta asimetría en sus conexiones de banda ancha, siempre haciendo referencia a las velocidades de subida y bajada. Cuando el ADSL apareció en España, las conexiones eran de 256Kbps de bajada y 128Kbps de subida. Podemos observar como la velocidad de bajada ha aumentado y mucho, incluso con referencia a la conexión más lenta.

El polo opuesto es la velocidad de subida, que a día de hoy, todavía se encuentra en muchas de las conexiones basadas en ADSL o ADSL2+ en 300Kbps u 800Kbps.

Las necesidades de los usuarios han cambiado con el paso de los años y también han cambiado las de las aplicaciones que necesitan un mayor rendimiento.

Por eso mismo os preguntamos: ¿por qué creéis que los operadoras no utilizan conexiones más simétricas o con una mayor velocidad de subida que se ajuste a las necesidades de hoy en día?

Hoy en día las únicas conexiones de banda ancha que tienen una velocidad de subida superior a 1Mbps de velocidad de subida son las de VDSL, FTTH de Movistar y Orange, y las cableras locales. El resto de conexiones (la mayoría) basadas en tecnología ADSL/ADSL2+ continúan teniendo velocidades de subida por debajo del mega y únicamente Jazztel con el uso del Anexo M puede ofrecer más velocidad de subida.

Las necesidades de los usuarios han cambiado

La aparición de servicios de almacenamiento en la nube, portales para la visualización de videos, juegos on-line, servicios de streming de video o inclusos servicios de mensajería con videollamada, han provocado que la velocidad de subida de estas conexiones no sea suficiente para ofrecer un rendimiento óptimo al usuario. Y es que, seguro que más de uno de vosotros ha subido un video a Youtube de apenas unos minutos y ha tenido que esperar en torno a 10 minutos. Eso si no hablamos de que sea en alta definición. Entonces la espera puede llegar a duplicarse en el mejor de los casos.

Lo mismo ocurre con los servicios de videollamada en servicios de mensajería. Necesitan una cierta calidad de imagen y muchas veces es imposible conseguir que la imagen deje de congelarse.

Por no hablar de que la concurrencia de varias aplicaciones con una gran demanda de velocidad de subida es hoy en día impensable a la vez que imposible.

¿Qué es lo que hace que los operadores no aumenten la velocidad de subida?

Por motivos económicos por parte del operador no es, ni tampoco por limitación en las infraestructuras. Muchos de los usuarios podrían ver aumentada su velocidad sin ningún tipo de problema.

Sin embargo, el problema radica en el conjunto de operadores. Ningún operador puede ofrecer más velocidad de subida en conexiones indirectas, ya que Movistar las conexiones que revende son del tipo 10/300, 6/300, 10/800, por lo que los alternativos tienen que ofrecer lo revendido por el operador "dominante".

Este es el caso de la inmensa mayoría de los usuarios españoles. De momento no vamos a entrar a hablar de zonas de cobertura directa, porque es un aspecto que queremos tratar más adelante.

Para que os hagáis a la idea, los usuarios que ahora mismo disponen de la modalidad 10/800, pagarían sólo 2 euros más por ver como su velocidad es 10/3.


En lo referido a las inversiones a realizar al operador, deberían de ser pocas o ninguna. Si se notaría un aumento del tráfico en los nodos neutros, pero a día de hoy creemos que no debería suponer ningún tipo de problema.

La pregunta del millón:¿pagarías ese dinero por una mejor velocidad de subida?

En las zonas de cobertura directa predomina una acentuada asimetría

Hablábamos anteriormente de las zonas de cobertura indirecta, ahora es el turno para las zonas de cobertura directa, donde más de un operador tiene desplegada su propia red. En estas zonas, a pesar de lo dicho anteriormente, las conexiones que se ofertan no son tan simétricas como uno podría llegar a pensar. Las conexiones premium sólo llegan a tener 1,2 o 3 megas de subida frente a los 30 o 20 megas de bajada. A pesar de que el rendimiento mejora un poco, sigue siendo todavía insuficiente.

Las conexiones de fibra óptica con las únicas que aunque tengan asimetría, ofrecen una velocidad de subida que puede hacer que los servicios que utilice el usuario sean capaces de funcionar de forma concurrente sin que se genere un cuello de botella en la conexión del usuario.

¿Qué velocidades de subida deberían de establecerse?

Esto es una pregunta que va a quedar en el aire, ya que cada uno tendréis una opinión distinta. Desde nuestro punto de vista, las modalidades de ADSL de 3,6 y 10 megas, deberían contar con una velocidad de subida de 1 mega. Las conexiones de VDSL y ADSL2+ de más de 15 megas y menos de 30, deberían disponer de una velocidad de entre 3-5 megas. En lo referido a fibra óptica, debería de ser lo más simétrico posible, por ejemplo, la velocidad de subida de una conexión de 50 megas de bajada debería de ser de entre 10-20 megas, mientras que en la modalidad de 100 megas, esta velocidad debería de ser de entre 20-50 megas.

Y vosotros, ¿cuál sería vuestra opinión?

FUENTE :http://www.redeszone.net/2012/09/16/por-que-los-operadores-no-ofrecen-mas-velocidad-de-subida/
#36457
Se demuestra la falsedad de una interpretación común del principio de incertidumbre de Heisenberg. Contrariamente a lo que se enseña a muchos estudiantes, la incertidumbre cuántica puede no estar siempre en el ojo del que mira. Un nuevo experimento demuestra que medir un sistema cuántico no siempre introduce necesariamente incertidumbre. El estudio derroca una explicación común en las aulas sobre por qué el mundo cuántico parece tan difuso, pero el límite fundamental a lo conocible en las menores escalas sigue sin cambios.

En las bases de la mecánica cuántica se encuentra el principio de incertidumbre de Heisenberg. Expresado simplemente, dicho principio afirma que existe un límite fundamental a lo que se puede conocer acerca de un sistema cuántico. Por ejemplo, cuanta mayor precisión se tenga sobre la posición de una partícula, menos se sabrá sobre su momento, y viceversa. El límite se expresa como una ecuación simple que es fácil de demostrar matemáticamente.

Heisenberg a veces explicó el principio de incertidumbre como un problema al realizar medidas. Su experimento mental más famoso implicaba la fotografía de un electrón. Para tomar la imagen, un científico tendría que hacer rebotar una partícula de luz sobre la superficie del electrón. Esto revelaría su posición, pero también impartiría energía al mismo, provocando su movimiento. Conocer la posición del electrón crearía una incertidumbre sobre su velocidad; y el acto de la medida produciría la incertidumbre necesaria para satisfacer el principio.

Los estudiantes de física aún aprenden esta versión de medida-perturbación del principio de incertidumbre en las clases introductorias, pero resulta que no siempre es cierto. Aephraim Steinberg de la Universidad de Toronto en Canadá y su equipo han realizado medidas sobre fotones (partículas de luz) y demostraron que la medida puede introducir menos incertidumbre de la requerida por el principio de Heisenberg1. La incertidumbre total de lo que podemos saber sobre las propiedades del fotón, sin embargo, sigue por encima del límite de Heisenberg.

Medidas delicadas

El grupo de Steinberg no mide la posición y momento, sino dos propiedades interrelacionadas distintas del fotón: sus estados polarizados. En este caso, la polarización a lo largo de un plano está intrínsecamente ligada a la polarización del otro, y por el principio de Heisenberg, existe un límite a la certidumbre con la que podemos conocer ambos estados.

Los investigadores realizaron una medida 'débil' sobre la polarización del fotón en un plano- no lo suficiente como para perturbarlo, pero suficiente para producir un cambio apreciable en su orientación. Luego midieron la polarización en el segundo plano. Realizaron una medida exacta, o 'fuerte', de la primera polarización para ver si se había visto perturbada por la segunda medida.

Cuando los investigadores realizaron múltiples veces el experimento, encontraron que las medidas de la polarización no siempre perturbaban el otro estado tanto como predecía el principio de incertidumbre. En el caso de la medida fuerte, la incertidumbre inducida fue menos de la mitad de la predicha por el principio de incertidumbre.

No te entusiasmes demasiado: el principio de incertidumbre aún se mantiene, dice Steinberg: "Finalmente, no hay forma de que puedas medir con precisión [ambos estados cuánticos] a la vez". Pero el experimento demuestra que el acto de la medida no es siempre lo que provoca la incertidumbre. "Si ya hay una gran cantidad de incertidumbre en el sistema, entonces no hay necesidad de ruido para la medida", dice.

El último experimento es el segundo en hacer una medida por debajo del límite del ruido de incertidumbre. A principios de año, Yuji Hasegawa, físico de la Universidad Tecnológica de Viena en Austria, midió grupos de espines de neutrones y derivó los resultados muy por debajo de lo que se predeciría si las medidas insertaran toda la incertidumbre al sistema2.

Pero los últimos resultados son el ejemplo más claro de por qué la explicación de Heisenberg era incorrecta. "Esta es la prueba experimental más directa de la incertidumbre medida-perturbación enel principio de incertidumbre de Heisenberg", dice Howard Wiseman, físico teórico en la Universidad de Griffith en Brisbane, Australia. "Esperemos que sea útil para los escritores de libros de texto ya que ahora saben que el ingenuo argumento de la relación medida-perturbación es incorrecto".

Sacudirnos de encima la vieja explicación de medida-incertidumbre puede ser difícil, no obstante. Incluso tras realizar el experimento, Steinberg aún incluye una cuestión sobre cómo las medidas crean incertidumbre en un reciente trabajo encargado a sus estudiantes. "Solo cuando estaba empecé a evaluarlo me di cuenta de que el trabajo que había encargado era incorrecto", dice. "Ahora tengo que ser más cuidadoso".

FUENTE :http://www.laflecha.net/canales/ciencia/noticias/demostrada-la-falsedad-de-una-interpretacion-comun-del-principio-de-incertidumbre-de-heisenberg
#36458
Noticias / ¿Redes WiFi o dispositivos PLC?
16 Septiembre 2012, 14:18 PM
Con las conexiones ultrarrápidas que han comenzado a aparecer de la mano de Movistar, muchas son las incógnitas que aparecen en los usuarios a la hora de elegir el modo de distribuir la señal por la vivienda.

Muchos usuarios creen que los PLC no funcionan tan bien en una vivienda como se puede esperar de ellos y optan por seguir con las conexiones inalámbricas como principal alternativa a la red cableada.

Sin embargo, estos dispositivos han evolucionado durante los últimos años y han conseguido obtener un rendimiento bueno que cumplen con las exigencias de los usuarios domésticos de hoy en día.

Aunque está más que claro que la desaparición de las cables con las conexiones WiFi es la mayor ventaja, ¿poseen las conexiones WiFi un rendimiento adecuado para las conexiones de 50 y 100 Megas?

A lo largo de este artículo vamos a llevar a cabo una comparativa del rendimiento que nos pueden dar las conexiones inalámbricas basadas en el estándar WiFi N y las redes LAN construidas con dispositivos PLC. En ambos casos citaremos las características más significativas de ambas conexiones, sus ventajas y limitaciones técnicas y acabaremos con una lista de dispositivos que en RedesZone hemos tenido la oportunidad de probar y que destacamos por su relación calidad/precio.

LEER MAS : http://www.redeszone.net/2012/09/16/redes-wifi-o-dispositivos-plc/
#36459
La empresa Google decidió este sábado dejar en Internet un polémico vídeo sobre el profeta Mahoma considerado blasfemo por los musulmanes, pese a una solicitud de la Casa Blanca de retirarlo de YouTube.

La Casa Blanca había confirmado que pidió a YouTube, propiedad de Google, que revisase el vídeo, que ha desatado protestas y ataques en el mundo árabe, y lo retirase de la plataforma en caso de que éste viole las condiciones de uso de la web.

Pero Google ha determinado que el vídeo en cuestión no viola sus políticas sobre el uso de la red.

"Trabajamos duro para crear una comunidad que todos puedan disfrutar y que también permita a la gente expresar sus distintas opiniones. Esto puede ser un desafío porque lo que es aceptable en un país puede ofender en otro", explicó YouTube en un comunicado.

Acceso restringido en algunos países
"Este vídeo, ampliamente disponible en la web, cumple claramente con nuestras normas y por lo tanto permanecerá en YouTube. Sin embargo, hemos restringido el acceso a él en países como India e Indonesia, donde es ilegal, así como en Libia y Egipto, debido a las situaciones muy sensibles en estos países", explicó.

El portavoz del Consejo Nacional de Seguridad, Tommy Vietor, informó este sábado de que la Casa Blanca contactó a YouTube "para llamar su atención sobre el vídeo y pedirles que revisen si viola sus condiciones de uso".

La empresa bloqueó el acceso al vídeo en India, en una decisión que algunos medios estadounidenses atribuyen a órdenes judiciales de dos tribunales en el norte del país.

"En ocasiones, bloqueamos los contenidos en algunos países en respuesta a una orden judicial u otro proceso legal válido", había señalado Google en otro comunicado.

Prohibida la recepción de YouTube en Afganistán
Además de en India, Libia y Egipto, el vídeo tampoco puede verse en Afganistán, cuyo Gobierno ha prohibido la recepción en el país del portal YouTube desde el pasado miércoles.

Las condiciones de uso de YouTube no prohíben explícitamente publicar contenidos ofensivos, pero sí desvinculan a la empresa de toda responsabilidad legal ante los mismos y permiten que los usuarios denuncien ciertos vídeos en caso de considerarlos ilegales o difamatorios.

El vídeo, de tono entre satírico e insultante, muestra supuestas escenas de la vida del profeta Mahoma, que es presentado como fruto de una relación ilegítima y practica sexo con una mujer.

Su difusión desató este martes ataques contra las misiones diplomáticas de EE UU en Egipto y Libia, donde murieron el embajador estadounidense Chris Stevens y otras tres personas, y se extendieron a decenas de países, causando al menos un muerto en Yemen y tres en Sudán.

FUENTE :http://www.20minutos.es/noticia/1588767/0/google-deja/video-mahoma/protestas-islam/

Relacionado : https://foro.elhacker.net/noticias/un_exconvicto_por_fraude_y_drogas_probable_autor_de_la_cinta_que_incendia_al-t371251.0.html
#36460
La web oficial de Black Mesa Source, el remake realizado por aficionados del primer Half-Life, ha anunciado que este mod ya está disponible para ser descargado a través de su torrent oficial.

A pesar de que se ha habilitado un segundo torrent para facilitar su distribución, parece ser que una gran cantidad de gente está descargándolo en estos momento, por lo que la descarga va muy lenta. Para solucionar esto están ahora mismo incluyendo otros enlaces de descarga.

Black Mesa Source incluye todos los niveles originales de Half-Life hasta las secciones de los Xen, ya que estos niveles serán incluidos mediante una expansión, la cual ya está en desarrollo en estos momentos.

Enlaces Relacionados:
Black Mesa Source

FUENTE :http://www.vandal.net/noticia/73029/black-mesa-source-ya-esta-disponible-para-descargar/