Evitar que Bot de Google vote noticias en mi web

Iniciado por RicRed, 17 Enero 2011, 12:19 PM

0 Miembros y 2 Visitantes están viendo este tema.

wirelesswifi

Cita de: Diabliyo en 17 Enero 2011, 17:53 PM
La idea es buena y existen muchos que tal vez lo hagan asi, pero segun mi experiencia te recomiendo trates de hacerlo tambien por codigo, porque no todos los robots tienen un nombre :D, vaya, muchos acceden mas de 10 veces por dia (lo he visto en mi log), indexan el sitio, tienen un IP muy corta (por ejemplo: 67.45.89.14), la variable $_SERVER['HTTP_USER_AGENT'] esta vacia, no se detecta el S.O, ni el lenguaje.

Y hay otros que no se detecta el $_SERVER['HTTP_USER_AGENT'], pero si el S.O, el lenguaje y su ubicacion geografica, por ejemplo los buscadores Rusos y todos aquellos nuevos que igual ni conocemos.

Todos estos, si se diera el momento, estarian accediendo a tu archivo y haciendote un show otra vez :D

Saludos !

Si, yo los logs los guardo por mysql cuando votan a una noticia se guarda la IP en una tabla y casi todas son IPS 66.249.72.XXX 66.249.71.XXX 66.249.65.XXX etc...

Ya lo he puesto por el codigo que me has dado y por robots.txt.

Saludos! y Gracias.

Nakp

Cita de: Diabliyo en 17 Enero 2011, 17:25 PM
Si quieres evitar los bots y tienes un sitio web o blog, entonces es una tonteria :S... nadie indexaria tu sitio, solo tu y tus amigos conocerian tu pagina.

Eso del nofllow|noindex es solo para sitio donde requieres privacidad, por ejemplo Software para empresa (plataforma web), donde solo y unicamente quieres que accedan proveedores o personas especificas y no cualquier persona.

Pero ya estamos hablando que seria un plataforma, osea, que para ver el contenido necesitarias un user y clave.

Saludos !

se usan en el link :rolleyes:

<a rel="nofollow"></a>

una tonteria es pensar que solo es va en el meta del documento
Ojo por ojo, y el mundo acabará ciego.

tragantras

como ya dijeron antes, el archivo "robots.txt" se inventó para algo, no?

ponle un disallow y a correr, sin aún así quieres... tratar con crawlers indeseables (suponemos, como han dicho tambien, que no mandan headers de fiar y que no hacen uso del robots.txt), tienes varias opciones:


-pon un captcha para votar: lo veo lo más logico, si estas haciendo una votación tampoco querrás que te monten un script de autovotar y te jodan el sistema
-validación por javascript: casi ningun crawler implementa javascript, de manera que puedes crear el link a la votación de manera dinámica con javascript
-sistema de usuarios: sobre añadir nada, no?
Colaboraciones:
1 2

Nakp

Ojo por ojo, y el mundo acabará ciego.

tragantras

Cita de: Nakp en 19 Enero 2011, 00:20 AM
hacer la poll en un formulario por post? :P

ahi le has dado, simple y eficaz ;)
Colaboraciones:
1 2