[Python]Comprobar si hay actualizaciones en elhacker.net

Iniciado por braulio--, 5 Mayo 2009, 22:04 PM

0 Miembros y 1 Visitante están viendo este tema.

braulio--

He hecho este code para comprobar si hay actualizaciones en elhacker.net, es para windows, pero se puede adaptar a linux con cambiar una sola linea.
Código (python) [Seleccionar]
import urllib2,os
def obtenercode():
  web = urllib2.urlopen("http://elhacker.net")
  code=web.read()
  return code
try:
archivo=open("ultimapagina.html","rw")
archivodos=open("nuevo.txt","w")
archivodos.write(obtenercode())
archivodos.close()
archivodos = open("nuevo.txt","r")
if  archivodos.readlines()==archivo.readlines():
   archivodos.close()
   os.system("del /f nuevo.txt")
   print "No ha habido ninguna actualizacion"
   raw_input()
else :
   print "Hay alguna actualizacion"
   archivo.write(obtenercode())
   raw_input()
   exit(0)
except :
print "No existe la pagina ultimapagina.html, asi que se guardara la pagina"
archivo = open("ultimapagina.html","w")
archivo.write(obtenercode())
print "Fichero guardado. Adios"
archivo.close()
exit(0)

-Saludos.

Novlucker

Un poco de python  :D

Entiendo que esto es para la web de elhacker.net verdad?
Como la solicitud a la página es en el mismo momento en que realizas la comparación podrías ver de que la misma sea on the fly, ya que no es necesario crear el archivo "nuevo.txt"  :P

Y por otra parte veo que se realiza la comparación, pero nunca guardas la nueva página, es decir, revisas que haya una de antes y de haberlo lo comparas, pero luego eliminas el "nuevo.txt" y el "ultimapagina.html" queda igual, así que la próxima comparación sera contra el mismo archivo :rolleyes:

Saludos
Contribuye con la limpieza del foro, reporta los "casos perdidos" a un MOD XD

"Hay dos cosas infinitas: el Universo y la estupidez  humana. Y de la primera no estoy muy seguro."
Albert Einstein

Shrick

Si esa es la metodología pillar el fuente copiarlo en un archivo después, al de unos dias vuelves ha hacer lo mismo y haces una comparación byte a byte haber si hay algo nuevo y si lo hay pues se anuncia y pista. Yo el urllib todavía no lo he utilizado aunque pienso utilizarlo porque lo veo muy útil y sencillo, sin embargo los de python todavia tienen que implementar correctamente el SSL para entrar en páginas de HTTPS, que por desgracia aun les queda camino, existe la librería M2Crypto que te permite hacer lo mismo, sin embargo, esta carente de documentación y uno se harta de tener que leerse todo el code y entenderlo.
Ubuntu User
Pascal (2008/2009)
C/C++ (2009/¿?)
8080 Assembler (2009/2010)
MIPS I Assembler (2010/¿?)

Todo lo que yo haga o diga esta bajo:



No pertenece ni a mi ni a nadie :P .

braulio--

Source modificado para que guarde la pagina cuando actualice, no lo he probado pero supongo que funcionará.