Menú

Mostrar Mensajes

Esta sección te permite ver todos los mensajes escritos por este usuario. Ten en cuenta que sólo puedes ver los mensajes escritos en zonas a las que tienes acceso en este momento.

Mostrar Mensajes Menú

Temas - natko

#1
Hola a todos!

Hace un tiempo estoy intentando con Python 2.7 capturar los caracteres de una imagen y que los guarde en un documento de texto.

Lo que intento hacer sería algo similar a saltar un captcha, pero solo que mucho mas fácil, ya que en este caso las imágenes son solo de números, es decir hay 10 posibilidades por cada dígito, ademas de que estas son nítidas sin ningún tipo de alteración visual.

Aquí adjunto un ejemplo:

Lo necesito hacer si o si en Python..

Necesitaria el favor de si algiuen me podría guiar sobre que librerías utilizar o alguna recomendación sobre que leer.

Gracias ante todo  ;D

Saludos!

#2
Hacking / Ingreso masivo a muchas webs
22 Octubre 2016, 19:43 PM
Hola a todos, soy nuevo en el foro :D

Primeramente quiero aclarar que no se si este tema se debe incluir aquí.. ya que también puede tener que ver con la programación..

Mi problema es el siguiente, yo tengo documento de texto que guarda 90mil links. Todos los links son del mismo sitio web, pero de distintos sectores de ese sitio web. De estos 90mil solo un link es correcto, los otros restantes dan error 404 ya que esa dirección del sitio web no existe.
Busqué pero no encontré ningún programa.. no se como se llama tampoco este tipo de programas :p

Lo que hice fue hacer un programa con python utilizando la librería 'urllib2' en python 2.7. El problema de este programa es que tarda demasiado, y no es por una limitación de internet que tarde, sino por un limitación del algoritmo (la librería). Aproximadamente tardaba 24hs para las 90mil links.. aunque claro, esto como máximo, ya que si lo encontrase antes pararía.

Luego probé con otra librería (descargada) llamada 'concurrent', también en python 2.7.. Este si va mas rápido. Aunque tengo un problema que cada 500 links probados el internet se corta unos pocos minutos y se generan algunos timeouts (estos links que devolvieron de error timeout se guardan en otro documento de texto para probarlos luego).. finalmente contando ese retraso los 90mil links tardarían como máximo 12hs..

Ahora mi pregunta final es, alguien conoce otra librería en python o algún lenguaje que pueda hacerlo mas rápido, o aún mejor un programa ya hecho que haga todo esto?

Desde ya gracias por las respuestas!

Saludos!