[BASH] Capturar y descargar web con CURL

Iniciado por Hekaly, 3 Junio 2014, 17:29 PM

0 Miembros y 1 Visitante están viendo este tema.

Hekaly

Buenas a todos.

Les pongo en situacion.

A traves de esta web: http://www.websitetest.com/ Uno puede calcular el rendimiento de la web, entre otros datos, y lo que quiero es mostrar los valores en un csv y para eso nesesito descargar el informe y procesarlo.

El caso es el siguiente, si por ejemplo metemos google la url del informe es

http://www.websitetest.com/ui/tests/538de8c10c53722418000009

Lo que quiero es descargar con curl el informe 538de8c10c53722418000009 y para ello necesito obtener esa url cuando haya acabado el escaneo.

Estoy intentando hacerlo con curl, pero no se como hacerlo.

Código (bash) [Seleccionar]
curl --silent --form url=http://google.es  www.websitetest.com | grep test
curl --silent --form url=http://apple.universia.es  www.websitetest.com/ui/test


Entre otras posibilidades sin existo.

Sabeis como podria hacerlo, en caso de poderse. COmo camturo en variable las peticiones GET y POST en curl, ya que es en una de ellas donde se almacena la url que quiero

Muchas gracias.