¿Cuantas veces te pasó que estás leyendo atentamente Hay ardillas en la red y te quedas sin internet? ¿Y que haces después? Nada, te quedas triste, lleno de impotencia y con ganas de seguir leyendo… Entonces llamas a tu proveedor de internet que te dice que «Hay un problema en la zona» y que «están trabajando para solucionarlo».
Para que eso no te pase mas a vos ni a las millones (?) de personas que leen este maravilloso (?) blog vamos a solucionar este problema a través de un simple comando en la terminal. El mismo nos descargará en nuestro disco rígido la pagina completa de, en este caso, Hay ardillas en la red. Y si te volves a quedar sin internet ya no importa porque podes leer todo de manera «Offline».
Para descargar la página completa escribimos en la terminal:
wget -r -k http://hayardillasenlared.blogspot.com
El parámetro -r es para hacer la descarga recursiva y el -k para cambiar los links a direcciones locales.
Esto te creará una carpeta en tu /home/tuusuario con todos los archivos de la pagina descargados:
Si no tenes ganas de descargar absolutamente todas las entradas del blog podes usar el parámetro -c que solo te descarga la página principal (que generalmente contiene las últimas entradas). Quedaría así:
wget -c http://hayardillasenlared.blogspot.com
Por supuesto que pueden usarlo para cualquier otra página 😉