Wget es un comando de Linux muy usado, versátil y muy potente; tanto que podemos descargar sitios completos para tenerlos offline en nuestra computadora.
Para ello, vamos a revisar los parámetros que vamos a necesitar:
-r, --recursive
Activar la recuperación recursiva. La profundidad máxima predeterminada es 5.
-l, --level= profundidad
Especifique la profundidad máxima de nivel de profundidad de recursión.
-k, --convert-links
Una vez finalizada la descarga, convierta los vínculos del documento para que sean adecuados para su visualización local. Esto afecta no sólo a los hipervínculos visibles, sino a cualquier parte del documento que enlaza con contenido externo, como imágenes incrustadas, enlaces a hojas de estilo, hipervínculos a contenido no HTML, etc.
Nota: los link quedan enlazados a raíz "/", por lo que te recomiendo que te montes un servidor web y que te hagas un subdominio para que lo puedas ver correctamente.
-p, --page-requisites
Esta opción hace que Wget descargue todos los archivos que son necesario para mostrar correctamente una página HTML determinada. Esto incluye tales como imágenes en línea, sonidos y hojas de estilo referenciadas.
Ejemplo:
wget -r -l 10 -k -p https://www.gnu.org