Como posso descarregar um website inteiro?
Como posso descarregar todas as páginas de um website?
Qualquer plataforma está bem.
O HTTRACK funciona como um campeão para copiar o conteúdo de um site inteiro. Esta ferramenta pode até agarrar as peças necessárias para fazer um site com conteúdo de código activo funcionar offline. Estou espantado com o material que pode replicar offline.
Este programa fará tudo o que precisar dele.
Feliz caçada!
O Wget é uma ferramenta clássica de linha de comando para este tipo de tarefa. Ele vem com a maioria dos sistemas Unix/Linux, e você pode obtê-lo para Windows também. Num Mac, Homebrew é a forma mais fácil de o instalar (brew install wget
).
Faz algo como:
wget -r --no-parent http://site.com/songs/
Para mais detalhes, veja Wget Manual e os seus exemplos , ou e. g. estes:
Deve dar uma olhada em ScrapBook , uma extensão Firefox. Tem um modo de captura em profundidade .
O Internet Download Manager tem um utilitário Site Grabber com muitas opções - que lhe permite descarregar completamente qualquer site que deseje, da forma que desejar.
Pode definir o limite do tamanho das páginas/ficheiros para descarregar
Pode definir o número de páginas/arquivos a visitar nos
Pode alterar a forma como os scripts/popups/duplicados se comportam
Pode especificar um domínio, apenas sob esse domínio serão descarregadas todas as páginas/ficheiros que cumpram as definições necessárias
Os links podem ser convertidos para links offline para navegação
Tem templates que lhe permitem escolher as definições acima para si
O software não é, no entanto, gratuito - veja se se adequa às suas necessidades, utilize a versão de avaliação.
Eu gosto de Explorador Offline . É um shareware, mas é muito bom e fácil de usar.
Vou abordar o buffer online que os browsers utilizam…
Normalmente, a maioria dos browsers utiliza uma cache de navegação para manter os ficheiros que descarrega de um website um pouco por perto, para que não tenha de descarregar imagens e conteúdos estáticos vezes sem conta. Isto pode acelerar um pouco as coisas em algumas circunstâncias. De um modo geral, a maioria das caches dos browsers estão limitadas a um tamanho fixo e quando atinge esse limite, apagará os ficheiros mais antigos da cache. Os ISP
tendem a ter servidores de cache que mantêm cópias de websites de acesso comum como a ESPN e a CNN. Isto poupa-lhes o trabalho de bater nesses sites cada vez que alguém na sua rede lá vai. Isto pode significar uma poupança significativa na quantidade de pedidos duplicados para sítios externos ao ISP.
O WebZip é também um bom produto.
Não o faço há muitos anos, mas ainda há alguns serviços de utilidade pública por aí. Talvez queira tentar Web Snake . Creio que o usei há anos atrás. Lembrei-me logo do nome quando li a sua pergunta.
Eu concordo com o Stecy. Por favor, não martele o site deles. Muito mau.
Experimente BackStreet Browser .
É um browser offline gratuito e poderoso. Um programa de download e visualização de websites de alta velocidade e multi-tarefas. Ao fazer vários pedidos simultâneos de servidores, o BackStreet Browser pode descarregar rapidamente todo o website ou parte de um site incluindo HTML, gráficos, Java Applets, som e outros ficheiros definíveis pelo utilizador, e guarda todos os ficheiros no seu disco rígido, quer no seu formato nativo, quer como um ficheiro ZIP comprimido e visualizar offline.
O Teleport Pro é outra solução gratuita que copiará todo e qualquer ficheiro de qualquer que seja o seu destino (também tem uma versão paga que lhe permitirá puxar mais páginas de conteúdo).
DownThemAll é um add-on Firefox que irá baixar todo o conteúdo (arquivos de áudio ou vídeo, por exemplo) para uma determinada página web com um único clique. Isto não faz o download do site inteiro, mas isto pode ser uma espécie de coisa que a pergunta estava procurando.
Para Linux e OS X: Escrevi grab-site para arquivar websites inteiros em ficheiros WARC . Estes ficheiros WARC podem ser browsed ou extraídos. grab-site permite-lhe controlar quais os URLs a saltar usando expressões regulares, e estes podem ser alterados quando o crawl está a correr. Também vem com um extenso conjunto de padrões para ignorar URLs de lixo.
Há um painel de controle para monitorar os rastejamentos, bem como opções adicionais para pular conteúdo de vídeo ou respostas sobre um determinado tamanho.
Enquanto o wget já era mencionado este recurso e a linha de comando era tão simples que achei que merecia ser mencionado:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/
Ver este código explicado em explainshell
Extensão Google Chrome Extensão Firefox
Reparei que numa página da galeria de imagens que experimentei, salvou as miniaturas mas não as imagens completas. Ou talvez não apenas o JavaScript para abrir as imagens completas dos thumbnails.
Mas, funcionou melhor do que wget, PDF, etc. Grande solução simples para as necessidades da maioria das pessoas.
Pode utilizar abaixo ferramentas online gratuitas que farão um ficheiro zip de todos os conteúdos incluídos nessa url
O venerável * FreeDownloadManager.org ** também tem esta funcionalidade.
Free Download Manager tem esta funcionalidade em duas formas em duas formas: Site Explorer e Site Spider :
Site Explorer Site Explorer permite visualizar a estrutura de pastas de um web site e facilmente descarregar ficheiros ou pastas necessárias. HTML Spider Pode descarregar páginas web inteiras ou mesmo web sites inteiros com HTML Spider. A ferramenta pode ser ajustada para descarregar ficheiros apenas com as extensões especificadas.
Eu acho que o Site Explorer é útil para ver quais as pastas a incluir/excluir antes de tentar descarregar o site inteiro - especialmente quando há um fórum inteiro escondido no site que não quer descarregar, por exemplo.
descarregar HTTracker irá descarregar websites muito fáceis de seguir.
download link http://www.httrack.com/page/2/
vídeo que o podem ajudar https://www.youtube.com/watch?v=7IHIGf6lcL4
O Firefox pode fazê-lo nativamente (pelo menos FF 42 lata). Basta usar “Save Page”
Acredito que o google chrome pode fazer isto em dispositivos de desktop, basta ir ao menu do browser e clicar em save webpage.
Também note que serviços como o pocket podem não salvar o website, e portanto são susceptíveis de apodrecer o link.
Finalmente note que copiar o conteúdo de um website pode infringir os direitos de autor, se aplicável.