Quel site Web souhaitez-vous télécharger?
Mais gardez à l'esprit. Plus le site est grand, plus le téléchargement est important. Nous ne recommandons pas de télécharger des sites énormes comme Qiita. En effet, il faut des milliers de Mo pour stocker tous les fichiers multimédias que vous utilisez.
Les meilleurs sites à télécharger sont ceux avec beaucoup de texte et peu d'images, et ceux qui n'ajoutent pas ou ne modifient pas régulièrement de nouvelles pages. Idéalement, vous devriez avoir un site d'information statique, un site de livre électronique en ligne ou un site que vous souhaitez archiver en cas de panne.
Il est facile d'enregistrer des pages Web individuelles pour une lecture hors ligne, mais que faire si vous souhaitez télécharger l'ensemble du site Web? Eh bien, c'est plus facile que vous ne le pensez! Voici quelques outils utiles que vous pouvez utiliser pour télécharger votre site Web pour une lecture hors ligne.
Wget est un utilitaire de ligne de commande qui vous permet de récupérer tous les types de fichiers via les protocoles HTTP et FTP. Wget est un excellent outil pour extraire des sites Web, car les sites Web sont servis via HTTP et la plupart des fichiers multimédias Web sont accessibles via HTTP ou FTP.
Wget
Disponible pour Windows, Mac et Linux.
Wget est généralement utilisé pour télécharger un seul fichier, mais peut être utilisé pour télécharger de manière récursive toutes les pages et tous les fichiers trouvés à partir de la première page.
wget -r -p https://www.joeyoder.com
Cependant, pour certains sites, l'extraction d'un site Web peut consommer beaucoup de bande passante et peut vous détecter et vous empêcher de le faire. Pour éviter cela, vous pouvez utiliser la chaîne de l'agent utilisateur pour emprunter l'identité d'un navigateur Web.
wget -r -p -U Mozilla https://www.joeyoder.com
Si vous voulez être poli, vous devez limiter la vitesse de téléchargement (afin qu'il n'occupe pas la bande passante du serveur Web) et faire une pause entre les téléchargements (pas trop exigeant et surchargeant le serveur Web). Faire cela).
wget -r -p -U Mozilla --wait = 10 --limit-rate = 35K https://www.joeyoder.com
Wget est fourni avec la plupart des systèmes basés sur Unix. Sur Mac, vous pouvez installer Wget à l'aide d'une commande Homebrew: brew install wget (comment configurer Homebrew sur Mac). Sous Windows, vous devez utiliser cette version portée à la place.
Autre WebCopy
Uniquement disponible sous Windows.
WebCopy de Cyotek obtient l'URL du site Web et analyse les liens, les pages et les médias. Lorsqu'il trouve une page, il recherche récursivement plus de liens, de pages et de médias jusqu'à ce qu'il trouve le site Web entier. Vous pouvez ensuite utiliser les options de configuration pour déterminer les pièces à télécharger hors ligne.
La chose intéressante à propos de WebCopy est que vous pouvez mettre en place plusieurs "projets", chacun avec ses propres paramètres et configurations. Cela facilite le téléchargement de nombreux sites différents à tout moment.
Vous pouvez copier plusieurs sites Web dans un même projet, alors utilisez-les dans un plan ordonné (par exemple, un projet «high-tech» pour copier des sites high-tech). Comment télécharger l'intégralité du site Web avec WebCopy
Installez et lancez l'application. Allez dans Fichier> Nouveau et créez un nouveau projet. Saisissez l'URL dans le champ Site Web. Remplacez le champ Enregistrer le dossier par l'emplacement où vous souhaitez enregistrer le site. Jouez avec Projet> Règles (voir les détails des règles WebCopy). Allez dans Fichier> Enregistrer sous et enregistrez votre projet. Cliquez sur Copier le site Web dans la barre d'outils pour démarrer le processus.
Une fois la copie terminée, vous pouvez utiliser l'onglet Résultats pour vérifier l'état des pages individuelles et des fichiers multimédias. L'onglet Erreur affiche le problème que vous avez rencontré et l'onglet Ignorer affiche les fichiers qui n'ont pas été téléchargés.
Cependant, le plus important est le plan du site, qui montre la structure complète des répertoires du site Web détecté par WebCopy.
Pour afficher le site Web hors ligne, ouvrez l'Explorateur de fichiers et accédez au dossier de sauvegarde que vous avez spécifié. Ouvrez index.html (ou index.htm dans certains cas) dans le navigateur de votre choix pour commencer à naviguer.
HTTrack
Obtenez une page Web pour lire hors ligne avec WinHTTRack
Disponible pour Windows, Linux et Android.
HTTrack est certainement meilleur que WebCopy car il est plus populaire, open source et disponible sur des plates-formes autres que Windows, mais l'interface est un peu délicate et on souhaite beaucoup. Mais cela fonctionne bien, alors ne le laissez pas vous adoucir.
Semblable à WebCopy, vous pouvez utiliser une approche basée sur des projets pour copier plusieurs sites Web et les garder tous organisés. Vous pouvez suspendre et reprendre le téléchargement, ou retélécharger les anciens et les nouveaux fichiers pour mettre à jour le site Web copié. Comment télécharger un site Web avec HTTrack
Installez et lancez l'application. Cliquez sur Suivant pour commencer à créer un nouveau projet. Donnez à votre projet un nom, une catégorie et un chemin de base, puis cliquez sur Suivant. Sélectionnez Télécharger les sites Web pour l'action et entrez l'URL de chaque site Web dans la zone Adresse Web, une par ligne. Vous pouvez également enregistrer l'URL dans un fichier TXT et l'importer. Ceci est utile lorsque vous retéléchargez ultérieurement le même site. Cliquez sur Suivant. Ajustez les paramètres selon vos besoins et cliquez sur Terminer.
Une fois que tout est téléchargé, vous pouvez parcourir le site comme d'habitude en accédant à l'emplacement où le fichier a été téléchargé et en ouvrant index.html ou index.htm dans votre navigateur.
English Language Command Reference Download entire website offline
Wget
Available for Windows, Mac, and Linux.
While Wget is typically used to download single files, it can be used to recursively download all pages and files that are found through an initial page:
wget -r -p https://www.joeyoder.com
However, some sites may detect and prevent what you're trying to do because ripping a website can cost them a lot of bandwidth. To get around this, you can disguise yourself as a web browser with a user agent string:
wget -r -p -U Mozilla https://www.joeyoder.com
If you want to be polite, you should also limit your download speed (so you don't hog the web server's bandwidth) and pause between each download (so you don't overwhelm the web server with too many requests):
wget -r -p -U Mozilla --wait=10 --limit-rate=35K https://www.joeyoder.com
Wget comes bundled with most Unix-based systems. On Mac, you can install Wget using a single Homebrew command: brew install wget (how to set up Homebrew on Mac). On Windows, you'll need to use this ported version instead.
Other WebCopy
Available for Windows only.
WebCopy by Cyotek takes a website URL and scans it for links, pages, and media. As it finds pages, it recursively looks for more links, pages, and media until the whole website is discovered. Then you can use the configuration options to decide which parts to download offline.
The interesting thing about WebCopy is you can set up multiple "projects" that each have their own settings and configurations. This makes it easy to re-download many different sites whenever you want, each one in the same exact way every time.
One project can copy many websites, so use them with an organized plan (e.g. a "Tech" project for copying tech sites). How to Download an Entire Website With WebCopy
Install and launch the app.
Navigate to File > New to create a new project.
Type the URL into the Website field.
Change the Save folder field to where you want the site saved.
Play around with Project > Rules… (learn more about WebCopy Rules).
Navigate to File > Save As… to save the project.
Click Copy Website in the toolbar to start the process.
Once the copying is done, you can use the Results tab to see the status of each individual page and/or media file. The Errors tab shows any problems that may have occurred and the Skipped tab shows files that weren't downloaded.
But most important is the Sitemap, which shows the full directory structure of the website as discovered by WebCopy.
To view the website offline, open File Explorer and navigate to the save folder you designated. Open the index.html (or sometimes index.htm) in your browser of choice to start browsing.
HTTrack
Grab a webpage for offline reading with WinHTTRack
Available for Windows, Linux, and Android.
HTTrack is more known than WebCopy, and is arguably better because it's open source and available on platforms other than Windows, but the interface is a bit clunky and leaves much to be desired. However, it works well so don't let that turn you away.
Like WebCopy, it uses a project-based approach that lets you copy multiple websites and keep them all organized. You can pause and resume downloads, and you can update copied websites by re-downloading old and new files. How to Download a Website With HTTrack
Install and launch the app.
Click Next to begin creating a new project.
Give the project a name, category, base path, then click Next.
Select Download web site(s) for Action, then type each website's URL in the Web Addresses box, one URL per line. You can also store URLs in a TXT file and import it, which is convenient when you want to re-download the same sites later. Click Next.
Adjust parameters if you want, then click Finish.
Once everything is downloaded, you can browse the site like normal by going to where the files were downloaded and opening the index.html or index.htm in a browser.
credit to original Author Joel Lee (1604 Articles Published)
Japonais directement à la source https://tinyurl.com/website-backup-wget-japanese
Joel Lee (article publié en 1604)
Japonais directement à la source https://tinyurl.com/website-backup-wget-japanese
Recommended Posts