ερώτηση

Γνώση Υπολογιστών >> ερώτηση >  >> PC Αντιμετώπιση προβλημάτων

Πώς να κατεβάσετε έναν ολόκληρο ιστότοπο για χρήση εκτός σύνδεσης

Πώς να κατεβάσετε έναν ολόκληρο ιστότοπο για χρήση εκτός σύνδεσης

Υπάρχουν μερικοί διαφορετικοί τρόποι λήψης ενός ολόκληρου ιστότοπου για χρήση εκτός σύνδεσης. Η καλύτερη μέθοδος για εσάς θα εξαρτηθεί από το μέγεθος του ιστότοπου, τον τύπο περιεχομένου που περιέχει και τη δική σας τεχνική εμπειρία.

1. Χρησιμοποιήστε μια επέκταση προγράμματος περιήγησης

Υπάρχει ένας αριθμός επεκτάσεων προγράμματος περιήγησης που μπορούν να χρησιμοποιηθούν για τη λήψη ολόκληρων ιστότοπων. Μερικές από τις πιο δημοφιλείς επεκτάσεις περιλαμβάνουν:

- [WebCopy ](https://webcopy.io/)

- [HTTrack ](https://www.httrack.com/)

- [SiteSucker ](https://www.sitesucker.com/)

- [Teleport Pro ](https://www.teleportpro.com/)

Αυτές οι επεκτάσεις λειτουργούν με την αναδρομική ανίχνευση ενός ιστότοπου και τη λήψη όλου του περιεχομένου του, συμπεριλαμβανομένων κειμένου, εικόνων, βίντεο και σεναρίων. Μόλις ολοκληρωθεί η λήψη, μπορείτε να περιηγηθείτε στον ιστότοπο εκτός σύνδεσης χρησιμοποιώντας το πρόγραμμα περιήγησής σας.

2. Χρησιμοποιήστε ένα ειδικό πρόγραμμα λήψης ιστότοπου

Υπάρχει επίσης ένας αριθμός αποκλειστικών προγραμμάτων λήψης ιστότοπων που μπορείτε να χρησιμοποιήσετε για λήψη ολόκληρων τοποθεσιών. Μερικά από τα πιο δημοφιλή προγράμματα λήψης ιστοτόπων περιλαμβάνουν:

- [Εξερεύνηση εκτός σύνδεσης ](https://www.offexp.com/)

- [WebCopier ](https://www.webcopier.com/)

- [WinHTTrack ](http://www.httrack.com/page/2/)

- [WSGet ](http://www.wsget.com/)

Αυτά τα προγράμματα λήψης ιστοτόπων προσφέρουν συνήθως περισσότερες δυνατότητες από τις επεκτάσεις του προγράμματος περιήγησης, όπως τη δυνατότητα λήψης συγκεκριμένων αρχείων, ορισμού ορίων λήψης και προγραμματισμού λήψεων.

3. Χρησιμοποιήστε ένα αρχείο δέσμης

Εάν αισθάνεστε άνετα με τη χρήση της γραμμής εντολών, μπορείτε επίσης να χρησιμοποιήσετε ένα αρχείο δέσμης για να κατεβάσετε έναν ολόκληρο ιστότοπο. Ένα αρχείο δέσμης είναι ένα απλό αρχείο κειμένου που περιέχει μια σειρά από εντολές. Μπορείτε να δημιουργήσετε ένα ομαδικό αρχείο για λήψη ενός ιστότοπου, ακολουθώντας τα παρακάτω βήματα:

1. Ανοίξτε ένα πρόγραμμα επεξεργασίας κειμένου.

2. Πληκτρολογήστε τις ακόλουθες εντολές:

```

cd C:\Users\YourUsername\Downloads

ξεκινήστε το "IE" "http://www.example.com"

taskkill /IM iexplore.exe

ξεκινήστε το cmd.exe

cd "C:\Users\YourUsername\Downloads\www.example.com"

wget -r -np -nd -e robots=off http://www.example.com

```

3. Αποθηκεύστε το αρχείο ως ``download-website.bat``.

4. Κάντε διπλό κλικ στο αρχείο δέσμης για να ξεκινήσει η λήψη.

Αυτό το ομαδικό αρχείο θα ανοίξει τον Internet Explorer και θα μεταβεί στην καθορισμένη διεύθυνση URL. Στη συνέχεια, θα σκοτώσει τη διαδικασία του Internet Explorer και θα ανοίξει ένα παράθυρο γραμμής εντολών. Στη συνέχεια, το αρχείο δέσμης θα αλλάξει στον κατάλογο λήψης και θα χρησιμοποιήσει την εντολή wget για τη λήψη του ιστότοπου αναδρομικά.

4. Χρησιμοποιήστε ένα σενάριο Python

Εάν είστε εξοικειωμένοι με την Python, μπορείτε επίσης να χρησιμοποιήσετε ένα σενάριο Python για να κατεβάσετε έναν ολόκληρο ιστότοπο. Υπάρχει μια σειρά από βιβλιοθήκες Python που μπορούν να χρησιμοποιηθούν για το σκοπό αυτό, όπως:

- [αιτήματα ](https://requests.readthedocs.io/en/master/)

- [beautifulsoup4 ](https://beautiful-soup-4.readthedocs.io/en/latest/)

- [wget ](https://packages.python.org/wget/)

Μπορείτε να δημιουργήσετε ένα σενάριο Python για τη λήψη ενός ιστότοπου, ακολουθώντας τα παρακάτω βήματα:

1. Ανοίξτε ένα πρόγραμμα επεξεργασίας κειμένου.

2. Πληκτρολογήστε τον ακόλουθο κωδικό:

```python

αιτήματα εισαγωγής

εισαγωγή bs4

εισαγωγή wget

def download_website(url):

answer =requests.get(url)

σούπα =bs4.BeautifulSoup(response.text, "html.parser")

για σύνδεσμο στο soup.find_all('a'):

href =link.get('href')

if href και href.startswith('http'):

wget.download(href)

αν __όνομα__ =='__κύριος__':

url ='http://www.example.com'

download_website(url)

```

3. Αποθηκεύστε το αρχείο ως ``download-website.py``.

4. Εκτελέστε το σενάριο χρησιμοποιώντας την ακόλουθη εντολή:

```

python download-website.py

```

Αυτό το σενάριο Python θα χρησιμοποιήσει τη βιβλιοθήκη αιτημάτων για να ανακτήσει το HTML της καθορισμένης διεύθυνσης URL. Στη συνέχεια, θα χρησιμοποιήσει τη βιβλιοθήκη BeautifulSoup για να αναλύσει το HTML και να εξαγάγει όλους τους συνδέσμους. Στη συνέχεια θα χρησιμοποιήσει τη βιβλιοθήκη wget για να κατεβάσει κάθε σύνδεσμο.

5. Χρησιμοποιήστε μια υπηρεσία τρίτου μέρους

Υπάρχει επίσης μια σειρά από υπηρεσίες τρίτων που μπορούν να χρησιμοποιηθούν για τη λήψη ολόκληρων ιστότοπων. Αυτές οι υπηρεσίες συνήθως χρεώνουν ένα τέλος, αλλά προσφέρουν έναν βολικό και εύκολο τρόπο λήψης ιστότοπων. Μερικές από τις πιο δημοφιλείς υπηρεσίες τρίτων περιλαμβάνουν:

- [Αρχείο Διαδικτύου ](https://archive.org/)

- [WebCite ](https://webcite.org/)

- [Pagefreezer ](https://pagefreezer.com/)

Αυτές οι υπηρεσίες λειτουργούν συνήθως ανιχνεύοντας έναν ιστότοπο και καταγράφοντας όλο το περιεχόμενό του

Συναφής σύστασή

Πνευματικά δικαιώματα © Γνώση Υπολογιστών Όλα τα δικαιώματα κατοχυρωμένα