ऑफलाइन पढ़ने के लिए पूरी वेबसाइट कैसे डाउनलोड करें

हालाँकि इन दिनों वाई-फाई हर जगह उपलब्ध है, लेकिन आप समय-समय पर खुद को इसके बिना पा सकते हैं। और जब आप ऐसा करते हैं, तो हो सकता है कि ऐसी वेबसाइटें हों जिन्हें आप सहेजना चाहते थे, ताकि ऑफ़लाइन रहते हुए उन तक आपकी पहुंच हो—शायद शोध, मनोरंजन, या केवल भावी पीढ़ी के लिए।

ऑफ़लाइन पढ़ने के लिए अलग-अलग वेब पेजों को सहेजना बहुत बुनियादी है, लेकिन क्या होगा यदि आप पूरी वेबसाइट डाउनलोड करना चाहते हैं? चिंता न करें, यह आपके विचार से आसान है। लेकिन इसके लिए हमारी बात न लें। यहां ऐसे कई उपकरण दिए गए हैं जिनका उपयोग आप ऑफ़लाइन पढ़ने के लिए किसी भी वेबसाइट को डाउनलोड करने के लिए कर सकते हैं—बिना किसी परेशानी के।

1. वेबकॉपी

Cyotek द्वारा WebCopy एक वेबसाइट URL लेता है और इसे लिंक, पेज और मीडिया के लिए स्कैन करता है। जैसे ही यह पेज ढूंढता है, यह पूरी वेबसाइट की खोज होने तक और अधिक लिंक, पेज और मीडिया की तलाश करता है। फिर आप यह तय करने के लिए कॉन्फ़िगरेशन विकल्पों का उपयोग कर सकते हैं कि कौन से हिस्से ऑफ़लाइन डाउनलोड करें।

WebCopy के बारे में दिलचस्प बात यह है कि आप कई प्रोजेक्ट सेट कर सकते हैं, जिनमें से प्रत्येक की अपनी सेटिंग्स और कॉन्फ़िगरेशन हैं। इससे जब भी आप चाहें, कई साइटों को फिर से डाउनलोड करना आसान हो जाता है, हर एक उसी तरह हर बार।

एक प्रोजेक्ट कई वेबसाइटों की प्रतिलिपि बना सकता है, इसलिए उनका उपयोग एक संगठित योजना के साथ करें (उदाहरण के लिए, तकनीकी साइटों की प्रतिलिपि बनाने के लिए एक "तकनीक" परियोजना)।

WebCopy के साथ पूरी वेबसाइट कैसे डाउनलोड करें

  1. ऐप इंस्टॉल करें और लॉन्च करें।
  2. नया प्रोजेक्ट बनाने के लिए फ़ाइल> नया पर नेविगेट करें।
  3. वेबसाइट फ़ील्ड में URL टाइप करें।
  4. फ़ोल्डर सहेजें फ़ील्ड को उस स्थान पर बदलें जहाँ आप साइट को सहेजना चाहते हैं।
  5. प्रोजेक्ट > नियम… के साथ खेलें ( वेबकॉपी नियमों के बारे में और जानें )।
  6. प्रोजेक्ट को सहेजने के लिए फ़ाइल > इस रूप में सहेजें… पर नेविगेट करें
  7. प्रक्रिया शुरू करने के लिए टूलबार में कॉपी पर क्लिक करें

एक बार कॉपी हो जाने के बाद, आप प्रत्येक व्यक्तिगत पृष्ठ और/या मीडिया फ़ाइल की स्थिति देखने के लिए परिणाम टैब का उपयोग कर सकते हैं। त्रुटि टैब किसी भी समस्या को दिखाता है जो हो सकती है, और छोड़ दिया गया टैब उन फ़ाइलों को दिखाता है जिन्हें डाउनलोड नहीं किया गया था।

संबंधित: ऑफ़लाइन पढ़ने के लिए लेख सहेजने के लिए सर्वश्रेष्ठ ऐप्स

लेकिन सबसे महत्वपूर्ण साइटमैप है , जो वेबकॉपी द्वारा खोजी गई वेबसाइट की पूरी निर्देशिका संरचना को दिखाता है।

वेबसाइट को ऑफ़लाइन देखने के लिए, फ़ाइल एक्सप्लोरर खोलें और आपके द्वारा निर्दिष्ट सहेजे गए फ़ोल्डर में नेविगेट करें। ब्राउज़िंग शुरू करने के लिए अपनी पसंद के ब्राउज़र में index.html (या कभी-कभी index.htm ) खोलें।

डाउनलोड: के लिए WebCopyविंडोज (नि: शुल्क)

2. एचटीट्रैक

वेबकॉपी की तुलना में एचटीट्रैक अधिक जाना जाता है, और यकीनन बेहतर है क्योंकि यह ओपन-सोर्स है और विंडोज के अलावा अन्य प्लेटफॉर्म पर उपलब्ध है। इंटरफ़ेस थोड़ा क्लंकी है और वांछित होने के लिए बहुत कुछ छोड़ देता है, हालांकि, यह अच्छी तरह से काम करता है, इसलिए इसे आपको दूर न करने दें।

वेबकॉपी की तरह, यह एक परियोजना-आधारित दृष्टिकोण का उपयोग करता है जो आपको कई वेबसाइटों की प्रतिलिपि बनाने और उन सभी को व्यवस्थित रखने की सुविधा देता है। आप डाउनलोड को रोक सकते हैं और फिर से शुरू कर सकते हैं, और आप पुरानी और नई फ़ाइलों को फिर से डाउनलोड करके कॉपी की गई वेबसाइटों को अपडेट कर सकते हैं।

HTTrack के साथ पूरी वेबसाइट कैसे डाउनलोड करें

  1. ऐप इंस्टॉल करें और लॉन्च करें।
  2. नया प्रोजेक्ट बनाना शुरू करने के लिए अगला क्लिक करें।
  3. प्रोजेक्ट को एक नाम, श्रेणी, आधार पथ दें, फिर अगला पर क्लिक करें।
  4. कार्रवाई के लिए डाउनलोड वेबसाइट (वेबसाइटों) का चयन करें, फिर वेब एड्रेस बॉक्स में प्रत्येक वेबसाइट का URL टाइप करें, प्रति पंक्ति एक URL। आप यूआरएल को एक TXT फ़ाइल में भी स्टोर कर सकते हैं और इसे आयात कर सकते हैं, जो तब सुविधाजनक होता है जब आप बाद में उन्हीं साइटों को फिर से डाउनलोड करना चाहते हैं। अगला क्लिक करें।
  5. यदि आप चाहें तो पैरामीटर समायोजित करें, फिर समाप्त पर क्लिक करें

एक बार सब कुछ डाउनलोड हो जाने के बाद, आप सामान्य की तरह साइट को ब्राउज़ कर सकते हैं, जहां फाइलें डाउनलोड की गई थीं और एक ब्राउज़र में index.html या index.htm खोलकर।

लिनक्स के साथ एचटीट्रैक का उपयोग कैसे करें

यदि आप एक उबंटू उपयोगकर्ता हैं, तो यहां बताया गया है कि आप पूरी वेबसाइट को बचाने के लिए एचटीट्रैक का उपयोग कैसे कर सकते हैं:

  1. टर्मिनल लॉन्च करें और निम्न कमांड टाइप करें:
     sudo apt-get install httrack
  2. यह आपके उबंटू पासवर्ड के लिए पूछेगा (यदि आपने एक सेट किया है)। इसे टाइप करें , और एंटर दबाएं । टर्मिनल कुछ ही मिनटों में टूल को डाउनलोड कर लेगा।
  3. अंत में इस कमांड को टाइप करें और एंटर दबाएं । इस उदाहरण के लिए, हमने लोकप्रिय वेबसाइट ब्रेन पिकिंग को डाउनलोड किया।
     httrack https://www.brainpickings.org/
  4. इससे ऑफलाइन पढ़ने के लिए पूरी वेबसाइट डाउनलोड हो जाएगी।
    ubuntu . पर httrack के साथ एक पूरी वेबसाइट डाउनलोड करना

आप यहां वेबसाइट यूआरएल को जिस भी वेबसाइट को डाउनलोड करना चाहते हैं उसके यूआरएल से बदल सकते हैं। उदाहरण के लिए, यदि आप संपूर्ण विश्वकोश ब्रिटानिका को डाउनलोड करना चाहते हैं, तो आपको अपने आदेश में इस प्रकार बदलाव करने होंगे:

 httrack https://www.britannica.com/

डाउनलोड करें: विंडोज और लिनक्स के लिए एचटीट्रैक | एंड्रॉइड (फ्री)

3.साइटसुकर

यदि आप Mac पर हैं, तो आपका सबसे अच्छा विकल्प SiteSucker है । यह सरल टूल संपूर्ण वेबसाइटों की प्रतिलिपि बनाता है, समान संरचना रखता है, और सभी प्रासंगिक मीडिया फ़ाइलें भी शामिल करता है (जैसे, चित्र, PDF, स्टाइल शीट)।

यह एक स्वच्छ और आसान से उपयोग इंटरफ़ेस-आप सचमुच वेबसाइट URL में चिपकाएं और Enter दबाएं है।

एक निफ्टी फीचर एक फाइल में डाउनलोड को सेव करने की क्षमता है, फिर भविष्य में (या किसी अन्य मशीन पर) उसी फाइल और स्ट्रक्चर को फिर से डाउनलोड करने के लिए उस फाइल का उपयोग करें। यह सुविधा भी है जो साइटसुकर को डाउनलोड को रोकने और फिर से शुरू करने की अनुमति देती है।

साइटसुकर की कीमत लगभग $ 5 है और यह एक नि: शुल्क संस्करण या नि: शुल्क परीक्षण के साथ नहीं आता है, जो इसका सबसे बड़ा नकारात्मक पहलू है। नवीनतम संस्करण के लिए macOS 11 Big Sur या उच्चतर की आवश्यकता है। SiteSucker के पुराने संस्करण पुराने Mac सिस्टम के लिए उपलब्ध हैं, लेकिन कुछ सुविधाएँ गायब हो सकती हैं।

डाउनलोड करें : आईओएस के लिए साइटसुकर | मैक ($4.99)

4. Wget

Wget एक कमांड-लाइन उपयोगिता है जो HTTP और FTP प्रोटोकॉल पर सभी प्रकार की फ़ाइलों को पुनः प्राप्त कर सकती है। चूंकि वेबसाइटों को HTTP के माध्यम से परोसा जाता है और अधिकांश वेब मीडिया फ़ाइलें HTTP या FTP के माध्यम से सुलभ हैं, यह Wget को संपूर्ण वेबसाइटों को डाउनलोड करने के लिए एक उत्कृष्ट उपकरण बनाता है।

संबंधित: Google पुस्तकें से पुस्तकें कैसे डाउनलोड करें

Wget अधिकांश यूनिक्स-आधारित प्रणालियों के साथ बंडल में आता है। जबकि Wget का उपयोग आमतौर पर एकल फ़ाइलों को डाउनलोड करने के लिए किया जाता है, इसका उपयोग उन सभी पृष्ठों और फ़ाइलों को पुनरावर्ती रूप से डाउनलोड करने के लिए भी किया जा सकता है जो एक प्रारंभिक पृष्ठ के माध्यम से पाए जाते हैं:

 wget -r -p https://www.makeuseof.com

आकार के आधार पर, पूरी वेबसाइट को डाउनलोड होने में कुछ समय लग सकता है।

हालांकि, कुछ साइटें पता लगा सकती हैं और रोक सकती हैं कि आप क्या करने की कोशिश कर रहे हैं क्योंकि किसी वेबसाइट को रिप करने से उन्हें बहुत अधिक बैंडविड्थ खर्च हो सकता है। इसके आसपास जाने के लिए, आप उपयोगकर्ता एजेंट स्ट्रिंग के साथ स्वयं को वेब ब्राउज़र के रूप में प्रच्छन्न कर सकते हैं:

 wget -r -p -U Mozilla https://www.thegeekstuff.com

यदि आप विनम्र होना चाहते हैं, तो आपको अपनी डाउनलोड गति को भी सीमित करना चाहिए (ताकि आप वेब सर्वर की बैंडविड्थ को प्रभावित न करें) और प्रत्येक डाउनलोड के बीच रुकें (ताकि आप वेब सर्वर को बहुत अधिक अनुरोधों से अभिभूत न करें):

 wget -r -p -U Mozilla --wait=10 --limit-rate=35K https://www.thegeekstuff.com

मैक पर Wget का उपयोग कैसे करें

एक मैक पर, आप एक होमब्रे कमांड का उपयोग करके Wget स्थापित कर सकते हैं: brew install wget

  1. यदि आपके पास पहले से Homebrew स्थापित नहीं है, तो इसे इस कमांड से डाउनलोड करें:
     /usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"
  2. अगला, इस आदेश के साथ Wget स्थापित करें:
     brew install wget
  3. Wget इंस्टॉलेशन समाप्त होने के बाद, आप इस कमांड के साथ वेबसाइट डाउनलोड कर सकते हैं:
     wget path/to/local.copy http://www.brainpickings.org/

विंडोज़ पर, आपको इसके बजाय इस पोर्टेड संस्करण का उपयोग करना होगा। ऐप डाउनलोड और इंस्टॉल करें, और साइट डाउनलोड को पूरा करने के लिए निर्देशों का पालन करें।

आसानी से पूरी वेबसाइट डाउनलोड करें

अब जब आप जानते हैं कि पूरी वेबसाइट को कैसे डाउनलोड किया जाता है, तो आपको कभी भी बिना कुछ पढ़े पकड़े नहीं जाना चाहिए, तब भी जब आपके पास इंटरनेट की सुविधा न हो। लेकिन याद रखें: साइट जितनी बड़ी होगी, डाउनलोड उतना ही बड़ा होगा। हम एमयूओ जैसी विशाल साइटों को डाउनलोड करने की अनुशंसा नहीं करते हैं क्योंकि हमारे द्वारा उपयोग की जाने वाली सभी मीडिया फ़ाइलों को संग्रहीत करने के लिए आपको हजारों एमबी की आवश्यकता होगी।