मैक के लिए सफारी के साथ वेबपेज आर्काइव कैसे डाउनलोड करें
विषयसूची:
क्या आप कभी भी किसी विशेष वेब पेज को किसी भी कारण से संग्रह के रूप में डाउनलोड और सहेजना चाहते हैं? हो सकता है कि यह एक पुराना सरल व्यक्तिगत होम पेज हो जिसे आप रखना चाहते हैं, या शायद आप किसी विशेष वेबसाइट का संग्रह या किसी अन्य ऑफ़लाइन उपयोग के लिए वेब पेजों का संग्रह चाहते हैं। Mac OS के लिए Safari, वेब आर्काइव नामक किसी चीज़ के रूप में वेबपृष्ठों को डाउनलोड करने और सहेजने का एक सरल तरीका प्रदान करता है, जो किसी दिए गए वेब पेज की स्व-निहित छोटी संग्रह फ़ाइलें हैं जिन्हें स्थानीय रूप से एक्सेस किया जा सकता है।
जब आप एक स्थानीय मैक में सफारी में वेब संग्रह के रूप में एक वेब पेज सहेजते हैं, तो सभी वेबपेज टेक्स्ट, आलेख सामग्री, छवियां, स्टाइल शीट और अन्य वेब सामग्री उस वेब संग्रह में रखी जाएगी फ़ाइल। वह फ़ाइल मैक पर स्थानीय रूप से खोली जा सकती है भले ही ऑनलाइन न हो, हालांकि वेब पेज में शामिल लिंक अभी भी मूल स्रोत यूआरएल का संदर्भ देंगे और इस प्रकार उन लिंक का पालन करने के लिए अभी भी ऑनलाइन पहुंच की आवश्यकता होगी, जैसा कि फॉर्म में पोस्ट करना और अन्य कार्य करना होगा जिसके लिए इंटरनेट एक्सेस की आवश्यकता होती है।
और यदि आप सोच रहे थे, तो यह किसी वेबसाइट या वेब सर्वर का बैकअप लेने का पर्याप्त साधन नहीं है, जो एक बहुत अधिक जटिल प्रक्रिया है क्योंकि लगभग सभी आधुनिक वेबसाइटों में कई बैकएंड घटक, कोड, डेटाबेस होते हैं , स्क्रिप्ट और अन्य जानकारी जो इस साधारण वेब संग्रह निर्माण के माध्यम से पुनर्प्राप्त नहीं की जाएगी।
कैसे मैक पर सफारी में एक वेब संग्रह के रूप में एक वेब पेज को बचाने के लिए
- मैक पर सफारी लॉन्च करें यदि आपने पहले से ऐसा नहीं किया है
- वह वेबपृष्ठ खोलें जिसे आप ऑफ़लाइन उपयोग और एक्सेस के लिए डाउनलोड करना चाहते हैं, उदाहरण के लिए यह वर्तमान पृष्ठ
- सफ़ारी में "फ़ाइल" मेनू पर जाएं और "इस रूप में सहेजें" चुनें
- "प्रारूप" पुलडाउन चुनें और "वेब संग्रह" चुनें, फिर वांछित स्थान पर वेब पेज संग्रह को सहेजना चुनें
वेबपेज अब एक .webarchive फ़ाइल के रूप में सहेजा जाएगा जो सफारी में खुलेगी, यह एक स्व-युक्त फ़ाइल है जो वेबपेज डेटा, पाठ, सामग्री, छवियों, स्टाइल शीट और अन्य घटकों को धारण करेगी वेब पेज का।
फाइंडर से अब आप अपने द्वारा बनाई और सहेजी गई .webarchive फ़ाइल का पता लगा सकते हैं, और इसे सीधे सफारी में खोल सकते हैं।आप URL बार में देखेंगे कि वेबपेज किसी दूरस्थ सर्वर के बजाय स्थानीय फ़ाइल सिस्टम से पढ़ा जा रहा है, जैसे कि “file:///Users/USERNAME/Desktop/SavedWebPage.webarchive”
वेबपृष्ठ संग्रह अक्सर कई मेगाबाइट आकार के होते हैं, हालांकि कभी-कभी वे सहेजे जा रहे वेब पेज के आधार पर छोटे या बहुत बड़े हो सकते हैं।
ध्यान दें कि यह संपूर्ण वेब साइट का बैकअप लेने का समाधान नहीं है यदि आप इसके लिए संपूर्ण वेबपेज या वेबसाइट और संबंधित निर्देशिका पुनर्प्राप्त करना चाहते हैं बैकअप उद्देश्यों के लिए, सबसे अच्छा तरीका यह होगा कि SFTP के माध्यम से उपयुक्त वेब सर्वर में लॉगिन करें और सभी वेब फ़ाइलों को सीधे डाउनलोड करें। यदि आप नहीं जानते कि यह कैसे करना है, तो अपने वेब होस्टिंग प्रदाता से संपर्क करें। अगला सबसे अच्छा होगा कि किसी साइट या इसी तरह के टूल को मिरर करने के लिए wget का उपयोग किया जाए, हालांकि wget और curl स्क्रिप्ट, डेटाबेस और न ही बैकएंड जानकारी डाउनलोड नहीं करेंगे।
यह कुछ वेब पेजों का एक स्थानीय वेब संग्रह बनाने का एक दिलचस्प तरीका प्रदान कर सकता है, लेकिन यह वेबपेजों को ऑफ़लाइन पढ़ने और देखने का एकमात्र तरीका नहीं है। मैक और आईओएस के लिए सफारी में पठन सूची सुविधा भी वेबपृष्ठों और लेखों को ऑफ़लाइन देखने की अनुमति देती है, और आप मैक पर पीडीएफ में प्रिंट का उपयोग कर सकते हैं या वेबपेजों को आईओएस में आईबुक्स में सहेज सकते हैं, या आईपैड या आईफोन पर पीडीएफ के रूप में सहेजें का भी उपयोग कर सकते हैं। सफारी में देखे गए किसी भी वेबपेज से समान कार्य पूरा करें।
यह ध्यान देने योग्य है कि यदि आप विज्ञापन के बिना वेब पेज को प्रिंट करने के लिए इस ट्रिक का उपयोग कर सकते हैं लेकिन प्रिंट करना बंद कर सकते हैं, और यदि आप वेबसाइट के सरलीकृत संस्करण को सहेजना चाहते हैं तो बस रीडर व्यू से बचा सकते हैं प्रश्न में भी।