معرفی روش‌های بک‌آپ گرفتن از Documentation ها و Tutorial ها برای استفاده آفلاین در صورت قطع اینترنت

سلام، پارسال که اینترنت قطع شد یکی از بزرگترین مشکلاتم عدم دسترسی به داکیومنت‌ها و آموزش‌هایی بود که استفاده می‌کردم، الآن متاسفانه جایی که من هستم درگیری به وجود اومده و اینترنت موبایل قطع شده و هر لحظه این احتمال وجود داره که اینترنت ثابت هم قطع بشه، توی این پست چند روش برای دانلود و نگهداری داکیومنت‌ها و آموزش‌ها رو بهتون معرفی می‌کنم که اگر احساس کردین بوی قطعی اینترنت میاد بتونید ازشون استفاده کنید.


دانلود Documentation ها:

استفاده از نرم‌افزار Zeal:

آدرس: https://zealdocs.org
اگر روی یه توضیع بر پایه Debian هستین باید بتونید با apt هم نصب کنید:

sudo apt install zeal

توی این نرم‌افزار خیلی راحت می‌تونید داکیومنت زبان‌ها یا لایبرری‌های مختلف رو انتخاب کنید تا براتون دانلود بشه، داکیومنت‌ها رو از سایت اصلی خود اون زبان یا library دانلود می‌کنه و به همون شکل بهتون نشون میده.
تصویر از محیط فعلی برنامه:


تنها عیبش اینه که از لایبرری‌ها زیاد پشتیبانی نمی‌کنه، مثلا من داکیومنت PyTorch رو میخواستم توی لیستش نبود.

استفاده از HTTrack برای کپی کردن وبسایت:

آدرس: https://www.httrack.com
با این روش می‌تونید هر سایتی رو که می‌خواین کپی کنید ولی طبیعتا به راحتی استفاده از یه برنامه مثل zeal نیست.
نصب روی توضیع‌های بر پایه Debian:

sudo apt install httrack webhttrack

برای استفاده از این برنامه سه راه دارین:

  1. نصب GUI روی ویندوز که فکر کنم روی گنو + لینوکس در دسترس نیست.
  2. استفاده از httrack، توی ترمینال دستور httrack رو بزنید خودش راهنماییتون میکنه ازتون اسم پروژه و محل ذخیره‌کردن و آدرس رو می‌خواد، بعدش ازتون برای Action سوال می‌پرسه که شما 2 رو وارد می‌کنید که همون Mirror website with wizard هستش.
  3. استفاده از webhttrack، توی ترمینال webhttrack رو وارد کنید، توی مرورگر یه صفحه روی localhost براتون باز می‌کنه و توی یه محیط گرافیکی همون مراحلی که توی httrack پیش می‌رفتین رو میتونید پیش برین و یه سایت رو کپی کنید.

نکته خیلی مهم برای استفاده از httrack مشخص کردن recurse level هستش، به این صورت که اگه لول 1 باشه فقط همون آدرسی که دادین کپی می‌شه، اگه 2 بدین اون آدرس و تمام صفحاتی که توی همون دامنه هستن و از صفحه‌ای که شما آدرسش رو دادین بهش لینک شده کپی می‌شه. طبیعتا recurse level رو هرچی بالاتر بزنید مدت زمان و حجم دیتای کپی شده تساعدی بالا میره.
حواستون باشه که ممکنه فایل‌هایی که نمی‌خواین هم به این روش کپی بشه و حجم و زمان زیادی از شما بگیره مثلا من داکیومنت Python رو می‌خواستم کپی کنم و خود نسخه‌های پایتون‌هم داشت دانلود می‌شد، برای حل این مشکل طبق راهنمای خودش میتونید wildcard تعریف کنید، میتونید بگید فقط فایل‌های با این pattern رو دانلود کن یا می‌تونید بگید فایل‌های با این pattern خاص رو دانلود نکن.

استفاده از افزونه SingleFile برای Chrome، Chromium و Firefox:

آدرس: https://github.com/gildas-lormeau/SingleFile
استفاده ازش خیلی راحته، روش کلیک کنید کل اون صفحه رو دانلود می‌کنه و یه فایل بهتون میده حتی عکس‌ها و … رو هم داخل html به صورت base64 قرار می‌ده، تنها بدیش اینه که فقط برای یک صفحه کار می‌کنه و اگه چند تا صفحه رو باهاش دانلود کنید لینک صفحات به هم دیگه برقرار نیست!


دانلود آموزش‌های ویدیویی از YouTube و سایت‌های مشابه با استفاده از youtube-dl:

آدرس: https://youtube-dl.org
این همون پکیجیه که چند وقت پیش گیت‌هاب حذفش کرد بعدش با حمایت EFF و خود گیت‌هاب دوباره برگشت و گیت‌هاب برای حمایت از Developer ها هم بعد این قضیه یه مبلغی رو کنار گذاشته تا ازشون حمایت قانونی کنه.
روی ریپازیتوری بیشتر distro ها موجوده، ولی من خودم با pip نصبش می‌کنم.

pip install --user youtube-dl

برای دانلود خیلی راحت توی ترمینال میزنید youtube-dl و بعد آدرس مورد نظرتون، اینجوری ویدیو مورد نظر با بالاترین کیفیت ممکن دانلود می‌شه، برای انتخاب کیفیت یا دانلود زیرنویس‌های موجود و کلی قابلیت دیگه داکیومنتش رو بخونید یا دستور زیر رو بزنید:

youtube-dl --help

حواستون باشه که این برنامه فقط برای YouTube نیست و کلی سایت دیگه رو هم پشتیبانی می‌کنه لیست کامل سایت‌های پشتیبانی شده رو می‌تونید از اینجا ببینید: https://github.com/ytdl-org/youtube-dl/blob/master/docs/supportedsites.md

6 Likes