[服务器技术] 整站下载器,一个wget命令就搞定了!

0
回复
151
查看
[复制链接]
  • TA的每日心情
    郁闷
    2024-4-24 14:15
  • 签到天数: 108 天

    [LV.6]常住居民II

    2356

    主题

    2361

    帖子

    0

    积分

    管理员

    Rank: 9Rank: 9Rank: 9

    积分
    0
    发表于 2022-7-23 17:43:38 | 显示全部楼层 |阅读模式
    到处找整站下载器?何必那么麻烦,一个wget命令就搞定了!

    或是想克隆扒皮别人的网站,或是想保持别人网站的内容保存下来离线浏览,这是我们一般都是百度搜索各种整站下载软件,挨个尝试哪个好用;

    但是如果你会使用linux系统,真的没必要那么麻烦的,直接用wget一个简单的命令就可以轻松的完成整站下载任务,如果是在远程服务器上运行下载速度会非常快;

    wget通常我们用来下载文件用的普通工具而已,其实只要添加参数就能够迅速完成网站克隆下载任务了;

    Wget整站下载命令:
    wget -r -p -np -k www.hkchf.com

    执行完该命令后,会在当前路径下生成一个www.hkchf.com的文件夹,所有文件全部都会下载到这个目录之中;

    Wget参数说明:
    -r –recursive(递归) specify recursive download.(指定递归下载)
    -k –convert-links(转换链接) make links in downloaded HTML point to local files.(将下载的HTML页面中的链接转换为相对链接即本地链接)
    -p –page-requisites(页面必需元素) get all images, etc. needed to display HTML page.(下载所有的图片等页面显示所需的内容)
    -np –no-parent(不追溯至父级) don’t ascend to the parent directory.

    额外参数:

    -nc 断点续传
    -o 生成日志文件

    就是这么简单,就是粗暴,就是这么有效,想扒皮仿站的站长们来测试一下下吧!

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则