嘟嘟社区

还有类似这种在线爬站的网站吗?


http://wget.oiweb.cn/
  1. 在 Linux 下,通过一个命令就可以把整个站相关的文件全部下载下来。
  2. wget -r -p -k -np
  3. 参数说明:
  4. -r: 递归下载
  5. -p: 下载所有用于显示 HTML 页面的图片之类的元素
  6. -k: 在转换文件 X 前先将它备份为 X.orig 。
  7. -np: 不追溯至父目录
  8. wget -r -np -nd http://example.com/
  9. 这条命令可以下载 http://example.com 网站根目录中的所有文件。其中,-np 的作用是不遍历父目录,-nd 表示不在本机重新创建目录结构。
  10. wget -m -k (-H) http://www.example.com/
  11. 该命令可用来镜像一个网站,wget 将对链接进行转换。如果网站中的图像是放在另外的站点,那么可以使用 -H 选项。

复制代码

这个看着不错
挺牛逼啊
本站是利用wget来扒站的,所以点击提交任务一直转圈是正常现象。
稍微等一会,就会收到扒站成功的提示,如果没有很久很久没有提示,再刷新页面。如果长时间无法使用联系客服 服务器不堪重负,无法承受扒站的运行了,要使用的话加群自己下载源码搭建吧,

他这不是说了,加群就行。

不错,就是服务器比较贵