经常看到一些很漂亮的网站,想把他的前端下载下来研究研究,以前用过一款软件可以把网站所有 css、img、js 所有元素下载到同一目录或者网站原有目录。。
有啥其他好用的软件吗?
1
paloalto 2018-05-26 12:38:27 +08:00
浏览器一般都有个「 Save as 」的功能,好像也叫「右键另存为」。
另外,只是学习代码的话,其实不用存到本地,chrome 浏览器的 developers tools 功能更强大一些。 |
2
yukiww233 2018-05-26 12:55:05 +08:00
整站下载的话 httrack
很好用 而且还在更新 |
3
May725 2018-05-26 13:16:29 +08:00 via iPhone
浏览器直接 ctrl+s
|
4
BFDZ 2018-05-26 13:39:55 +08:00 via Android
windows 用 IDM
linux 用 wget |
5
iConnect 2018-05-26 15:44:04 +08:00 via Android
动态加载的网站,很难爬的,完全加载需要自己定制爬虫策略
|
6
loading 2018-05-26 15:46:43 +08:00
webzip,老牌子了。
|
7
Aug 2018-05-26 16:17:04 +08:00 via Android 2
linux 的 wget 了解一下,```wget -T 5 -t 10 -Q 500m -nH -r -E -l inf -k -p -np```一条命令搞定,静态网站适用,曾经试用过 windows 的各种软件,在预期内,没有比这个好的。希望能帮到你,`号内的是命令。
|
9
429463267 2018-05-26 19:18:20 +08:00 via Android
wget 工具,我用了很久,镜像网站的神器,支持 win、linux,非常强大。。。
|
10
alvin666 2018-05-26 20:52:40 +08:00 via Android
win httrack,二楼也推荐的,之前校内论坛被领导搞了,花了几天把除了图片的东西拖了下来,专业的下载全站的软件,能设置的地方很多,比如断点续传,链接深度,下载附件类型,附件大小过滤等等,太好用了
|
11
Pyjamas 2018-05-26 20:53:36 +08:00
貌似是 wget --mirror -k
|
12
cy97cool 2018-05-26 21:02:03 +08:00
借楼同问有没有 chrome headless 保存单个页面
最好直接跑个 Docker 容器,传入 URL、cookie,和访问规则(例如以多快的速度滚动鼠标到页面底部,点击哪些按钮),传出一个 zip 包 换个说法 印象笔记的剪藏扩展可不可以自动化调用 如果有的话保存知乎等网站就方便多了 |
13
PerFectTime 2018-05-27 00:04:58 +08:00 1
Offline Explorer 了解一下
|
14
xftsoft 2020-07-12 11:23:43 +08:00
小飞兔整站下载了解下
|