发现某站的文件寄存 CDN 上,而且存储的比较有规律。
例如 musicX 文件夹下的文件:
http://cdn.baidu.com/musicX/01.img 或 http://cdn.baidu.com/musicX/1.img
http://cdn.baidu.com/musicX/02.img 或 http://cdn.baidu.com/musicX/2.img
……
http://cdn.baidu.com/musicX/20.img 或 http://cdn.baidu.com/musicX/20.img
(上述“ X ”代表 1-1000 的不同文件夹名称 images1 、 images2~images1000 )
现在我想在 php 网页输入框里输入或者选中下拉文件夹名,即可在网页上显示出相应文件夹下的所有的的文件名及路径,点击即可实现文件下载。
请大神赐教,不胜感激!
1
along 2015-10-03 12:00:06 +08:00 via Android
符合迅雷批量下载规则
|
2
zktz 2015-10-03 12:01:26 +08:00
最多 1000 个么
直接 for 循环啊 |
3
bdbai 2015-10-03 12:13:55 +08:00 via iPhone
curl 就行啦
|
5
aprikyblue 2015-10-03 12:35:54 +08:00
|
6
lincanbin 2015-10-03 12:39:19 +08:00
curl_multi
在 CLI 下做爬虫表现不错。 |
7
lhx2008 2015-10-03 12:41:56 +08:00 1
首先你说知道一个地址,就可以全自动递归所有子目录是不现实的
其次,每个网站规则不同, 必须要每个网站都写规则,那么用 PHP 意义已经不大了,实质上只是一个下载地址的 excel 而已,你用 execl 也可以生成 |
9
wkdhf233 2015-10-03 12:56:48 +08:00 1
主要还是一个文件是否存在的判断?
for 循环遍历可能的文件名,然后 curl -I ( shell 是这个命令, PHP 里大概是哪个 curl_setopt )判断下 HTTP 头,看遍历过去的文件存在不,存在就输出 也可以用 while ,加一个计数变量,如果 HTTP 头是 200 就清零, 404 的话就+1 ,超过一定值就跳出循环。这样就不用每次都去猜有多少文件了 PS :脑洞一开,如果保证文件绝对连续,可以 1 , 2 , 4 , 8 , 16 。。号文件依次获取过去,遇上 404 就尝试与上次尝试的文件中间的那个,比如 8 号是 200 , 16 是 404 ,就尝试( 8+16 )/2=12 号,还是 404 就尝试( 12+8 )/2=10 号文件,一旦取得了文件号的边界,一个 for 直接不判断的生成文件列表。 初中教的二分法。。 |
12
lizhiqing1996 2015-10-03 16:17:15 +08:00
听说 shell 都可以
|