首页 > 技术资料 > php相关 >

thinkphp 抓取网站的内容并且保存到本地的实例详解

金聪采编分享 2106

thinkphp 抓取网站的内容并且保存到本地的实例详解

我需要写这么一个例子,到电子课本网下载一本电子书。

电子课本网的电子书,是把书的每一页当成一个图片,然后一本书就是有很多张图片,我需要批量的进行下载图片操作。

下面是代码部分:

 public function download() {    $http = new /Org/Net/Http();    $url_pref = "http://www.dzkbw.com/books/rjb/dili/xc7s/";    $localUrl = "Public/bookcover/";    $reg="|showImg/('(.+)'/);|";    $i=1;        do {      $filename = substr("000".$i,-3).".htm";      $ch = curl_init();      curl_setopt($ch, CURLOPT_URL, $url_pref.$filename);      curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);      curl_setopt($ch, CURLOPT_CONNECTTIMEOUT, 10);      curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1);      $html = curl_exec($ch);      curl_close($ch);            $result = preg_match_all($reg,$html,$out, PREG_PATTERN_ORDER);      if($result==1) {        $picUrl = $out[1][0];        $picFilename = substr("000".$i,-3).".jpg";        $http->curlDownload($picUrl, $localUrl.$picFilename);      }      $i = $i+1;    } while ($result==1);    echo "下载完成";  }

我这里是以人教版地理七年级地理上册为例子 http://www.dzkbw.com/books/rjb/dili/xc7s/001.htm

网页是从001.htm开始,然后数字一直加

每个网页里面都有一张图,就是对应课本的内容,以图片的形式展示课本内容

我的代码是做了一个循环,从第一页开始抓,一直抓到找不到网页里的图片为止

抓到网页的内容后,把网页里面的图片抓取到本地服务器

抓取后的实际效果:

以上就是thinkphp 抓取网站的内容并且保存到本地的实例详解,如有疑问请留言或者到本站社区交流讨论,感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!

相关推荐

词霸天下38000词汇速记全集(完全版)

福利经验

教育培训机构30条朋友圈招生实用文案,赶快收藏

商业模式

凹凸社区APP源码蜜桃社区源码+视频搭建教程

管理系统

最新X站自动采集网站源码,久草影视系统源码PHP视频网站程序

管理系统

免费QQ在线查绑(旧公库)源码引流必备源码

管理系统

热门图文

上一篇:Yii2.0小部件GridView(两表联查/搜索/分页)功能的实现代码

下一篇:php实现简单的权限管理的示例代码