189 8069 5689

爬虫数据如何给php使用 爬虫lxml

如何用php 编写网络爬虫

php不太适合用来写网络爬虫,因为几乎没有现成的框架,或者成熟的下载机制,也不太适合做并发处理.

站在用户的角度思考问题,与客户深入沟通,找到沛县网站设计与沛县网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:成都做网站、成都网站建设、企业官网、英文网站、手机端网站、网站推广、国际域名空间、虚拟空间、企业邮箱。业务覆盖沛县地区。

下载页面的话除了一个curl,就是file_get_contents,或者curl_multi来做并发请求.curl可以代理端口,虚假ip,带cookie,带header请求目标页面,下载完成之后解析页面可以用queryList来解析html.写法类似jQuery.

提供给你我之前写的类:curl.php  希望可以帮到你.

QueryList.php和phpQuery.php由于文件太大了,没办法贴上来

?php

class Http {

public function curlRequest($url, $postData = '', $timeOut = 10, $httpHeader = array()) {

$handle = curl_init ();

curl_setopt ( $handle, CURLOPT_URL, $url );

if ($httpHeader) {

curl_setopt($handle, CURLOPT_HTTPHEADER, $httpHeader);

}

curl_setopt ( $handle, CURLOPT_RETURNTRANSFER, true );

curl_setopt ( $handle, CURLOPT_HEADER, 0 );                                                                curl_setopt ( $handle, CURLOPT_TIMEOUT, $timeOut );

curl_setopt ( $handle, CURLOPT_FOLLOWLOCATION, 1 );

curl_setopt ( $handle, CURLOPT_SSL_VERIFYPEER, false );

curl_setopt ( $handle, CURLOPT_SSL_VERIFYHOST, false );

curl_setopt ( $handle, CURLOPT_USERAGENT, 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36');        curl_setopt ( $handle, CURLOPT_ENCODING, 'gzip,deflate,sdch');

if (! empty ( $postData )) {

curl_setopt ( $handle, CURLOPT_POST, 1 );

curl_setopt ( $handle, CURLOPT_POSTFIELDS, $postData);

}

$result['response'] = curl_exec ( $handle );

$result['httpStatus'] = curl_getinfo ( $handle, CURLINFO_HTTP_CODE );

$result['fullInfo'] = curl_getinfo ( $handle );

$result['errorMsg'] = '';

$result['errorNo'] = 0;

if (curl_errno($handle)) {

$result['errorMsg'] = curl_error($handle);

$result['errorNo'] = curl_errno($handle);

}

curl_close ( $handle );

return $result;

}

}

?

如何用PHP做网络爬虫

其实用PHP来爬会非常方便,主要是PHP的正则表达式功能在搜集页面连接方面很方便,另外PHP的fopen、file_get_contents以及libcur的函数非常方便的下载网页内容。

具体处理方式就是建立就一个任务队列,往队列里面插入一些种子任务和可以开始爬行,爬行的过程就是循环的从队列里面提取一个URL,打开后获取连接插入队列中,进行相关的保存。队列可以使用数组实现。

当然PHP作为但线程的东西,慢慢爬还是可以,怕的就是有的URL打不开,会死在那里。

如何用php 编写网络爬虫?

pcntl_fork或者swoole_process实现多进程并发。按照每个网页抓取耗时500ms,开200个进程,可以实现每秒400个页面的抓取。

curl实现页面抓取,设置cookie可以实现模拟登录

simple_html_dom 实现页面的解析和DOM处理

如果想要模拟浏览器,可以使用casperJS。用swoole扩展封装一个服务接口给PHP层调用

在这里有一套爬虫系统就是基于上述技术方案实现的,每天会抓取几千万个页面。


新闻标题:爬虫数据如何给php使用 爬虫lxml
标题路径:http://jkwzsj.com/article/doigseh.html

其他资讯