PHP实现爬虫依赖cURL和DOM解析,通过发送HTTP请求获取HTML并提取数据。1. 使用cURL设置User-Agent等头部模拟浏览器;2. 利用DOMDocument与XPath解析内容,避免正则匹配错误;3. 注意乱码、JS渲染、IP封禁等问题,合理设置超时与延迟;4. 适合小规模采集,可结合cron定时运行,但大规模场景推荐Python。

PHP 实现爬虫主要依赖于网络请求库和 HTML 解析工具。虽然 PHP 不是爬虫的主流语言(相比 Python),但在某些场景下,比如已有 PHP 项目需要集成数据抓取功能时,使用 PHP 写爬虫依然可行且高效。
一、基础原理:PHP 爬虫如何工作
爬虫本质是模拟浏览器行为,向目标网址发送 HTTP 请求,获取返回的 HTML 内容,再从中提取所需数据。PHP 可通过以下步骤实现:
- 使用 file_get_contents() 或 cURL 发起请求
- 处理响应内容(HTML 源码)
- 利用 DOMDocument 或 正则表达式 提取数据
- 可选:将数据保存到数据库或文件
二、使用 cURL 获取网页内容
cURL 是更灵活的请求方式,支持设置 User-Agent、Cookie、超时等参数,避免被反爬机制拦截。
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, "https://example.com");
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
curl_setopt($ch, CURLOPT_USERAGENT, 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36');
curl_setopt($ch, CURLOPT_TIMEOUT, 10);
curl_setopt($ch, CURLOPT_FOLLOWLOCATION, true);
$html = curl_exec($ch);
if (curl_error($ch)) {
die('cURL error: ' . curl_error($ch));
}
curl_close($ch);
注意:设置 User-Agent 非常重要,很多网站会屏蔽默认的 PHP 请求头。
立即学习“PHP免费学习笔记(深入)”;
三、解析 HTML 提取数据
直接用正则匹配 HTML 容易出错,推荐使用 DOM 解析器。
$dom = new DOMDocument();
libxml_use_internal_errors(true); // 忽略 HTML 格式错误
$dom->loadHTML($html);
$xpath = new DOMXPath($dom);
$nodes = $xpath->query('//h2[@class="title"]/a'); // 示例:提取标题链接
foreach ($nodes as $node) {
echo $node->nodeValue . " -> " . $node->getAttribute('href') . "\n";
}
使用 XPath 能精准定位元素,适合结构清晰的页面。
四、调试与避坑技巧
编写 PHP 爬虫时常见问题及应对方法:
- 乱码问题:确保 HTML 编码一致,可用 mb_convert_encoding() 转码
- JS 渲染内容:PHP 无法执行 JavaScript,动态加载数据需分析接口(如 AJAX 请求)
- IP 被封:控制请求频率,加入 sleep(1) 延迟,或使用代理 IP
- 反爬机制:携带 Cookie 登录态、Referer、X-Requested-With 等头部
- 超时设置:始终设置 CURLOPT_TIMEOUT,防止脚本卡死
测试时可先在小范围 URL 上运行,确认逻辑正确后再批量抓取。
基本上就这些。PHP 写爬虫不复杂但容易忽略细节,关键是稳定获取内容并合理解析。结合 cron 定时任务,还能实现自动采集。不过对于大规模、高频率的爬取,建议还是用 Python + Scrapy 更合适。











