使用php开发网络爬虫可通过file\_get\_contents()或curl获取网页内容,再结合domdocument和domxpath解析并提取dom结构中的数据。1.常用函数包括file\_get\_contents()用于获取网页源码、domdocument用于解析html、domxpath用于通过xpath表达式定位节点;2.提取数据时利用domxpath的query方法匹配目标节点,并通过循环读取内容;3.需注意编码问题、标签嵌套不规范、请求频率控制及相对路径处理等常见坑点;4.实战中可参考示例代码实现文章标题与链接的抓取,整个流程涵盖数据获取、解析与提取关键步骤。

网络爬虫用PHP开发其实并不复杂,尤其是针对DOM结构的数据抓取。只要掌握基本的函数和流程,就能快速实现数据采集功能。

一、PHP中常用的爬虫相关函数
PHP本身提供了几个非常实用的函数来处理HTML内容,最常用的是 file_get_contents() 和 DOMDocument 类。前者用于获取网页源码,后者则用来解析HTML结构。

-
file_get_contents():适合小规模页面抓取,简单高效 -
DOMDocument:能将HTML解析成结构化对象,便于后续操作 -
DOMXPath:配合 DOMDocument 使用,可以使用 XPath 表达式定位节点
需要注意的是,如果目标网站启用了防盗链或设置了访问限制,file_get_contents() 可能会失败。这时候可以用 cURL 替代,它支持设置请求头、User-Agent 等信息。
立即学习“PHP免费学习笔记(深入)”;
二、如何提取DOM中的目标数据
当你把HTML加载到 DOMDocument 后,下一步就是找到你想要的数据节点。这时推荐使用 DOMXPath,它的优势在于可以通过XPath表达式快速定位元素。

举个例子,如果你想提取某个文章列表页中的所有标题,通常这些标题会被包裹在 <h2></h2> 或者某个有特定 class 的 <div> 中。你可以这样写:<pre class='brush:php;toolbar:false;'>$xpath = new DOMXPath($dom);
$nodes = $xpath->query("//h2[@class='post-title']");
foreach ($nodes as $node) {
echo $node->nodeValue . "\n";
}</pre><p>这个方法的关键是写出准确的XPath路径。如果你不确定怎么写,可以在<a style="color:#f60; text-decoration:underline;" title="浏览器" href="https://www.php.cn/zt/16180.html" target="_blank">浏览器</a>开发者<a style="color:#f60; text-decoration:underline;" title="工具" href="https://www.php.cn/zt/16887.html" target="_blank">工具</a>中右键复制XPath,再稍作调整即可。</p><div class="aritcle_card flexRow">
<div class="artcardd flexRow">
<a class="aritcle_card_img" href="/ai/1547" title="Favird No-Code Tools"><img
src="https://img.php.cn/upload/ai_manual/000/969/633/68b7a0e82b449361.png" alt="Favird No-Code Tools" onerror="this.onerror='';this.src='/static/lhimages/moren/morentu.png'" ></a>
<div class="aritcle_card_info flexColumn">
<a href="/ai/1547" title="Favird No-Code Tools">Favird No-Code Tools</a>
<p>无代码工具的聚合器</p>
</div>
<a href="/ai/1547" title="Favird No-Code Tools" class="aritcle_card_btn flexRow flexcenter"><b></b><span>下载</span> </a>
</div>
</div>
<h3>三、避免常见坑点和注意事项</h3>
<p>在实际使用中,有几个容易出错的地方需要特别注意:</p>
<ul>
<li>
<strong>编码问题</strong>:有些网页不是UTF-8格式,直接输出可能会乱码,建议统一转码</li>
<li>
<strong>标签嵌套不规范</strong>:有些网页HTML结构混乱,可能导致DOM解析失败,建议先做清理或使用更宽容的解析器</li>
<li>
<strong>频率控制不当</strong>:频繁请求可能被封IP,最好加个 <code>sleep() 控制请求间隔
另外,一些网站做了反爬机制,比如检测User-Agent、验证码等。如果是简单的采集任务,可以尝试伪装成浏览器访问;如果是大规模采集,可能需要考虑用Selenium或者调用第三方API。
四、一个简单的实战示例
假设你要抓取某个博客首页的文章标题和链接,HTML结构如下:
<div class="posts">
<div class="post">
<h2><a href="/article1.html">文章标题1</a></h2>
</div>
<div class="post">
<h2><a href="/article2.html">文章标题2</a></h2>
</div>
</div>那你可以这样写代码:
$html = file_get_contents("http://example.com");
$dom = new DOMDocument();
@$dom->loadHTML($html); // 加@是为了忽略警告
$xpath = new DOMXPath($dom);
$titles = $xpath->query("//div[@class='posts']//h2/a");
foreach ($titles as $title) {
echo "标题:" . $title->nodeValue . "\n";
echo "链接:" . $title->getAttribute('href') . "\n";
}这段代码虽然简单,但已经涵盖了从获取网页、解析DOM到提取数据的基本流程。
基本上就这些。掌握这几个关键点,你就可以用PHP轻松实现大部分DOM数据抓取任务了。










