
本文旨在指导如何使用scrapy框架高效地从网页中抓取特定
标签内容。我们将探讨如何利用xpath表达式精准定位并提取所有目标
标签,并通过python的字符串连接方法,将这些分散的文本内容整合为一个单一字段,以便于数据存储和后续处理,解决仅保存最后一个
标签的问题。
在进行网页抓取时,经常会遇到页面内容结构不尽相同的情况。例如,一个特定的
标签,有些页面只有一个,而另一些则有十个甚至更多。这种动态性给数据提取带来了挑战:如何确保所有
标签的内容都被正确抓取,并将其整合到一个单一的变量中,以便于后续的数据存储(如导出到CSV文件)?
常见的误区是,在循环中迭代提取每个
标签的内容并尝试将其赋给同一个变量,这通常会导致最终只保存了循环中的最后一个元素。本文将详细介绍如何使用Scrapy和XPath,结合Python的字符串处理能力,优雅地解决这一问题。
假设我们目标抓取的网页具有如下的HTML结构,其中
标签,其数量和内容是可变的:
<div class="div_name">
<h2 class="h5">title text</h2>
<p> </p>
<p>这是第一段文本...</p>
<p>这是第二段文本...</p>
<p> </p>
<p><br>这是第三段文本...</p>
<p> </p>
<p><br>这是第四段文本...</p>
<p> </p>
<p><br>这是第五段文本...</p>
<p> </p>
<p><br>这是第六段文本...</p>
<p> </p>
<p>这是第七段文本...</p>
<div class="aritcle_card">
<a class="aritcle_card_img" href="/ai/1608">
<img src="https://img.php.cn/upload/ai_manual/000/969/633/68b6dabc23ed9458.png" alt="Procys">
</a>
<div class="aritcle_card_info">
<a href="/ai/1608">Procys</a>
<p>AI驱动的发票数据处理</p>
<div class="">
<img src="/static/images/card_xiazai.png" alt="Procys">
<span>102</span>
</div>
</div>
<a href="/ai/1608" class="aritcle_card_btn">
<span>查看详情</span>
<img src="/static/images/cardxiayige-3.png" alt="Procys">
</a>
</div>
<p> </p>
<p><br>这是第八段文本...</p>
<p> </p>
<p><br>这是第九段文本...</p>
<p> </p>
<p><br>这是第十段文本...</p>
<p>这是第十一段文本...</p>
<p>这是第十二段文本...</p>
</div>我们的目标是从这个div_name中提取所有
标签内的纯文本内容,并将它们合并成一个长字符串。
Scrapy框架提供了强大的选择器工具,其中XPath是进行元素定位和数据提取的核心。response.xpath()方法允许我们使用XPath表达式来查询HTML或XML文档中的节点。
面对不定数量的
标签,关键在于如何一次性获取所有目标元素,并将其文本内容有效连接。
初学者可能尝试使用循环迭代,并将每次迭代的结果赋值给同一个变量,如下所示:
# 假设 divs 是指向目标 <div class="div_name"> 的选择器
divs = response.xpath('/html/body/div[6]/div/section[2]/article/div/div/div')
story = "" # 初始化变量
for p_tag_selector in divs.xpath('.//p'):
# p_tag_selector.get() 会返回 <p>...</p> 完整的HTML标签
# 如果想获取纯文本,需要进一步处理,例如 p_tag_selector.xpath('normalize-space(.)').get()
text_content = p_tag_selector.xpath('normalize-space(.)').get()
if text_content:
story = text_content # 错误:每次循环都会覆盖前一次的值
yield {
'story': story # 最终只会存储最后一个 <p> 标签的内容
}这段代码的问题在于 story = text_content 这一行。在每次循环中,story 变量都会被当前
标签的文本内容所覆盖,导致最终 yield 的 story 字段只包含最后一个
标签的内容。
正确的做法是先将所有目标
标签的文本内容收集到一个列表中,然后再将列表中的所有字符串元素连接成一个单一的字符串。
import scrapy
class ParagraphScraper(scrapy.Spider):
name = 'paragraph_scraper'
start_urls = ['http://example.com/your_target_page'] # 替换为实际的网页URL
def parse(self, response):
# 1. 使用XPath选择所有目标 <p> 标签
# 注意:原始问题中的XPath '/html/body/div[6]/div/section[2]/article/div/div/div'
# 非常具体且脆弱,强烈建议根据实际页面结构优化,例如使用类名:
# target_div_xpath = '//div[@class="div_name"]'
# p_selectors = response.xpath(f'{target_div_xpath}//p')
# 这里沿用问题中提供的XPath作为示例,但请在实际项目中进行验证和优化
p_selectors = response.xpath('/html/body/div[6]/div/section[2]/article/div/div/div//p')
# 2. 提取每个 <p> 标签的纯文本内容,并进行规范化处理
# 使用列表推导式高效地完成这一步骤
# normalize-space(.) 可以获取元素内部的所有文本内容,并规范化空格
# 过滤掉可能为空的文本(如 <p> </p> 或只包含 <br> 的 p 标签)
story_parts = [
p_selector.xpath('normalize-space(.)').get()
for p_selector in p_selectors
]
story_parts = [part for part in story_parts if part and part.strip()] # 确保非空且非全空白
# 3. 使用空格将所有文本部分连接成一个单一的字符串
# ' '.join(list_of_strings) 是 Python 中连接字符串的常用且高效的方法
story_combined = ' '.join(story_parts)
# 4. 将整合后的数据通过 yield 返回
yield {
'story': story_combined,
# 可以根据需要添加其他字段
}以上就是使用Scrapy高效抓取并整合Div内不定数量P标签文本的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号