0

0

不会写代码 用DeepSeek实现爬虫

星夢妙者

星夢妙者

发布时间:2025-11-03 09:35:01

|

704人浏览过

|

来源于php中文网

原创

我们以抓取博客内容为例,为大家展示如何操作。

#抓取标题与链接#

使用Python获取我的博客中所有文章的标题及其对应链接。(需翻页处理,各页面URL规律如下:第二页为https://www.php.cn/link/2c2c5fd01b61e3e0e687573af8f7e1fa/page/2/,第三页为 https://www.php.cn/link/649f7e2bf4d7efb62d56f6090cf943eb https://www.php.cn/link/9191b0a3b4c41e6732dbb644bd52d6fc 将最终结果导出为csv文件。文章标题的HTML结构示例如下:

    

Homeassistant界面美化

HAPPY TEACHER'S DAY

狼群淘客 免费开源淘宝客程序
狼群淘客 免费开源淘宝客程序

狼群淘客系统基于canphp框架进行开发,MVC结构、数据库碎片式缓存机制,使网站支持更大的负载量,结合淘宝开放平台API实现的一个淘宝客购物导航系统采用php+mysql实现,任何人都可以免费下载使用 。狼群淘客的任何代码都是不加密的,你不用担心会有任何写死的PID,不用担心你的劳动成果被窃取。

下载

不会写代码 用DeepSeek实现爬虫可以看到,讲解非常详细。

运行生成的代码,效果如下:

不会写代码 用DeepSeek实现爬虫接下来,我们尝试更复杂一点的任务:提取每篇文章的阅读次数、评论数量以及发布时间。

不会写代码 用DeepSeek实现爬虫新建对话内容如下:

#抓取文章阅读量、评论数、发布日期#

很好,之前的代码已经成功获取了博客的所有标题和链接。现在我需要你进入每一篇文章的具体页面,提取其阅读量、评论数和发布时间。相关HTML代码结构如下:

HAPPY TEACHER'S DAY

不会写代码 用DeepSeek实现爬虫不会写代码 用DeepSeek实现爬虫实际运行效果

不会写代码 用DeepSeek实现爬虫完整代码如下

import requests
from bs4 import BeautifulSoup
import csv
import re
import time

def get_post_details(url, headers): try: response = requests.get(url, headers=headers) response.raise_for_status() except Exception as e: print(f"获取文章详情失败:{url},错误:{str(e)}") return None, None, None

soup = BeautifulSoup(response.text, 'html.parser')

提取发布时间

dateli = soup.find('li', class='meta-date') post_date = date_li.find('time').text.strip() if date_li else ''

提取阅读量

viewsli = soup.find('li', class='meta-views') views = 0 if views_li: views_text = viewsli.find('span', class='meta-value').text match = re.search(r'(\d+)', views_text.replace(' ', ' ')) views = match.group(1) if match else 0

提取评论数

commentsli = soup.find('li', class='meta-comments') comments = 0 if comments_li: comments_tag = commentsli.find('a', class='meta-value') or commentsli.find('span', class='meta-value') if comments_tag: match = re.search(r'(\d+)', comments_tag.text) comments = match.group(1) if match else 0

return post_date, views, comments

def get_all_posts(): base_url = "https://www.php.cn/link/2c2c5fd01b61e3e0e687573af8f7e1fa" headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' }

all_data = [] page_num = 1

while True:

构造分页链接

   url = f"{base_url}/page/{page_num}/" if page_num > 1 else base_url

   try:
       response = requests.get(url, headers=headers)
       response.raise_for_status()
   except Exception as e:
       print(f"停止在第 {page_num} 页,错误:{str(e)}")
       break

   soup = BeautifulSoup(response.text, 'html.parser')
   posts = soup.find_all('div', class_='post_title_wrapper')

   if not posts:
       break

   for post in posts:
       h2_tag = post.find('h2', class_='index-post-title')
       if not h2_tag:
           continue

       a_tag = h2_tag.find('a')
       if a_tag and a_tag.has_attr('href'):
           title = a_tag.text.strip()
           link = a_tag['href']

           # 获取文章详细信息
           post_date, views, comments = get_post_details(link, headers)

           # 汇总数据
           all_data.append([
               title,
               link,
               post_date,
               views,
               comments
           ])

           # 添加请求间隔,避免对服务器造成压力
           time.sleep(0.5)

   print(f"已处理第 {page_num} 页,累计文章数:{len(all_data)}")
   page_num += 1

写入CSV文件

with open('blog_posts_full.csv', 'w', newline='', encoding='utf-8-sig') as f: writer = csv.writer(f) writer.writerow(['标题', '链接', '发布日期', '阅读量', '评论数']) writer.writerows(all_data)

return len(all_data)

if name == "main": count = get_all_posts() print(f"完整数据已保存到 blog_posts_full.csv,总计 {count} 篇文章")

示例输出

""" 已处理第 1 页,累计文章数:10 已处理第 2 页,累计文章数:20 ... 完整数据已保存到 blog_posts_full.csv,总计 56 篇文章 """

总结:

借助DeepSeek,我们可以轻松生成所需的爬虫代码。当然,前提是我们必须清晰准确地描述需求!

相关文章

AI工具
AI工具

AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型,支持联网搜索。

下载

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

773

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

684

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

766

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

719

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1425

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

570

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

579

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

751

2023.08.11

c++ 根号
c++ 根号

本专题整合了c++根号相关教程,阅读专题下面的文章了解更多详细内容。

41

2026.01.23

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 19.4万人学习

Django 教程
Django 教程

共28课时 | 3.5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号