0

0

Golang编写简单爬虫 net/http与goquery结合

P粉602998670

P粉602998670

发布时间:2025-08-31 11:31:01

|

776人浏览过

|

来源于php中文网

原创

答案:使用golang的net/http发起请求,结合goquery解析html,通过css选择器提取数据,实现高效轻量级爬虫。

golang编写简单爬虫 net/http与goquery结合

用Golang结合

net/http
goquery
编写一个简单的爬虫,其核心在于利用
net/http
标准库来发起HTTP请求并获取网页内容,再通过
goquery
这个强大的库,以类似jQuery的CSS选择器能力进行高效的DOM解析和数据提取。在我看来,这套组合拳,简直是轻量级爬虫开发的黄金搭档,既保持了Go语言的高效并发特性,又提供了jQuery般便捷的DOM操作体验,让原本繁琐的HTML解析变得异常优雅。

解决方案

编写一个基于

net/http
goquery
的Go语言爬虫,通常会遵循几个步骤:发起HTTP请求、处理响应、解析HTML并提取数据。下面是一个简单的例子,演示如何抓取一个虚构的博客文章列表,提取每篇文章的标题和链接。

package main

import (
    "fmt"
    "log"
    "net/http"
    "os"
    "strings"

    "github.com/PuerkitoBio/goquery"
)

// Article represents a scraped article with its title and URL.
type Article struct {
    Title string
    URL   string
}

func main() {
    // 定义目标URL
    targetURL := "http://example.com/blog" // 假设这是一个博客列表页

    // 发起HTTP GET请求
    resp, err := http.Get(targetURL)
    if err != nil {
        log.Fatalf("发起HTTP请求失败: %v", err)
    }
    defer func() {
        if closeErr := resp.Body.Close(); closeErr != nil {
            log.Printf("关闭响应体失败: %v", closeErr)
        }
    }()

    // 检查HTTP状态码
    if resp.StatusCode != http.StatusOK {
        log.Fatalf("请求失败,状态码: %d %s", resp.StatusCode, resp.Status)
    }

    // 使用goquery创建一个新的文档
    doc, err := goquery.NewDocumentFromReader(resp.Body)
    if err != nil {
        log.Fatalf("解析HTML文档失败: %v", err)
    }

    var articles []Article

    // 使用CSS选择器查找文章列表项
    // 假设每篇文章在一个 class 为 "post-item" 的 div 中,标题在 h2 标签内,链接在 a 标签的 href 属性中
    doc.Find(".post-item").Each(func(i int, s *goquery.Selection) {
        title := s.Find("h2 a").Text()
        href, exists := s.Find("h2 a").Attr("href")

        if exists && title != "" {
            // 确保链接是绝对路径,如果不是,则进行拼接
            if !strings.HasPrefix(href, "http") {
                // 简单的拼接,实际情况可能需要更复杂的URL解析
                href = targetURL + href // 假设是相对路径
            }
            articles = append(articles, Article{Title: strings.TrimSpace(title), URL: href})
        }
    })

    // 打印提取到的文章信息
    if len(articles) == 0 {
        fmt.Println("没有找到任何文章。请检查选择器或目标网站结构。")
    } else {
        fmt.Println("成功提取到文章列表:")
        for _, article := range articles {
            fmt.Printf("标题: %s\n链接: %s\n---\n", article.Title, article.URL)
        }
    }
}

// 注意:实际运行时,请将 targetURL 替换为真实可访问的网站URL,
// 并根据目标网站的HTML结构调整 goquery 的选择器。
// 例如,如果目标网站是 'https://news.ycombinator.com/',你可能需要这样的选择器:
// doc.Find(".athing").Each(func(i int, s *goquery.Selection) {
//     title := s.Find(".titleline a").Text()
//     href, exists := s.Find(".titleline a").Attr("href")
//     // ... 后续处理
// })

这段代码展示了一个基础的爬虫骨架。我们首先用

http.Get
获取网页内容,然后用
goquery.NewDocumentFromReader
将响应体转换为可操作的DOM对象。接着,通过
doc.Find(".post-item").Each(...)
,我们遍历所有匹配
.post-item
选择器的元素,并在每个元素内部进一步查找
h2 a
标签,提取其文本作为标题,
href
属性作为链接。这里还加入了一个简单的相对路径处理,这在实际爬虫中是常见且必要的。

为什么选择Go语言和goquery来开发爬虫?

我个人对Go语言和

goquery
的组合情有独钟,这并非偶然。选择它们来开发爬虫,背后有几个非常实际且有力的理由:

立即学习go语言免费学习笔记(深入)”;

Go语言本身就为高并发、高性能而生。它的Goroutine和Channel机制,让编写并发代码变得异常简单和高效。爬虫本质上就是I/O密集型任务,需要同时处理大量的网络请求。Go的并发模型,能够以极低的资源消耗启动成千上万个并发请求,这在其他语言中可能需要复杂的线程池或异步框架才能实现。我曾经尝试用Python写一些大规模爬虫,虽然生态丰富,但在高并发场景下,GIL(全局解释器锁)和异步IO的调试成本,有时会让人感到头疼。Go语言在这里提供了一种更为直接和高效的解决方案,它的编译型特性也意味着更快的执行速度和更低的内存占用,部署起来也特别省心,一个静态编译的二进制文件就能搞定一切。

至于

goquery
,它简直是前端开发者或熟悉jQuery的人的福音。我记得刚开始接触爬虫时,处理HTML文档是一件很痛苦的事情,要么是复杂的正则表达式,要么是冗长的DOM遍历。
goquery
通过提供jQuery风格的API,让CSS选择器直接作用于Go的HTML解析结果,这让数据提取变得直观、简洁且不易出错。你不需要重新学习一套新的API,直接用熟悉的CSS选择器就能精准定位元素,这种“所见即所得”的开发体验,大大提升了开发效率。它底层基于
golang.org/x/net/html
库,解析性能也相当可靠,不会成为瓶颈。所以,对我来说,Go的并发能力是骨架,
goquery
则是那双能精准摘取数据的巧手,两者结合,事半功倍。

在Go语言爬虫开发中,如何处理常见的反爬机制?

反爬机制就像一场猫鼠游戏,没有一劳永逸的解决方案,但我们总能找到一些策略来应对。在Go语言爬虫中,处理常见的反爬机制,通常需要我们模拟更真实的浏览器行为,并适当地控制请求节奏。

一个最基础的应对是设置User-Agent请求头。很多网站会根据User-Agent来判断请求来源是浏览器还是爬虫。默认的Go HTTP客户端User-Agent通常是

Go-http-client/1.1
,这很容易被识别。我们可以在请求中加入
req.Header.Set("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124124 Safari/537.36")
这样的代码,模拟一个主流浏览器的User-Agent。

// ...
req, err := http.NewRequest("GET", targetURL, nil)
if err != nil {
    log.Fatalf("创建请求失败: %v", err)
}
req.Header.Set("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124124 Safari/537.36")

client := &http.Client{}
resp, err := client.Do(req)
// ...

IP代理池是另一个重要的策略,尤其当网站对单个IP的访问频率有严格限制时。我们可以维护一个代理IP列表,并在每次请求时随机选择一个代理IP。Go的

http.Client
可以很方便地配置
Transport
来使用代理:

proxyURL, _ := url.Parse("http://your-proxy-ip:port") // 替换为你的代理IP和端口
client := &http.Client{
    Transport: &http.Transport{
        Proxy: http.ProxyURL(proxyURL),
    },
}
// 使用这个client发起请求
resp, err := client.Do(req)

当然,更复杂的代理池可能涉及代理可用性检测、轮换策略等。

请求频率控制同样关键。频繁的请求会触发网站的限流机制。最简单的方式是使用

time.Sleep()
在每次请求之间引入延迟。更高级的策略是实现令牌桶或漏桶算法,以更平滑地控制请求速率。

免费语音克隆
免费语音克隆

这是一个提供免费语音克隆服务的平台,用户只需上传或录制一段 5 秒以上的清晰语音样本,平台即可生成与用户声音高度一致的 AI 语音克隆。

下载
// 简单的延迟
time.Sleep(2 * time.Second) // 每次请求前等待2秒

// 或者使用channel限制并发和频率
// 假设你有一个workCh channel来分发任务
// var rateLimiter = time.Tick(time.Millisecond * 500) // 每500毫秒生成一个"令牌"
// for task := range workCh {
//     <-rateLimiter // 阻塞直到有令牌可用
//     go processTask(task)
// }

对于需要Cookies或Session管理的网站,

http.Client
Jar
字段可以自动处理Cookie的存储和发送:

jar, _ := cookiejar.New(nil)
client := &http.Client{
    Jar: jar, // 客户端会自动管理cookies
}
// ...

至于JavaScript渲染的页面验证码,这就超出了

net/http
goquery
的范畴了。对于JS渲染,我们可能需要引入无头浏览器(如
chromedp
),它能模拟真实的浏览器执行JS并渲染页面。验证码则需要结合OCR技术或人工打码平台。这些都是更高级的爬虫技术,在编写简单爬虫时,通常会先选择那些不需要处理这些复杂机制的目标。

总的来说,处理反爬机制是一个不断学习和适应的过程。关键在于理解目标网站的防护策略,然后有针对性地模拟真实用户行为,而非盲目地堆砌技术。

如何优化Go语言爬虫的性能和并发处理?

Go语言天生就擅长并发,但如果用不好,它的并发优势也可能带来资源耗尽的问题。所以,优化Go语言爬虫的性能和并发处理,关键在于精细的控制和合理的资源管理。

首先,并发控制是重中之重。无限制地启动Goroutine可能会耗尽系统资源,导致程序崩溃或效率低下。我们可以使用有缓冲的Channel或者

sync.WaitGroup
结合信号量模式来限制并发数量。

一个常见的模式是使用一个固定大小的Channel作为“工作池”或“信号量”:

// 假设有100个URL需要爬取
urlsToCrawl := []string{"url1", "url2", ..., "url100"}
maxConcurrency := 10 // 最大并发数

sem := make(chan struct{}, maxConcurrency) // 信号量,容量为最大并发数
var wg sync.WaitGroup

for _, url := range urlsToCrawl {
    wg.Add(1)
    sem <- struct{}{} // 获取一个信号量,如果满了会阻塞
    go func(u string) {
        defer wg.Done()
        defer func() { <-sem }() // 释放信号量

        // 这里执行爬取逻辑
        fmt.Printf("正在爬取: %s\n", u)
        time.Sleep(time.Millisecond * 500) // 模拟网络请求和处理时间
    }(url)
}
wg.Wait() // 等待所有Goroutine完成
fmt.Println("所有URL爬取完成。")

通过

sem <- struct{}{}
<-sem
,我们确保了同时运行的爬取Goroutine不会超过
maxConcurrency
个。

其次,连接复用对HTTP请求性能至关重要。每次发起HTTP请求都重新建立TCP连接,会带来不必要的握手开销。

http.Client
默认会复用连接,但如果你的爬虫会访问大量不同的域名,或者你需要更精细的控制,可以自定义
http.Transport
来配置连接池的大小、空闲连接的超时时间等。

client := &http.Client{
    Transport: &http.Transport{
        MaxIdleConns:        100,              // 最大空闲连接数
        IdleConnTimeout:     90 * time.Second, // 空闲连接超时时间
        MaxConnsPerHost:     20,               // 每个host的最大连接数
        DisableKeepAlives:   false,            // 启用Keep-Alive
    },
    Timeout: 30 * time.Second, // 整个请求的超时时间
}
// 使用这个client发起所有HTTP请求

错误处理与重试机制也不容忽视。网络抖动、目标网站临时故障等都可能导致请求失败。实现一个带指数退避(Exponential Backoff)的重试机制,可以在不给目标网站造成过大压力的前提下,提高爬虫的健壮性。

// 简单的重试逻辑
maxRetries := 3
for i := 0; i < maxRetries; i++ {
    resp, err := client.Do(req)
    if err == nil && resp.StatusCode == http.StatusOK {
        // 成功,处理响应
        // ...
        resp.Body.Close()
        break
    }
    log.Printf("请求失败或状态码异常,第%d次重试: %v", i+1, err)
    time.Sleep(time.Duration(1<<(i+1)) * time.Second) // 指数退避
    if resp != nil {
        resp.Body.Close()
    }
}

最后,数据存储优化也是性能考量的一部分。如果爬取的数据量很大,频繁地单条写入数据库或文件系统可能会成为瓶颈。考虑批量写入数据库、使用消息队列(如Kafka、RabbitMQ)进行异步处理,或者将数据暂存到内存中,达到一定量后再进行持久化。

我个人觉得,Go的并发优势如果用不好,反而可能适得其反,导致资源耗尽。所以,精细的并发控制比无脑启动大量Goroutine更重要。这就像开跑车,不是踩油门到底就行,还得会刹车和转弯。合理的配置和策略,才能让Go爬虫既高效又稳定。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
golang如何定义变量
golang如何定义变量

golang定义变量的方法:1、声明变量并赋予初始值“var age int =值”;2、声明变量但不赋初始值“var age int”;3、使用短变量声明“age :=值”等等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

210

2024.02.23

golang有哪些数据转换方法
golang有哪些数据转换方法

golang数据转换方法:1、类型转换操作符;2、类型断言;3、字符串和数字之间的转换;4、JSON序列化和反序列化;5、使用标准库进行数据转换;6、使用第三方库进行数据转换;7、自定义数据转换函数。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

247

2024.02.23

golang常用库有哪些
golang常用库有哪些

golang常用库有:1、标准库;2、字符串处理库;3、网络库;4、加密库;5、压缩库;6、xml和json解析库;7、日期和时间库;8、数据库操作库;9、文件操作库;10、图像处理库。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

356

2024.02.23

golang和python的区别是什么
golang和python的区别是什么

golang和python的区别是:1、golang是一种编译型语言,而python是一种解释型语言;2、golang天生支持并发编程,而python对并发与并行的支持相对较弱等等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

214

2024.03.05

golang是免费的吗
golang是免费的吗

golang是免费的。golang是google开发的一种静态强类型、编译型、并发型,并具有垃圾回收功能的开源编程语言,采用bsd开源协议。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

409

2024.05.21

golang结构体相关大全
golang结构体相关大全

本专题整合了golang结构体相关大全,想了解更多内容,请阅读专题下面的文章。

490

2025.06.09

golang相关判断方法
golang相关判断方法

本专题整合了golang相关判断方法,想了解更详细的相关内容,请阅读下面的文章。

201

2025.06.10

golang数组使用方法
golang数组使用方法

本专题整合了golang数组用法,想了解更多的相关内容,请阅读专题下面的文章。

1438

2025.06.17

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

3

2026.03.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号