Golang抓取网页核心是http.Get+io.ReadAll,需错误处理、resp.Body.Close()防泄漏、检查StatusCode;可设User-Agent绕反爬;用golang.org/x/net/html解析HTML;建议加超时与重试。

用 Golang 抓取网页内容,核心是 http.Get 发起请求 + io.ReadAll 读取响应体,再配合错误处理和基础 HTML 解析即可完成简单爬取。不需要额外框架,标准库足够起步。
最简方式就是调用 http.Get,检查状态码和错误,然后读取 Response.Body:
resp.Body.Close() 防止连接泄漏resp.StatusCode == 200,避免静默拿到 404/500 响应io.ReadAll(Go 1.16+)或 io.Copy + bytes.Buffer 读取全部内容示例代码:
resp, err := http.Get("https://example.com")
if err != nil {
log.Fatal(err)
}
defer resp.Body.Close()
<p>if resp.StatusCode != 200 {
log.Fatalf("HTTP %d", resp.StatusCode)
}</p><p>body, err := io.ReadAll(resp.Body)
if err != nil {
log.Fatal(err)
}
fmt.Println(string(body))
很多网站会拒绝默认的 Go User-Agent,加个 User-Agent 头能绕过基础反爬:
立即学习“go语言免费学习笔记(深入)”;
http.NewRequest 构造请求,再设置 Header.Set
"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"
Accept、Accept-Language 等字段示例:
req, _ := http.NewRequest("GET", "https://example.com", nil)
req.Header.Set("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36")
<p>client := &http.Client{}
resp, err := client.Do(req)
// 后续同上:检查状态码、读 body、关闭...
抓到 HTML 字符串后,可用 golang.org/x/net/html 包做轻量解析:
html.Parse 构建节点树,或用 html.NewTokenizer 流式解析(更省内存)<a href="..."></a> 链接,或某个 <h1></h1> 文本简单提取所有链接示例:
doc, err := html.Parse(strings.NewReader(string(body)))
if err != nil {
log.Fatal(err)
}
var f func(*html.Node)
f = func(n *html.Node) {
if n.Type == html.ElementNode && n.Data == "a" {
for _, attr := range n.Attr {
if attr.Key == "href" {
fmt.Println(attr.Val)
}
}
}
for c := n.FirstChild; c != nil; c = c.NextSibling {
f(c)
}
}
f(doc)
真实场景中,网络不稳定或目标响应慢,需主动控制:
http.Client{Timeout: 10 * time.Second} 防止卡死colly 或 goquery 等成熟库,但标准库已覆盖 80% 简单需求基本上就这些。Golang 抓网页不复杂但容易忽略错误处理和资源释放,写几行就能跑通,稳住这三点就立得住。
以上就是如何使用Golang抓取网页内容_GolangHTTP页面爬取示例的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号