直接用 goroutine 处理日志行会丢数据,因共享 io.Writer 非并发安全;应改用 channel + worker pool,单 goroutine 读、固定 worker 分析、单 goroutine 写,解析时需深拷贝字段,状态统计用本地 map 汇总,热更新规则用 atomic.Value。

为什么直接用 goroutine 处理日志行会丢数据
常见误区是为每行日志启一个 go processLine(line),看似并发,实则极易丢失或错乱。根本原因在于:共享的 log.Writer(如 os.Stdout 或自定义 io.Writer)不是并发安全的;若多个 goroutine 同时调用 Write(),底层缓冲、换行、字节截断可能互相干扰,尤其在高吞吐下出现日志粘连、缺失甚至 panic。
用 channels + worker pool 控制并发写入
核心思路是解耦「读取」和「处理/写入」:单个 goroutine 逐行读日志文件,把解析后的结构体发到 channel;固定数量的 worker goroutine 从 channel 消费,各自完成分析逻辑,并**串行写入最终输出目标**(如文件、数据库)。这样既利用多核做计算,又避免写冲突。
关键点:
-
channel容量需设为合理值(如make(chan *LogEntry, 1000)),防止内存暴涨 - worker 数量不宜过多,通常
runtime.NumCPU()或略高即可,过多反而因调度开销降低吞吐 - 所有写操作(
f.Write()、fmt.Fprintln())必须由同一 goroutine 或加锁保护
func main() {
logFile, _ := os.Open("access.log")
defer logFile.Close()
entries := make(chan *LogEntry, 1000)
results := make(chan string, 100)
// 启动 4 个分析 worker
for i := 0; i < 4; i++ {
go analyzeWorker(entries, results)
}
// 单 goroutine 读取并发送
scanner := bufio.NewScanner(logFile)
go func() {
for scanner.Scan() {
line := scanner.Text()
if entry, err := parseLine(line); err == nil {
entries <- entry
}
}
close(entries)
}()
// 单 goroutine 收集结果并写入 output.txt
outFile, _ := os.Create("output.txt")
defer outFile.Close()
go func() {
for res := range results {
fmt.Fprintln(outFile, res)
}
}()
// 等待所有 worker 结束
var wg sync.WaitGroup
wg.Add(4)
for i := 0; i < 4; i++ {
go func() {
defer wg.Done()
<-entries // 实际应配合更严谨的关闭信号,此处简化示意
}()
}
wg.Wait()
close(results)}
立即学习“go语言免费学习笔记(深入)”;
parseLine 必须返回可并发安全的结构体
日志解析函数本身不能依赖全局状态或复用临时变量。例如,用 strings.Fields() 拆分后直接存 []string 是危险的——底层底层数组可能被后续调用覆盖。正确做法是深拷贝关键字段,或用 strings.TrimSpace() + string() 显式复制字符串内容。
典型错误写法:
parts := strings.Fields(line); entry.Path = parts[1] → parts 底层数组可能被下一次 Fields() 复用
推荐写法:
- 用
strings.SplitN(line, " ", 5)并对每个字段做string(sub[:])切片复制 - 或直接用正则提取,
re.FindStringSubmatch返回新分配的字节数组 - 避免在结构体中保存指向原始
line的子串引用,除非你确保line生命周期覆盖整个处理流程
如何安全地统计高频 IP 并支持热更新规则
如果分析逻辑包含状态(如 IP 计数器),必须加锁或用并发安全类型。但 sync.Map 在高频写场景下性能不如带分段锁的自定义 map。更实用的做法是:每个 worker 维护本地 map,最后汇总到主 goroutine 再合并。
热更新规则(如新增过滤关键词)不能直接改全局变量,否则引发竞态。应使用 atomic.Value 包装规则结构体,worker 定期调用 Load() 获取最新快照:
var rules atomic.Value// 初始化 rules.Store(&RuleSet{Keywords: []string{"error", "timeout"}})
// worker 中使用 currentRules := rules.Load().(*RuleSet) if contains(currentRules.Keywords, entry.Msg) { // 触发告警 }
更新时只需 rules.Store(newRules),原子生效,无需锁。
真正麻烦的是日志时间窗口滑动、聚合延迟、OOM 控制——这些不在 goroutine 基础模型里,得靠 time.Ticker + 缓冲池 + 限流 channel 手动搭,容易忽略。










