用BERT做NLU可基于Hugging Face Transformers库快速实现,关键在明确任务类型(如文本分类、NER、QA)、规范数据格式(如CSV含text和label列)、微调时选用对应模型类并设置标签数、推理时配合tokenizer完成端到端预测。

用BERT做自然语言理解(NLU)并不需要从零搭模型,Hugging Face的Transformers库已经封装好预训练权重和标准接口,关键在于理解任务类型、数据格式、微调逻辑和推理部署这四个环节。
明确你的NLU任务属于哪一类
常见NLU任务有文本分类(如情感分析、意图识别)、命名实体识别(NER)、问答(QA)、语义相似度判断等。不同任务对应不同的模型头(head)和标签格式:
- 文本分类:输出一个类别ID,需定义
num_labels,标签是整数(如0=正面,1=负面) - NER:每个token预测一个实体标签(如B-PER、I-ORG),标签数多,需用
TokenClassification类 - 问答:输入问题+段落,输出起始/结束位置索引,用
QuestionAnswering模型
准备数据:格式比模型更重要
Transformers要求数据以Dataset对象形式传入,推荐用datasets库加载。以中文情感二分类为例:
- 原始CSV应含
text和label两列,label为0或1 - 用
Dataset.from_csv()加载后,调用map()函数分词:def tokenize_fn(examples): return tokenizer(examples["text"], truncation=True, padding=True, max_length=128) - 注意:中文需用
bert-base-chinese等中文分词器,不能直接用英文版
微调时只需改几行关键代码
加载预训练模型后,核心修改点极少:
立即学习“Python免费学习笔记(深入)”;
- 选择对应任务的模型类:
AutoModelForSequenceClassification(分类)、AutoModelForTokenClassification(NER) - 指定
num_labels(分类)或label2id/id2label(NER) - 训练用
Trainer类,传入模型、数据集、训练参数(TrainingArguments)即可,无需手写训练循环 - 示例参数:
per_device_train_batch_size=16,num_train_epochs=3,learning_rate=2e-5
推理阶段要记得加tokenizer和解码
训练完得到model和tokenizer,预测时不能只喂原始字符串:
- 先用
tokenizer(text, return_tensors="pt")转成PyTorch张量 - 送入模型得logits,用
torch.argmax(logits, dim=-1).item()取预测类别 - 若做了label映射(如
{0:"neg", 1:"pos"}),再查表转回可读标签 - 批量预测时注意
tokenizer的padding和truncation必须开启
不复杂但容易忽略:中文任务务必确认分词器与模型一致,验证集指标要早看早调,小样本下可试WarmupSteps和WeightDecay来稳住训练。










