最常用方式是正则匹配Unicode汉字区间:[\u4e00-\u9fff]覆盖常用字,[\u3400-\u4dbf]含扩展A区生僻字,[\u3000-\u303f]含中文标点;可组合使用,如re.findall(r'[\u4e00-\u9fff]+', text)提取连续汉字。

Python3 提取汉字,核心是利用正则表达式匹配 Unicode 中文字符范围,或借助第三方库(如 jieba)做分词后筛选。最常用、轻量、无需额外依赖的方式是正则匹配。
用正则表达式提取纯汉字
中文汉字在 Unicode 中主要位于 \u4e00–\u9fff(基本汉字区),但实际还包含扩展 A 区(\u3400–\u4dbf)、扩展 B 区(部分超大字符集)、标点(如\u3000–\u303f)等。日常使用中,覆盖常用字可组合多个区间:
-
[\u4e00-\u9fff]:最常用,覆盖现代简体/繁体高频汉字 -
[\u3400-\u4dbf]:CJK 扩展 A(生僻字、古籍用字) -
[\u3000-\u303f\u3040-\u309f\u30a0-\u30ff]:中文全角标点、平假名、片假名(按需添加)
示例代码:
import retext = "Hello你好!123世界?,测试「abc」。" hanzi = re.findall(r'[\u4e00-\u9fff]+', text) print(hanzi) # ['你好', '世界', '测试']
注意:+ 表示连续汉字连成一个字符串;若要单字拆分,改用 r'[\u4e00-\u9fff]'。
立即学习“Python免费学习笔记(深入)”;
保留汉字并去除其他所有字符(包括空格标点)
适合清洗文本、构造纯汉字序列:
cleaned = re.sub(r'[^\u4e00-\u9fff]', '', text) print(cleaned) # '你好世界测试'
这个方法简单直接,但会丢弃所有非汉字内容,不含换行、空格、英文数字等。
用 jieba 分词后再过滤汉字(适合语义级提取)
当需要区分“词语”而非单字(比如排除“的”“了”等虚词,或保留“人工智能”这类复合词),可用 jieba 先分词,再按需筛选:
import jiebatext = "Python很强大,自然语言处理很重要!" words = jieba.lcut(text) hanzi_words = [w for w in words if re.fullmatch(r'[\u4e00-\u9fff]+', w)] print(hanzi_words) # ['Python', '很', '强大', '自然语言处理', '很重要']
⚠️ 注意:jieba 默认会保留英文单词(如 'Python'),所以需用正则二次判断是否纯汉字。若只想留中文词,建议加条件 len(w) > 1 and re.fullmatch(...) 过滤单字虚词(依任务而定)。
处理带拼音/注音/日文混排的文本
若文本含拼音(如 “zhong guo”)、日文假名或注音符号(ㄅㄆㄇ),可扩展正则范围或先清洗:
- 兼容常见拼音字母 + 空格 + 常见声调符号(如 ˉ ˊ ˇ ˋ):一般建议先用正则剥离非汉字块,再对剩余部分提取
- 稳妥做法:先用
[^\u4e00-\u9fff\u3400-\u4dbf\u3000-\u303f]+替换为统一占位符,再提取
例如清理后只留汉字和中文标点:
basic_chinese = re.sub(r'[^\u4e00-\u9fff\u3000-\u303f]', ' ', text).strip() hanzi_only = ''.join(hanzi for hanzi in basic_chinese if '\u4e00' <= hanzi <= '\u9fff')
不复杂但容易忽略细节:Unicode 范围要写对,避免漏掉扩展区;正则用 re.findall 比 re.search 更适合批量提取;分词+过滤适合有语义要求的场景。











