0

0

处理Pandas中带嵌入双引号的制表符分隔文件:实现精确往返读写

心靈之曲

心靈之曲

发布时间:2025-11-15 12:16:02

|

853人浏览过

|

来源于php中文网

原创

处理Pandas中带嵌入双引号的制表符分隔文件:实现精确往返读写

本文探讨了在pandas中处理特殊制表符分隔文件(tsv)的挑战,特别是当字段被双引号包围且内部包含未转义的双引号时。我们将介绍三种策略:利用python内置`csv`模块进行手动解析、实现自定义`decode/encode`函数以确保文件内容的精确往返,以及结合正则表达式预处理与pandas进行读写。旨在提供针对此类“非标准”tsv文件的稳健解决方案,确保数据完整性。

在数据处理中,我们经常会遇到格式不规范的文件。一个常见的场景是制表符分隔文件(TSV),其中每个字段都被双引号包围,但某些字段内容本身也包含双引号(例如,测量值5.00")。当使用像Pandas这样的强大库读取此类文件时,其默认的解析机制可能会将这些内部双引号误认为是字段的结束或需要转义的字符,导致数据损坏。更具挑战性的是,有时我们不仅需要正确读取数据,还需要将其以与原始文件完全相同的“不规范”格式写回,以实现数据的精确往返(roundtrip)。

本文将针对这一问题,提供几种有效的解决方案,并详细解释其实现原理和适用场景。

问题剖析:Pandas默认行为的局限性

考虑以下示例数据 test.exp:

"HEADER"    "ID"    "Part Reference"    "Value" "Part_Description"
"PARTOCC:17306" "17306" "M1"    "48SL-5S-50-C-LF"   "Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat"
"PARTOCC:17310" "17310" "M2"    "48SL-5S-50-C-LF"   "Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat"
"PARTOCC:65494" "65494" "J4E"   "311P822-MC-095-BS-D"   "GSFC CPCI J3 RA MALE 95 Position 0.123" tails"

注意 Part_Description 字段中嵌入的 5.00" 和 0.123" tails。 如果直接使用 pd.read_csv 读取并用 df.to_csv 写回,你会发现 5.00" 可能会变成 5.00"",或者整个字段的解析出现问题。这是因为Pandas(以及标准的CSV/TSV解析器)通常遵循RFC 4180规范,该规范规定了如何处理带引号的字段和内部引号(通常通过双写引号或使用转义字符)。然而,原始文件并未遵循这一规范,导致了冲突。

解决方案一:使用Python csv 模块进行精细控制

Python内置的 csv 模块提供了更底层的控制,允许我们忽略标准的引用规则,然后手动处理字段。这种方法适用于你只想正确解析数据进行后续处理,而不强求写回时保持原始“不规范”格式的情况。

读取与解析

我们可以使用 csv.reader 并设置 quoting=csv.QUOTE_NONE 来指示解析器忽略所有引用,将双引号视为普通字符。之后,我们再手动去除每个字段开头和结尾的双引号。

import csv

def parse_tsv_with_embedded_quotes(filepath: str) -> list[list[str]]:
    """
    解析一个字段被双引号包围且内部可能包含未转义双引号的TSV文件。
    该函数会手动去除每个字段的首尾双引号。
    """
    rows_data: list[list[str]] = []
    with open(filepath, newline="", encoding='utf-8') as f: # 确保使用正确的编码
        # 使用QUOTE_NONE,让csv模块不处理引号
        reader = csv.reader(f, delimiter="\t", quoting=csv.QUOTE_NONE)

        # 处理标题行:读取并去除首尾双引号
        header = [x[1:-1] for x in next(reader)]
        rows_data.append(header)

        # 处理数据行:读取并去除首尾双引号
        for row in reader:
            processed_row = [x[1:-1] for x in row]
            rows_data.append(processed_row)
    return rows_data

# 示例使用
exp_fn = r"test.exp"
parsed_data = parse_tsv_with_embedded_quotes(exp_fn)

# 打印解析结果的前几行
print("--- 解析结果(csv.QUOTE_NONE + 手动剥离)---")
for i, row in enumerate(parsed_data[:4]):
    print(row)

上述代码将成功解析出如下结果,其中嵌入的双引号被正确保留:

['HEADER', 'ID', 'Part Reference', 'Value', 'Part_Description']
['PARTOCC:17306', '17306', 'M1', '48SL-5S-50-C-LF', 'Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat']
['PARTOCC:17310', '17310', 'M2', '48SL-5S-50-C-LF', 'Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat']
['PARTOCC:65494', '65494', 'J4E', '311P822-MC-095-BS-D', 'GSFC CPCI J3 RA MALE 95 Position 0.123" tails']

写回文件

如果你将上述解析后的数据写回一个标准TSV文件,csv.writer 会根据标准规范对含有特殊字符(如逗号、制表符或双引号)的字段进行引用。这意味着写回的文件将是“规范的”TSV,而不是原始的“不规范”格式。

def write_standard_tsv(filepath: str, data: list[list[str]]):
    """
    将解析后的数据以标准TSV格式写回文件。
    """
    with open(filepath, "w", newline="", encoding='utf-8') as f:
        writer = csv.writer(f, delimiter="\t")
        writer.writerows(data)

# 将解析后的数据写入新的文件
output_fn = r"check_standard.exp"
write_standard_tsv(output_fn, parsed_data)

print(f"\n数据已写入 '{output_fn}',格式为标准TSV。")
# 检查 check_standard.exp,你会发现 Part_Description 字段会被重新引用,
# 并且内部的双引号会按照标准CSV规范进行转义(例如,5.00" -> "5.00"")。

这种方法适用于数据摄取(ingestion),但如果你需要严格保持原始文件的“不规范”格式,则需要更定制化的方法。

解决方案二:实现自定义解析与编码函数以确保原始格式往返

为了实现“输入即输出”的精确往返,我们需要对文件的读取和写入过程进行完全的自定义控制。这要求我们明确定义文件的“不规范”格式规则,并编写对应的解析(decode)和编码(encode)函数。

假设的格式规则

为了成功实现往返,我们必须对原始文件的格式有明确的假设:

PicWish
PicWish

推荐!专业的AI抠图修图,支持格式转化

下载
  1. 所有字段都以双引号开头和结尾。
  2. 字段内容中不包含制表符或换行符(如果包含,则需要更复杂的解析逻辑)。
  3. 内部的双引号不进行任何转义。

自定义 decode 和 encode 函数

import sys

END = "\n"  # 预期的行结束符
DELIM = "\t"  # 预期的字段分隔符
QUOT = '"'  # 预期的引用字符

Row = list[str]

def decode(line: str) -> Row:
    """
    解码一个“不规范”的TSV行。
    确保行以END结尾,按DELIM分割,并验证每个字段都以QUOT开头和结尾,然后去除这些引用。
    """
    if not line.endswith(END):
        raise ValueError(f"行不以 {repr(END)} 结尾")

    line = line[:-len(END)]  # 移除行结束符
    fields = line.split(DELIM)

    for i, field in enumerate(fields):
        if not (field.startswith(QUOT) and field.endswith(QUOT)):
            raise ValueError(f"字段 {i} 未被 {repr(QUOT)} 包围: {repr(field)}")
        fields[i] = field[1:-1]  # 移除首尾双引号
    return fields

def encode(row: Row) -> str:
    """
    将行编码回其原始的“不规范”格式。
    """
    # 为每个字段重新添加双引号,然后用制表符连接
    line = DELIM.join([f"{QUOT}{field}{QUOT}" for field in row])
    return line + END

def exit_err(msg: str):
    print(msg, file=sys.stderr)
    sys.exit(1)

# 主处理逻辑
def process_custom_format(input_filepath: str, output_filepath: str):
    rows: list[Row] = []
    header: Row = []

    with open(input_filepath, 'r', encoding='utf-8') as f:
        try:
            header = decode(next(f))
        except ValueError as e:
            exit_err(f"无法解码标题行: {e}")

        for i, line in enumerate(f):
            try:
                rows.append(decode(line))
            except ValueError as e:
                exit_err(f"无法解码行 {i+2}: {e}") # +2 因为标题行是第一行,i从0开始

    with open(output_filepath, 'w', encoding='utf-8') as f:
        f.write(encode(header))
        for row in rows:
            f.write(encode(row))

# 示例使用
exp_fn = r"test.exp"
check_custom_fn = r"check_custom.exp"
process_custom_format(exp_fn, check_custom_fn)

print(f"\n数据已使用自定义编解码器处理,并写入 '{check_custom_fn}'。")
print("通过 'diff test.exp check_custom.exp' 命令验证文件内容是否完全一致。")

运行上述代码后,你可以使用系统命令(如Linux/macOS的diff或Windows的fc)来验证 test.exp 和 check_custom.exp 是否完全一致。如果没有任何输出,则表示两个文件内容完全相同,实现了精确往返。

# 在命令行中运行(假设你的Python脚本名为 main.py)
# python main.py
# diff test.exp check_custom.exp

如果 diff 命令没有任何输出,则说明文件完全一致。

解决方案三:结合Pandas与正则表达式预处理实现往返

这种方法试图在Pandas的强大功能和原始文件的特殊格式之间找到一个平衡点。其核心思想是:在读取文件之前,使用正则表达式预处理文件内容,将那些“不规范”的内部双引号暂时转义,使其符合Pandas能够理解的转义规则;读取并处理后,在写回文件时,再将这些转义还原。

预处理、Pandas处理与后处理

import csv
import re
from io import StringIO
import pandas as pd

def roundtrip_pandas_with_regex(input_filepath: str, output_filepath: str):
    with open(input_filepath, 'r', encoding='utf-8') as f:
        text = f.read()

    # 预处理:将紧跟在数字后的双引号(如 5.00")转义为 \"
    # 这个正则表达式是基于示例数据中的特定模式,可能需要根据实际数据进行调整
    # 注意:这里假设嵌入的引号模式是 "\d+\.\d+\""
    # 如果有其他模式,需要修改或添加更多re.sub规则
    processed_text = re.sub(r'(\d+\.\d+)"', r'\g<1>\\"', text)

    # 使用StringIO将处理后的字符串模拟成文件,供Pandas读取
    df = pd.read_csv(
        StringIO(processed_text),
        quotechar='"',       # 字段被双引号包围
        sep="\t",            # 制表符分隔
        escapechar="\\",     # 使用反斜杠作为转义字符
        dtype=str            # 确保所有列都作为字符串读取
    )

    # 准备一个StringIO对象用于捕获to_csv的输出
    out_f = StringIO()

    # 将DataFrame写回TSV
    df.to_csv(
        out_f,
        sep="\t",
        quoting=csv.QUOTE_ALL,   # 强制所有字段都被引用
        doublequote=False,       # 禁用双写内部引号的转义方式
        escapechar="\\",         # 使用反斜杠转义内部引号
        index=False              # 不写入DataFrame的索引
    )

    # 后处理:将Pandas生成的转义字符(\")还原为原始的未转义双引号(")
    # 并且由于我们设置了escapechar="\\",Pandas会把我们预处理的\"再转义成\\",所以这里需要处理
    output_text = out_f.getvalue().replace(r"\"", '"')
    # 还需要处理 Pandas 在 QUOTE_ALL 模式下,如果字段本身没有引号,它会添加引号,
    # 而我们原始文件是所有字段都有引号的。
    # 这一步可能需要更复杂的逻辑来确保精确匹配,例如确保所有字段都以"开头和结尾。
    # 对于本例,由于原始文件所有字段都有引号,且内部引号已转义,to_csv会生成
    # "field with \"internal quote\"" 这样的格式,我们需要将 \" 还原。

    # 写入最终文件
    with open(output_filepath, "w", encoding='utf-8') as f:
        f.write(output_text)

# 示例使用
exp_fn = r"test.exp"
check_pandas_regex_fn = r"check_pandas_regex.exp"
roundtrip_pandas_with_regex(exp_fn, check_pandas_regex_fn)

print(f"\n数据已使用Pandas与正则表达式预处理,并写入 '{check_pandas_regex_fn}'。")
print("通过 'diff test.exp check_pandas_regex.exp' 命令验证文件内容是否完全一致。")

这种方法利用了Pandas的便利性,但对预处理和后处理的正则表达式匹配精度要求较高。如果原始文件中嵌入双引号的模式多样,正则表达式可能会变得复杂,甚至无法完全覆盖所有情况。因此,在实际应用中,需要仔细分析数据模式来构建健壮的正则表达式。

总结与注意事项

处理带有非标准引用规则的制表符分隔文件是一项常见的挑战。选择哪种解决方案取决于你的具体需求:

  1. csv 模块配合 QUOTE_NONE 和手动剥离

    • 优点:简单直接,适用于只想正确解析数据进行后续处理(如导入数据库),不要求写回时保持原始“不规范”格式的场景。
    • 缺点:无法实现原始“不规范”格式的精确往返。写回时会生成标准TSV。
  2. 自定义 decode/encode 函数

    • 优点:提供了对解析和编码过程的完全控制,是实现原始“不规范”格式精确往返的最可靠方法。
    • 缺点:需要明确了解文件的“不规范”格式规则,并编写相应的自定义逻辑。对于非常复杂的格式,代码量可能较大。
  3. **Pandas 结合

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

707

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

625

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

734

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

616

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1234

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

547

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

573

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

695

2023.08.11

笔记本电脑卡反应很慢处理方法汇总
笔记本电脑卡反应很慢处理方法汇总

本专题整合了笔记本电脑卡反应慢解决方法,阅读专题下面的文章了解更多详细内容。

1

2025.12.25

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
PostgreSQL 教程
PostgreSQL 教程

共48课时 | 5.9万人学习

Git 教程
Git 教程

共21课时 | 2.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号