
本文旨在解决服务器端在处理高并发文件写入时可能发生的数据丢失问题。当多个请求同时尝试修改同一文件时,可能导致竞态条件。通过引入 PHP 的文件锁(`flock`)机制,可以确保文件在写入过程中被独占访问,从而有效防止数据损坏或丢失,保障数据传输和存储的原子性与一致性。
在现代 Web 应用中,客户端与服务器之间的数据交互频繁。当服务器需要将客户端发送的数据存储到共享文件(如 JSON 文件、日志文件等)中时,如果并发请求量大且写入间隔极短,就可能出现数据丢失或文件损坏的现象。这通常是由于竞态条件(Race Condition)引起的:多个进程或线程同时尝试读取、修改并写入同一个文件,导致最终写入的数据不完整或被覆盖。
竞态条件示例与问题分析
考虑一个典型的场景,客户端通过 JavaScript 发送数据,服务器端 PHP 接收数据并追加到 JSON 文件中:
JavaScript 客户端代码示例:
立即学习“PHP免费学习笔记(深入)”;
const XHR = new XMLHttpRequest();
function sendData(data) {
XHR.open('POST', 'savedata.php');
XHR.setRequestHeader('Content-type', 'application/x-www-form-urlencoded');
XHR.send('data=' + JSON.stringify(data));
}PHP 服务器端初始代码示例(存在竞态条件):
上述 PHP 代码的逻辑在单线程环境下运行良好。但在高并发场景下,问题就浮现了:
- 进程 A 读取 data.json。
- 进程 B 几乎同时读取 data.json(此时进程 A 尚未写入)。
- 进程 A 将新数据追加到其读取到的内容中,并写入 data.json。
- 进程 B 也将新数据追加到其读取到的内容中(这个内容是进程 A 修改前的旧内容),并写入 data.json。
结果是,进程 A 写入的数据可能被进程 B 覆盖,导致进程 A 的数据丢失。这就是典型的竞态条件导致的数据丢失。
解决方案:使用文件锁(flock)保障数据完整性
为了防止上述竞态条件,我们需要确保在任何时刻只有一个 PHP 进程能够对 data.json 文件进行读写操作。PHP 提供了 flock() 函数来实现文件锁定机制。
flock() 函数允许我们在一个打开的文件句柄上设置共享锁(LOCK_SH)或独占锁(LOCK_EX)。对于写入操作,我们通常需要独占锁,以确保在当前进程完成写入之前,其他进程无法读取或写入该文件。
PHP 服务器端文件锁实现示例:
关键步骤解析与注意事项
-
fopen($filePath, "r+"):
赣极购物商城网店建站软件系统下载大小仅1兆左右 ,足够轻便的商城系统; 易部署,上传空间即可用,安全,稳定; 容易操作,登陆后台就可设置装饰网站; 并且使用异步技术处理网站数据,表现更具美感。 前台呈现页面,兼容主流浏览器,DIV+CSS页面设计; 如果您有一定的网页设计基础,还可以进行简易的样式修改,二次开发, 发布新样式,调整网站结构,只需修改css目录中的css.css文件即可。 商城网站完全独立,网站源码随时可供您下载
- 使用 r+ 模式打开文件。这意味着文件可以被读取和写入,且文件指针初始位于文件开头。如果文件不存在,fopen 会返回 false。
- 如果需要文件不存在时自动创建,可以使用 c+ 模式。
- 重要的是,文件必须以可读写的方式打开,才能进行 flock 操作。
-
flock($fp, LOCK_EX):
- 尝试获取文件的独占锁(LOCK_EX)。
- 如果文件当前已被其他进程独占锁定,则当前进程会阻塞,直到锁被释放并成功获取。这确保了同一时间只有一个进程能够修改文件。
- flock 是一个阻塞调用,这意味着如果文件被锁定,您的 PHP 脚本会暂停执行,直到获得锁。
-
file_get_contents($filePath):
- 在获取到独占锁之后,读取文件的当前内容。
- 尽管 file_get_contents 内部会重新打开和关闭文件,但由于 LOCK_EX 已经生效,其他进程无法获取锁进行写入,因此读取到的数据是相对一致的。
- 对于极端严格的原子性要求,更推荐使用 fseek($fp, 0) 将文件指针移到开头,然后使用 stream_get_contents($fp) 或 fread($fp, filesize($filePath)) 从当前打开的 $fp 句柄中读取。
-
ftruncate($fp, 0):
- 在写入新数据之前,将文件截断为零长度。这会清空文件的所有内容。
- 这一步非常重要,因为它确保了即使新数据比旧数据短,也不会留下旧数据的残余部分。
-
fseek($fp, 0):
- 在截断文件后,将文件指针重新定位到文件开头。这是为了确保 fwrite 从文件的起始位置开始写入。
-
fwrite($fp, $encodedAccumulatedData):
- 将包含新数据的完整 JSON 字符串写入文件。
-
flock($fp, LOCK_UN):
- 完成所有读写操作后,务必释放文件锁。这是非常关键的一步,否则其他等待获取锁的进程将永远阻塞。
-
fclose($fp):
- 关闭文件句柄。即使不手动调用,脚本结束时也会自动关闭,但显式关闭是良好的编程习惯。
总结与进阶思考
通过在文件写入操作中引入 flock(LOCK_EX),我们成功解决了 PHP 并发写入文件导致的数据丢失问题,确保了数据传输和存储的原子性和一致性。这种方法对于中低并发的场景非常有效。
然而,对于极高并发的场景,文件锁可能会导致性能瓶颈,因为所有请求都会排队等待文件锁。在这种情况下,可能需要考虑更高级的解决方案:
- 数据库: 将数据存储到数据库中,利用数据库的事务和并发控制机制来处理并发写入。
- 消息队列: 将数据发送到消息队列(如 RabbitMQ, Kafka),由后台消费者进程异步地、顺序地处理写入操作。
- Redis: 使用 Redis 这样的内存数据库作为中间层,快速存储数据,再由后台进程定期批量写入文件或数据库。
选择哪种方案取决于具体的业务需求、并发量和系统架构。但对于直接操作文件的场景,flock 仍然是确保数据完整性最直接和有效的方法。










