自定义模型需继承tf.keras.Model,在__init__中定义层、call()中实现前向传播;训练用tf.GradientTape手动求梯度并更新参数;配合tf.data、混合精度、梯度裁剪提升效率;通过tf.summary、权重抽样和数据检查调试监控。

自定义模型:从继承Model类开始
TensorFlow中构建自定义模型最规范的方式是继承tf.keras.Model。相比Sequential,它支持复杂拓扑(如多输入/输出、共享层、非线性连接)和灵活的前向逻辑。
关键点:
- 在__init__中定义可训练层(如self.dense1 = tf.keras.layers.Dense(128)),不执行计算
- 重写call()方法实现前向传播,可加入条件分支、自定义运算或调试打印
- 调用model.build(input_shape)后,权重才被创建,可通过model.trainable_variables查看
训练循环:脱离fit(),掌握底层控制
使用tf.GradientTape手动管理梯度,适合需要动态loss、梯度裁剪、多任务更新或混合精度训练的场景。
典型步骤:
立即学习“Python免费学习笔记(深入)”;
- 用with tf.GradientTape() as tape:包裹前向计算,自动记录计算图
- 调用tape.gradient(loss, model.trainable_variables)获取梯度
- 用优化器apply_gradients(zip(gradients, model.trainable_variables))更新参数
- 配合@tf.function装饰提升训练速度(注意避免在装饰函数内使用Python原生print或len)
高效训练技巧:避免常见性能陷阱
训练慢、OOM、收敛差往往不是模型问题,而是数据与训练配置不当。
- 数据管道必须用tf.data:启用.cache()(内存充足时)、.prefetch(tf.data.AUTOTUNE)、.batch().map(..., num_parallel_calls=tf.data.AUTOTUNE)
- 混合精度训练:设置tf.keras.mixed_precision.set_global_policy('mixed_float16'),再将模型输出层设为float32防止数值不稳定
- 梯度裁剪:在优化器中传入clipnorm=1.0或clipvalue=0.5,缓解RNN或深层网络的梯度爆炸
调试与监控:让训练过程“看得见”
训练不收敛?指标异常?别只看loss曲线。
- 用tf.summary记录中间变量:在@tf.function外创建tf.summary.create_file_writer,在tape内用tf.summary.scalar写入梯度均值、激活分布等
- 检查权重是否更新:每若干step打印model.trainable_variables[0][0,0].numpy(),确认数值变化
- 验证数据质量:用tf.data.Dataset.take(1).as_numpy_iterator().next()抽样检查输入shape、dtype、数值范围(如图像是否归一化到[0,1])










