0

0

PythonKeras深度学习教程_神经网络搭建与训练实践

舞夢輝影

舞夢輝影

发布时间:2026-01-05 09:29:46

|

720人浏览过

|

来源于php中文网

原创

Keras建模需理清数据、模型、编译、训练四环节:数据要规范shape与dtype,模型按结构选Sequential或函数式API,编译时损失函数须与输出层和标签格式匹配,训练中用loss曲线和EarlyStopping等回调监控优化。

pythonkeras深度学习教程_神经网络搭建与训练实践

用 Keras 搭建和训练神经网络,核心在于理清数据、模型、编译、训练四个环节的衔接逻辑。Keras 的优势是高层抽象简洁,但容易忽略底层细节,比如输入形状匹配、损失函数选择、批次大小对收敛的影响等。

准备数据:格式对了,模型才不报错

Keras 对输入张量的 shape 非常敏感。图像数据通常要归一化到 [0, 1] 并 reshape 成 (batch_size, height, width, channels);表格数据需转为二维 float32 张量,shape 是 (samples, features)。标签如果是多分类,用 to_categorical 转成 one-hot;如果是二分类或带序号的多类,保持整数形式即可,对应损失函数选 binary_crossentropy 或 sparse_categorical_crossentropy。

  • 检查 X_train.dtype 是否为 float32,不是就加 .astype('float32')
  • 用 X_train.shape 确认维度顺序,特别是通道在后(channels_last)是默认模式
  • 验证 y_train 中类别索引是否从 0 开始连续,否则模型输出层神经元数量会出错

构建模型:从 Sequential 到函数式,按需选择

简单结构用 Sequential 最直接:一层接一层堆叠 Dense、Conv2D、Dropout 等。但遇到多输入、多输出、跨层连接(如残差、跳跃连接),就得用函数式 API。关键点是每层调用时传入上一层输出,最后用 Model(inputs=..., outputs=...) 封装。

  • 第一层 Dense 必须指定 input_shape,例如 input_shape=(784,) 表示 784 维特征
  • 卷积层后接全连接前,加 Flatten() 或 GlobalAveragePooling2D(),别漏掉
  • BatchNormalization 建议放在激活函数前,Dropout 放在激活函数后,更稳定

编译模型:损失、优化器、评估指标要配对

compile() 不只是“设置”,它决定了反向传播怎么算梯度、参数怎么更新。binary_crossentropy 对应 sigmoid 输出 + 单输出单元;categorical_crossentropy 要求 softmax 输出 + one-hot 标签;sparse_categorical_crossentropy 兼容整数标签,省去 one-hot 步骤。优化器推荐 Adam,学习率初始设 0.001,若训练震荡可降到 0.0001。

TabTab AI
TabTab AI

首个全链路 Data Agent,让数据搜集、处理到深度分析一步到位。

下载

立即学习Python免费学习笔记(深入)”;

  • metrics=['accuracy'] 对二分类够用,多分类建议加 'sparse_top_k_categorical_accuracy'
  • 自定义损失函数时,确保返回标量 loss,且支持自动微分(别用 np.sum 替代 tf.reduce_sum)
  • 验证集 metrics 在 fit() 中通过 validation_data 或 validation_split 控制,不是 compile 里写的

训练与监控:别只看 accuracy,loss 才是真信号

fit() 返回 History 对象,用 history.history['loss'] 和 history.history['val_loss'] 画图,观察是否过拟合(训练 loss 下降但验证 loss 上升)。EarlyStopping 和 ReduceLROnPlateau 是两个实用回调:前者在验证 loss 连续几轮不下降时停训,后者在 plateau 时自动降学习率。

  • batch_size 不是越大越好,显存允许下 32–128 较平衡;太小收敛慢,太大泛化可能变差
  • epochs 设大些(如 100),靠 EarlyStopping 自动截断,比手动试更可靠
  • 训练完用 model.evaluate() 在测试集上跑一次,避免用验证集结果当最终性能

不复杂但容易忽略。把 shape 对齐、损失配对、回调用好,大部分训练问题都能提前避开。

相关专题

更多
堆和栈的区别
堆和栈的区别

堆和栈的区别:1、内存分配方式不同;2、大小不同;3、数据访问方式不同;4、数据的生命周期。本专题为大家提供堆和栈的区别的相关的文章、下载、课程内容,供大家免费下载体验。

380

2023.07.18

堆和栈区别
堆和栈区别

堆(Heap)和栈(Stack)是计算机中两种常见的内存分配机制。它们在内存管理的方式、分配方式以及使用场景上有很大的区别。本文将详细介绍堆和栈的特点、区别以及各自的使用场景。php中文网给大家带来了相关的教程以及文章欢迎大家前来学习阅读。

566

2023.08.10

堆和栈的区别
堆和栈的区别

堆和栈的区别:1、内存分配方式不同;2、大小不同;3、数据访问方式不同;4、数据的生命周期。本专题为大家提供堆和栈的区别的相关的文章、下载、课程内容,供大家免费下载体验。

380

2023.07.18

堆和栈区别
堆和栈区别

堆(Heap)和栈(Stack)是计算机中两种常见的内存分配机制。它们在内存管理的方式、分配方式以及使用场景上有很大的区别。本文将详细介绍堆和栈的特点、区别以及各自的使用场景。php中文网给大家带来了相关的教程以及文章欢迎大家前来学习阅读。

566

2023.08.10

深入理解算法:高效算法与数据结构专题
深入理解算法:高效算法与数据结构专题

本专题专注于算法与数据结构的核心概念,适合想深入理解并提升编程能力的开发者。专题内容包括常见数据结构的实现与应用,如数组、链表、栈、队列、哈希表、树、图等;以及高效的排序算法、搜索算法、动态规划等经典算法。通过详细的讲解与复杂度分析,帮助开发者不仅能熟练运用这些基础知识,还能在实际编程中优化性能,提高代码的执行效率。本专题适合准备面试的开发者,也适合希望提高算法思维的编程爱好者。

1

2026.01.06

mc.js网页版入口地址大全
mc.js网页版入口地址大全

本专题整合了mc.js网页版入口地址大全以及mc.js1.8.8版本汇总,阅读专题下面的文章了解更多详细内容。

36

2026.01.05

Python lambda详解
Python lambda详解

本专题整合了Python lambda函数相关教程,阅读下面的文章了解更多详细内容。

19

2026.01.05

python处理大数据合集
python处理大数据合集

本专题整合了python处理大数据相关教程,阅读专题下面的文章了解更多详细内容。

49

2026.01.05

大数据专业学习教程
大数据专业学习教程

本专题整合了大数据专业学习相关教程,阅读专题下面的文章了解更多详细内容。

3

2026.01.05

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 0.6万人学习

Django 教程
Django 教程

共28课时 | 2.8万人学习

SciPy 教程
SciPy 教程

共10课时 | 1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号