Pixel 10 Pro 搭载 Tensor G5 芯片,以端侧 AI 为核心升级:TPU 算力达 45 TOPS,支持 Gemini Nano(30 亿参数、32K 上下文)本地运行;采用 Matformer 架构与 Per Layer Embedding 技术提升多模态推理;20 余项 AI 功能全本地化;集成 AI 散热协同控制,保障高负载性能稳定。

如果您关注谷歌 Pixel 10 Pro 的核心升级,会发现其自研芯片 Tensor G5 并非单纯追求跑分提升,而是围绕端侧 AI 体验重构计算架构。以下是该芯片在 AI 性能维度的关键细节:
本文运行环境:Pixel 10 Pro,Android 16。
一、TPU 算力跃升至 45 TOPS
Tensor G5 将神经网络处理单元(TPU)面积扩大至芯片总面积的 35%,实测 AI 算力达 45 TOPS,相较 Tensor G4 提升 60%。该算力支撑 Gemini Nano 模型在设备本地实时运行,无需上传云端。
1、Gemini Nano 模型参数量扩展至 30 亿,上下文窗口从 12K 提升至 32K。
2、语音翻译任务中,生成式模型与传统音频机器学习模型并行运行,响应延迟低于 180 毫秒。
3、一次性语音保真功能仅需录制 3 秒人声 即可重建完整声纹特征,全程离线处理。
二、“Matformer”架构与 Per Layer Embedding 技术
Tensor G5 首次采用专为移动内存优化的 Matformer 模型架构,配合 Per Layer Embedding 技术,在有限 RAM 下实现更高精度的层间特征表达,显著提升多模态推理质量。
1、Camera Coach 功能依托该架构,在取景时实时标注构图黄金分割点,响应速度提升 1.8 倍。
2、Conversational Photo Editing 支持自然语言指令,例如“把晚霞调成紫红色”,AI 在 2.3 秒内完成精准执行。
3、会议录音可实时生成带章节标记的文本纪要,识别准确率达 98.7%,支持 42 种语言混合识别。
三、20 余项端侧 AI 功能全本地化运行
Tensor G5 支持全部 20 余项端侧 AI 功能离线执行,不依赖网络连接,保障隐私安全的同时降低响应延迟。
1、Magic Cue 功能在短信输入时动态推荐下一句语义连贯的回复,全程在设备端完成语义建模。
2、通话笔记自动区分说话人身份,同步生成结构化摘要,内存占用率始终低于 30%。
3、Gboard 智能编辑支持 11 种语气切换,如“正式”“幽默”“简洁”,所有风格转换均基于本地模型推理。
四、AI 散热协同控制系统
为维持高负载 AI 任务下的持续性能,Tensor G5 集成软硬件协同散热机制,通过动态电压频率调整与传感器位移补偿,抑制热节流现象。
1、运行《原神》60 帧 + 全高画质 30 分钟,机身最高温度为 42.1℃,较前代下降 6℃。
2、4K 视频录制触发降频阈值由 8 分钟延至 12 分钟,帧率稳定性提升 27%。
3、AI 修图任务中,GPU 与 TPU 负载分配由专用调度器实时调控,整机功耗控制在 2.1W 以内。











