顾文强 系统架构设计师,AI算法工程师

CPU、GPU、NPU、TPU 的区别

以下是 CPU、GPU、NPU、TPU 的深度解析,涵盖设计目标、架构特点、应用场景及性能对比: 一、CPU(Central Processing Unit,中央处理器) 1. 核心定位 通用计算:处理复杂逻辑、分支预测和顺序任务

顾文强 Published on 2025-03-07

NumPy 库介绍

NumPy 拥有丰富的函数,下面按照不同的功能类别为你较为全面地列出各类函数,并给出简单解释、示例及应用场景。 1. 数组创建

顾文强 Published on 2025-03-06

Dense 层介绍

Dense层(全连接层) 在神经网络中就像一个“综合决策员”,它的作用是将前面提取的所有特征综合起来,做出最终的判断。下面用通俗的语言和比喻详细解释: 1. Dense层是什么? 官方定义:Dense层中的每个神经元(节点)都与前一层的所有神经元全连接(每个连接都有一个权重)。 通俗理解:假设你有一

顾文强 Published on 2025-03-02

举例讲解 CNN 原理

我们以经典的 MNIST手写数字识别 为例,用 TensorFlow/Keras 框架的代码逐步解释CNN的运行过程。我会在代码中插入详细注释,并用比喻辅助理解。 完整代码及逐行解释 import tensorflow as tf from tensorflow.keras import layer

顾文强 Published on 2025-03-02

CNN 神经卷积网络原理讲解

咱们把CNN的运行过程想象成一场「拼图游戏」,用最直白的话解释它是如何一步步从像素中认出物体的: 第一步:输入图片——拆成小拼图块 原始图片:比如一张300x300像素的猫图,对电脑来说只是一堆数字(0-255表示亮度)。 预处理:调整大小、归一化(类似把照片裁成适合拼图的尺寸)。

顾文强 Published on 2025-03-02

分类和回归

分类和回归是监督学习中两种主要的任务类型,它们在输出类型、应用场景、模型选择、损失函数及评估指标等方面存在显著差异。以下是对两者的详细对比: 1. 输出类型 分类:预测离散的类别标签。例如: 二分类:垃圾邮件检测(是/否)。 多分类:手写数字识别(0-9)。

顾文强 Published on 2025-03-02

ReLU 介绍

ReLU(Rectified Linear Unit)激活函数详解及意义 1. 数学表达式与特性 公式:

顾文强 Published on 2025-03-01

全连接神经网络,CNN,RNN 关系

1. 全连接神经网络(Fully Connected Network) 通俗比喻:像一个事无巨细的“投票委员会”。 工作原理: 假设你要判断一张图片是不是猫,全连接网络会让图片的每个像素(比如1000个像素)都参与“投票”。每个像素会和其他所有像素“交头接耳”(通过权重连接),最后大家集体决定结果。

顾文强 Published on 2025-03-01

Horvod 介绍

以下是关于 Horovod 的深度解析与使用指南,结合其核心原理、安装方法、代码示例及优化建议,帮助用户快速掌握这一分布式训练框架。 一、Horovod 的核心原理 1. 分布式训练架构 710 数据并行:Horov

顾文强 Published on 2025-03-01

Transformer、MoE、LoRA 等架构详解

1. Transformer:像“开会讨论”的智能 想象你要理解一整句话的意思,比如“猫追老鼠,结果撞倒了花瓶”。传统方法像一个人一个字一个字读(像RNN),读到后面可能忘了前面。而Transformer更像一群人开会讨论——每个字(比如“猫”“追”“老鼠”)同时发言,互相交流意见,快速理清谁在追谁

顾文强 Published on 2025-03-01
Previous Next