顾文强 系统架构设计师,AI算法工程师

NumPy 库介绍

NumPy 拥有丰富的函数,下面按照不同的功能类别为你较为全面地列出各类函数,并给出简单解释、示例及应用场景。 1. 数组创建

顾文强 Published on 2025-03-06

Dense 层介绍

Dense层(全连接层) 在神经网络中就像一个“综合决策员”,它的作用是将前面提取的所有特征综合起来,做出最终的判断。下面用通俗的语言和比喻详细解释: 1. Dense层是什么? 官方定义:Dense层中的每个神经元(节点)都与前一层的所有神经元全连接(每个连接都有一个权重)。 通俗理解:假设你有一

顾文强 Published on 2025-03-02

举例讲解 CNN 原理

我们以经典的 MNIST手写数字识别 为例,用 TensorFlow/Keras 框架的代码逐步解释CNN的运行过程。我会在代码中插入详细注释,并用比喻辅助理解。 完整代码及逐行解释 import tensorflow as tf from tensorflow.keras import layer

顾文强 Published on 2025-03-02

CNN 神经卷积网络原理讲解

咱们把CNN的运行过程想象成一场「拼图游戏」,用最直白的话解释它是如何一步步从像素中认出物体的: 第一步:输入图片——拆成小拼图块 原始图片:比如一张300x300像素的猫图,对电脑来说只是一堆数字(0-255表示亮度)。 预处理:调整大小、归一化(类似把照片裁成适合拼图的尺寸)。

顾文强 Published on 2025-03-02

分类和回归

分类和回归是监督学习中两种主要的任务类型,它们在输出类型、应用场景、模型选择、损失函数及评估指标等方面存在显著差异。以下是对两者的详细对比: 1. 输出类型 分类:预测离散的类别标签。例如: 二分类:垃圾邮件检测(是/否)。 多分类:手写数字识别(0-9)。

顾文强 Published on 2025-03-02

ReLU 介绍

ReLU(Rectified Linear Unit)激活函数详解及意义 1. 数学表达式与特性 公式:

顾文强 Published on 2025-03-01

全连接神经网络,CNN,RNN 关系

1. 全连接神经网络(Fully Connected Network) 通俗比喻:像一个事无巨细的“投票委员会”。 工作原理: 假设你要判断一张图片是不是猫,全连接网络会让图片的每个像素(比如1000个像素)都参与“投票”。每个像素会和其他所有像素“交头接耳”(通过权重连接),最后大家集体决定结果。

顾文强 Published on 2025-03-01

Transformer、MoE、LoRA 等架构详解

1. Transformer:像“开会讨论”的智能 想象你要理解一整句话的意思,比如“猫追老鼠,结果撞倒了花瓶”。传统方法像一个人一个字一个字读(像RNN),读到后面可能忘了前面。而Transformer更像一群人开会讨论——每个字(比如“猫”“追”“老鼠”)同时发言,互相交流意见,快速理清谁在追谁

顾文强 Published on 2025-03-01

NCCL 介绍

NCCL(NVIDIA Collective Communications Library)是英伟达(NVIDIA)专门为GPU设计的一个高效通信库,你可以把它理解为“多张GPU之间的高速公路”,专门用来加速它们在分布式训练中的数据传输,让多个GPU能像团队一样紧密协作。 通俗解释 假设你有一个超大

顾文强 Published on 2025-03-01

几个常见算法复杂度

以下是一些常见的算法复杂度及其简要说明: ‌O(1) - 常数时间复杂度‌: 算法的执行时间不随输入规模n的增长而增长。 示例:访问数组中的某个元素(通过索引直接访问)。

顾文强 Published on 2025-01-20