IIWAB 博客
  • 在PyTorch中,常见的梯度下降优化算法有多种: 随机梯度下降(SGD) 原理:每次使用一个样本进行梯度计算和参数更新。 优点:计算速度快,能够处理大规模数据集,容易实现。 缺点:梯度估计方差较大,导致收敛过程可能会有较大波动,有时需要较长时...
    • 2月前
  • 计算方式 批量梯度下降(BGD):每次更新参数时都使用整个训练数据集来计算梯度。具体来说,对于具有(m)个样本的训练集,其梯度计算是对所有样本的损失函数关于参数的偏导数求和,然后再根据梯度更新参数。 随机梯度下降(SGD):每次更新参数时只使用...
    • 2月前
  • 损失函数数学公式用途特性 nn.MSELoss( \text{MSE} = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 )回归问题,如预测房价、股票价格等。对异常值敏感,会放大预测值和真实值之...
    • 2月前
  • 初始化方法函数名原理适用场景优点缺点 零初始化nn.init.zeros_将所有的权重参数初始化为零不适用(极少情况)简单易实现会导致所有神经元学习到相同的特征,造成对称问题,模型无法收敛 随机初始化nn.init.uniform_在指定的均...
    • 2月前
  • 在Transformer架构里,Encoder、Decoder、Cross Attention和Self Attention是关键组件, 1. Self Attention Self Attention是Transformer的核心机制,它能够让...
    • 3月前
  • RNN与CNN的主要区别体现在应用领域、网络结构、数据处理方式、擅长任务类型及训练挑战五个方面。CNN适用于图像等空间数据,而RNN更适合时间序列或文本等序列数据。 一、应用领域差异 CNN的核心应用是计算机视觉领域,例如图像分类、目标检测等。其...
    • 3月前
  • 动量(Momentum):在物理学中,动量是物体质量与速度的乘积,是一个矢量。在机器学习和深度学习的优化算法中,动量是一种常用的技术,模拟了物体运动时的惯性。以随机梯度下降(SGD)算法为例,加入动量后,每次更新参数时不仅考虑当前的梯度,还会考虑...
    • 3月前
  • 在 Windows 系统上使用 Docker 部署 Milvus 可以按照以下步骤进行: 安装 Docker Desktop for Windows 确保的 Windows 系统满足 Docker Desktop 的要求(例如 Window...
    • 3月前
  • Conda 是一个强大的包和环境管理工具,常用于管理 Python 环境。以下是一些 Conda 环境的基本命令: 1. 创建新环境 conda create --name <环境名称> python=<Python版本>...
    • 3月前
  • 1. 解决方法 打开powershell执行 wsl --shutdown gpupdate /force 2. 为什么 gpupdate /force命令在Windows系统中用于强制刷新组策略设置。 这个命令会立即应用所有新的或更改过...
    • 3月前