IIWAB 博客
  • 生成模型(Generative Models)在人工智能领域发展迅速,VAE(变分自编码器)、GAN(生成对抗网络)和Diffusion(扩散模型)是其中最具代表性的三种技术。 一、核心原理对比 1. VAE(变分自编码器) 核心思想:通过将输...
    • 16天前
  • 引言 人工智能技术的快速发展催生了一系列创新架构和协作机制,形成了复杂而强大的AI技术栈。从基础的API接口到高级的多智能体系统,这些技术组件相互协作、相互促进,共同构建了现代AI应用的技术基础。本报告深入探讨API、Function Call、...
    • 27天前
  • 在 PostgreSQL 中,执行 DELETE 语句后,磁盘空间并不会立即回收,而是会在后续的一些操作中逐步进行: VACUUM 操作:DELETE 操作实际上只是将被删除行标记为“已删除”,但这些行占用的空间仍然保留在表中,以便在需要时进行...
    • 1月前
  • 绝对位置编码 原理:为每个位置赋予一个唯一的编码向量,该向量与输入序列中的元素相结合,使模型能够区分不同位置的元素。例如,在正弦位置编码中,通过正弦和余弦函数计算不同位置的编码值。 优点 位置信息明确:能直接且明确地将每个位置的绝对信息传递给...
    • 1月前
  • ChatGPT强化学习主要包括以下步骤,涉及SFT模型、RM模型及PPO算法: 带监督的微调(SFT模型): 数据收集:选择一份提示列表,让一组人工标注人员写下预期的输出响应。提示来源包括标注人员或开发人员直接提供,以及从OpenAI的API...
    • 1月前
  • 基于生成文本的指标 困惑度(Perplexity) 原理:衡量语言模型对给定文本序列的预测能力,是对模型预测概率的几何平均倒数。困惑度越低,说明模型对文本的预测越准确,语言理解和生成能力越强。 1})的情况下预测单词(w_{i})的概率。 ...
    • 1月前
  • 语言模型的发展主要经历了以下四个阶段: 统计语言模型阶段:20世纪90年代,统计语言模型成为自然语言处理的主要技术。其核心思想是基于马尔可夫假设,通过统计语言序列中词与词之间的频率关系来预测下一个词的出现概率,通常使用固定长度的上下文窗口,如二...
    • 1月前
  • Unigram(一元模型) 定义:单个的词语或者符号。 示例:在句子“我爱自然语言处理”里,unigram 有“我”“爱”“自然”“语言”“处理”。 用途:可用于词频统计,像构建词袋模型就会用到。 Bigram(二元模型) 定义:由两个...
    • 1月前
  • 在PyTorch中,常见的梯度下降优化算法有多种: 随机梯度下降(SGD) 原理:每次使用一个样本进行梯度计算和参数更新。 优点:计算速度快,能够处理大规模数据集,容易实现。 缺点:梯度估计方差较大,导致收敛过程可能会有较大波动,有时需要较长时...
    • 1月前
  • 计算方式 批量梯度下降(BGD):每次更新参数时都使用整个训练数据集来计算梯度。具体来说,对于具有(m)个样本的训练集,其梯度计算是对所有样本的损失函数关于参数的偏导数求和,然后再根据梯度更新参数。 随机梯度下降(SGD):每次更新参数时只使用...
    • 1月前