首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >推开AI的门

推开AI的门

作者头像
白玉光
修改2026-02-09 18:02:33
修改2026-02-09 18:02:33
2130
举报
概述
当第一次体验到大模型带给你的惊喜时,你有没有想过,它到底是怎么思考的?你或许忙碌、疲惫,连思考“它是怎么思考的”都来不及去思考。可是在过去的很长时间里,模型参数、token、向量化、蒸馏、温度系数等层出不穷的新概念,不断地融入你的工作和生活,你也许已经习以为常,日用而不知。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.  你有没有想过
  • 2.  即便是十几年后
  • 3.  既不是神经也不是网络
    • 3.1.  输入层、隐藏层、输出层
    • 3.2.  正向传播
    • 3.3.  神经元
    • 3.4.  线性与非线性
    • 3.5.  激活函数与激活
    • 3.6.  权重和偏置
    • 3.7.  神经网络的参数
    • 3.8.  权重与参数、变量、数据
  • 4.  神经网络的学习
    • 4.1.  神经网络与矩阵运算
    • 4.2.  预测值、目标值、神经网络学习
    • 4.3.  照进神经网络的光
    • 4.4.  损失函数
    • 4.5.  什么是反向传播
    • 4.6.  反向传播在传播什么
    • 4.7.  权重更新策略
    • 4.8.  链式求导与连续性
    • 4.9.  梯度下降
  • 5.  初识大语言模型
    • 5.1.  大语言模型与神经网络
    • 5.2.  Token、分词
    • 5.3.  词表与词表大小
    • 5.4.  向量化和词嵌入
    • 5.5.  大模型的输出
    • 5.6.  Softmax与概率预测
    • 5.7.  概率与token映射
    • 5.8.  单标签与多分类
  • 6.  我的昨天在消失,明天不可知
    • 6.1.  上下文
    • 6.2.  循环神经网络
    • 6.3.  自注意力与Transformer
    • 6.4.  稀疏自注意力
  • 7.  大模型是怎么训练的
    • 7.1.  训练数据
    • 7.2.  超参数
    • 7.3.  批量(batch)
    • 7.4.  步长(step)
    • 7.5.  训练轮次
    • 7.6.  过拟合与欠拟合
    • 7.7.  监督学习和自监督学习
    • 7.8.  温度系数
    • 7.9.  蒸馏学习
  • 8.  AI浪潮下的基础设施
    • 8.1.  AI与区块链算力
    • 8.2.  GPU卡与CUDA
    • 8.3.  大模型并行计算
    • 8.4.  数据并行
    • 8.5.  模型并行
    • 8.6.  NCCL集合通信
    • 8.7.  GPU服务器内通信
    • 8.8.  GPU服务器间通信
  • 9.  大模型的使用
    • 9.1.  大模型的不足
    • 9.2.  Agent
    • 9.3.  MCP
    • 9.4.  RAG
    • 9.5.  A2A
  • 10.  结尾
  • 11.  广而告之
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档