腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
圈层
工具
返回腾讯云官网
AutoML(自动机器学习)
该专栏文章如果出现格式问题,可以去http://www.cnblogs.com/marsggbo/
专栏成员
举报
393
文章
665348
阅读量
58
订阅数
订阅专栏
申请加入专栏
全部文章(393)
编程算法(68)
机器学习(53)
python(49)
人工智能(36)
其他(30)
深度学习(28)
神经网络(26)
pytorch(20)
https(20)
网络安全(19)
html(18)
容器(16)
java(13)
github(13)
css(12)
git(12)
c++(11)
开源(11)
size(11)
tensorflow(10)
linux(10)
批量计算(10)
windows(10)
容器镜像服务(8)
footer(8)
模型(8)
图像处理(7)
kernel(7)
数据结构(7)
数据(7)
javascript(6)
ide(6)
存储(6)
图像识别(6)
padding(6)
sum(6)
php(5)
bash(5)
数据库(5)
网站(5)
http(5)
numpy(5)
面向对象编程(5)
对象存储(4)
json(4)
sql(4)
打包(4)
bash 指令(4)
ssh(4)
数据分析(4)
border(4)
center(4)
torch(4)
jquery(3)
apache(3)
serverless(3)
卷积神经网络(3)
强化学习(3)
markdown(3)
大数据(3)
特征工程(3)
app(3)
bit(3)
block(3)
com(3)
gpu(3)
latex(3)
matrix(3)
笔记(3)
函数(3)
集群(3)
连接(3)
论文(3)
权限(3)
数学(3)
学习笔记(3)
源码(3)
LLM(3)
官方文档(2)
NLP技术(2)
node.js(2)
云数据库 SQL Server(2)
django(2)
flask(2)
api(2)
unix(2)
ubuntu(2)
mapreduce(2)
文件存储(2)
VPN 连接(2)
自动化(2)
tcp/ip(2)
anaconda(2)
nat(2)
background(2)
binary(2)
config(2)
epoch(2)
label(2)
list(2)
model(2)
nas(2)
network(2)
position(2)
probability(2)
rgb(2)
root(2)
search(2)
self(2)
set(2)
shift(2)
框架(2)
命令行(2)
算法(2)
原理(2)
费用中心(1)
数据挖掘(1)
scala(1)
xml(1)
ajax(1)
qt(1)
matlab(1)
maven(1)
windows server(1)
centos(1)
SSL 证书(1)
腾讯云测试服务(1)
mongodb(1)
渲染(1)
分布式(1)
缓存(1)
html5(1)
jvm(1)
正则表达式(1)
gui(1)
决策树(1)
keras(1)
系统架构(1)
云计算(1)
分类算法(1)
unicode(1)
es(1)
ghost(1)
alpha(1)
apply(1)
apt(1)
attributeerror(1)
cell(1)
cjk(1)
class(1)
conda(1)
console(1)
cuda(1)
dataset(1)
debian(1)
directory(1)
double(1)
driver(1)
embedding(1)
encoding(1)
eval(1)
fonts(1)
frontend(1)
function(1)
gpt(1)
grammar(1)
graph(1)
grid(1)
height(1)
host(1)
huggingface-transformers(1)
import(1)
input(1)
layer(1)
ld(1)
lm(1)
map(1)
merge(1)
module(1)
mono(1)
nvidia(1)
openai(1)
output(1)
package(1)
partial(1)
patch(1)
path(1)
performance(1)
precision(1)
prompt(1)
random(1)
range(1)
rank(1)
sample(1)
server(1)
storage(1)
table(1)
tags(1)
templates(1)
tensor(1)
time(1)
title(1)
tools(1)
trace(1)
txt(1)
version(1)
wiki(1)
wikipedia(1)
word(1)
word2vec(1)
zsh(1)
编程(1)
变量(1)
编码(1)
表格(1)
插件(1)
登录(1)
队列(1)
多进程(1)
管理(1)
技巧(1)
计算机图形学(1)
教程(1)
镜像(1)
快捷键(1)
乱码(1)
内存(1)
入门(1)
视频(1)
数据类型(1)
搜索(1)
调试工具(1)
通信(1)
系统(1)
重定向(1)
终端(1)
搜索文章
搜索
搜索
关闭
NSCC集群使用笔记
笔记
登录
集群
镜像
连接
如果是 NUS,NTU 或者 ASTAR 的学生,可以直接用自己的学校 ID 登录。登录不上的话可以发邮件联系 nscc 工作人员即可,基本上第二天就会回复解决。
marsggbo
2024-06-10
200
0
Huggingface Transformers实现张量并行的小坑 set/get_output_embeddings
模型
lm
output
set
函数
transformers 库里实现的很多模型会有这么两个函数 get_output_embeddings和 get_output_embeddings。以 SwitchTransformer 为例
marsggbo
2024-05-07
353
0
Pytorch 如何使用 storage 实现参数 offload?
存储
pytorch
storage
内存
数据
在深入探讨 PyTorch 中的 Storage 类以及其在参数 offload 场景中的应用之前,让我们首先了解一下 PyTorch 和它的基础组件。PyTorch 是一个广泛使用的开源机器学习库,它不仅提供了强大的计算图功能和自动梯度计算,还允许开发者直接操作底层数据结构,这其中就包括 Storage。
marsggbo
2024-04-22
297
0
TACC 集群使用笔记
集群
数据
系统
笔记
队列
密码都正确之后你会进入到 login 节点,在这里千万不能随意执行大规模的计算任务,因为很有可能会被封号。你需要使用 compute 节点执行计算任务。
marsggbo
2024-04-11
252
0
大模型推理框架 vLLM 源码解析(二):Block 模块分配和管理
框架
模型
源码
block
管理
vLLM 的一个很大创新点是将物理层面的 GPU 和 CPU 可用内存切分成若干个 block,这样可以有效降低内存碎片化问题。具体而言,vLLM 的 block 分为逻辑层面(logical)和物理层面(physical),二者之间存在映射关系。下图很好解释了两个层面 block 的关系。
marsggbo
2024-03-24
2.6K
0
OpenAI 的视频生成大模型Sora的核心技术详解(一):Diffusion模型原理和代码详解
视频
数据
原理
openai
模型
简单理解,扩散模型如下图所示可以分成两部分,一个是 forward,另一个是 reverse 过程:
marsggbo
2024-02-23
572
0
大模型推理框架 vLLM 源码解析(一)
self
框架
模型
源码
prompt
执行命令:python run.py。该脚本会自动将模型以张量并行的方式在两个 GPU 上进行推理计算。
marsggbo
2024-02-05
2.4K
0
vllm 安装踩坑 (The NVIDIA driver on your system is too old)
driver
nvidia
torch
version
cuda
我尝试安装支持 cuda 11.7 的最新版本 torch==2.0.1,运行pip install -e .安装仍然会遇到上述问题。解决办法是修改 vllm 的安装配置文件:
marsggbo
2024-01-16
5K
0
IEEE 浮点数表示原理
https
com
原理
原文: https://zhuanlan.zhihu.com/p/144697348
marsggbo
2023-12-18
150
0
LLM 学习笔记-Deepspeed-MoE 论文
论文
数据
通信
学习笔记
LLM
论文 DeepSpeed-MoE: Advancing Mixture-of-Experts Inference and Training to Power Next-Generation AI Scale
marsggbo
2023-12-08
1.4K
0
AttributeError: module 'torch' has no attribute 'fx'解决办法
attributeerror
import
module
torch
marsggbo
2023-12-03
764
0
LLM 学习笔记-transformers库的 PreTrainedModel 和 ModelOutput 到底是什么?
config
模型
学习笔记
源码
LLM
前面已经介绍过了,ModelOutput是所有模型输出的基类。下面是其源码核心部分,一些具体实现代码删除了,不过不影响理解。
marsggbo
2023-12-03
2.7K
1
LLM 入门笔记-Tokenizer
笔记
入门
数据
算法
LLM
下图展示了完整的 tokenization 流程,接下来会对每个步骤做进一步的介绍。
marsggbo
2023-12-02
545
0
在Megatron-Deepspeed项目中如何下载和预处理Wikipedia数据集
json
root
wiki
wikipedia
数据
更详细的查看 https://github.com/marsggbo/Megatron-DeepSpeed/blob/main/tutorials/gpt2_wikipedia.md
marsggbo
2023-11-27
611
0
大模型训练过程中用到的 gpt_merge.txt和gpt_vocab.json是干什么用的?
json
gpt
merge
txt
模型
下面这边文章讲的非常清晰,原文链接:https://blog.csdn.net/ljp1919/article/details/113616226
marsggbo
2023-11-27
292
0
transformer模型训练、推理过程分析
double
模型
marsggbo
2023-10-09
632
0
c++中template的用法是什么?
c++
存储
编程
函数
数据类型
在C++中,template是一种通用编程工具,用于创建通用的函数或类。通过使用模板,可以编写可以应用于不同数据类型的函数或类,从而实现代码的重用性和灵活性。template的使用方法如下:
marsggbo
2023-08-10
2.6K
0
FlashAttention算法简介
block
range
size
torch
算法
不同硬件模块之间的带宽和存储空间有明显差异,例如下图中左边的三角图,最顶端的是GPU种的SRAM,它的容量非常小但是带宽非常大,以A100 GPU为例,它有108个流式多核处理器,每个处理器上的片上SRAM大小只有192KB,因此A100总共的SRAM大小是192KB\times\(108\)\approx20MB,但是其吞吐量能高达19TB/s。而A100 GPU HBM(High Bandwidth Memory也就是我们常说的GPU显存大小)大小在40GB~80GB左右,但是带宽只与1.5TB/s。 下图给出了标准的注意力机制的实现流程,可以看到因为HBM的大小更大,我们平时写pytorch代码的时候最常用到的就是HBM,所以对于HBM的读写操作非常频繁,而SRAM利用率反而不高。
marsggbo
2023-07-25
556
0
【转】一文看懂 LLaMA 中的旋转式位置编码(Rotary Position Embedding)
https
com
embedding
position
编码
原文:https://mp.weixin.qq.com/s/0peSNWN0ypMopPR0Q_pujQ
marsggbo
2023-07-20
488
0
Oh-my-zsh主题乱码解决办法
fonts
mono
zsh
乱码
终端
随后,我们终端偏好设置,在「描述文件 > 文本」中更改字体,字体可以选择 DejaVu Sans Mono for Powerline 字体(逮虾户!),大小设置为 14 磅。
marsggbo
2023-07-20
2.4K
0
点击加载更多
社区活动
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档