腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Huggingface Transformer -
GPT2
从保存的检查点恢复训练
、
、
、
、
恢复从run_clm.py实现的
GPT2
微调
GPT2
huggingface是否具有从保存的检查点恢复训练的参数,而不是从头开始再次训练?来源:here
微调
代码: !gpt-finetuned \ --per_device_train_batch_size 2 \ --save_steps 100 \ --
浏览 98
提问于2021-01-01
得票数 1
回答已采纳
1
回答
如何
微调
GPT2
我是huggingface的新手,我正在用我自己的数据集搜索关于
微调
GPT2
转换器的信息,但我找不到任何东西。我已经有了我的数据集并下载了
GPT2
模型。 我该怎么做,我该怎么开始呢?
浏览 86
提问于2021-11-23
得票数 1
回答已采纳
1
回答
使用用户提供的关键字生成文本
、
、
、
、
用户输入:区域:中东解决方案: BigPanda好处:降低成本和运行时了解{中东的{数据科学家}(如{UAE} )
如何
使用我认为这是可能的一种方法是使用GPT-2模型,也许用dataset对其进行细化,但我还没有弄清楚我将
如何
将它用于类似的事情。
浏览 0
提问于2020-05-23
得票数 2
2
回答
Huggin面对会话错误:错误:参数-模型:无效选择:‘model/’(从'openai-gpt',‘
gpt2
’中选择)
、
、
-dataset_path DATASET_PATH]interact.py: error: argument --model: invalid choice: 'models/' (choose from 'openai-gpt', '
gpt2
finetuned_chatbot_gpt.tar.gz models
浏览 2
提问于2020-03-01
得票数 1
2
回答
如何
生成一个精确N个单词的句子?
、
、
、
、
由于
GPT2
预先训练的模型,现在有可能产生有意义的单词序列,无论是否有前缀。然而,一个句子应该以一个恰当的结尾结束(.,!,?)。我只是想知道
如何
生成一个长度为N的句子(有适当的结尾)?
浏览 0
提问于2020-03-03
得票数 3
1
回答
JSONDecodeError:意外的utf-8BOM(使用UTF-8 -sig解码):行1列1(字符0) -调整gpt2.finetune时
、
、
希望你们都做得很好,我正在
微调
GPT2
模型以生成基于内容的标题,同时在它上工作,我已经创建了一个简单的CSV文件,其中只包含标题来训练模型,但是当输入这个模型到
GPT2
进行
微调
时,我得到了以下错误,JSONDecodeErrorline 1 column 1 (char 0) Below is my code for the above : import gpt_2_simple as
gpt2
浏览 19
提问于2021-05-19
得票数 0
2
回答
GPT2
/GPT3模型在小样本学习过程中的变化
、
、
在迁移学习期间,我们采用预先训练的网络和一些观察对(输入和标签),并使用这些数据通过反向传播来
微调
权重。然而,在一次/几次学习期间,根据这篇论文-“语言模型是少次学习”(),“没有执行梯度更新”。那么在一次/几次学习过程中,像
GPT2
和GPT3这样的模型发生了什么变化?
浏览 3
提问于2021-03-03
得票数 1
1
回答
拥抱面上的
GPT2
(移相器变压器) RuntimeError: grad只能为标量输出隐式创建
、
、
、
、
我正在尝试用我的自定义数据集
微调
gpt2
。我用拥抱式变压器的文档创建了一个基本的例子。我收到了上述错误。我知道它的意思:(基本上它是在非标量张量上向后调用),但是由于我几乎只使用API调用,所以我不知道
如何
解决这个问题。有什么建议吗?train_texts = data tokenizer = GPT2Tokenizer.from_pretrained('
gpt2
/logs', logging_steps=
浏览 5
提问于2020-09-16
得票数 2
回答已采纳
1
回答
在使用ONNX推理会话时,
如何
通过传递“标签”来获得语言建模损失?
、
、
、
、
当使用
GPT2
时,我们可以简单地传递'labels‘参数来获得损失,如下所示: import torchmodel = GPT2LMHeadModel.from_pretrained('
gpt2
', return_dictreturn_tensors="pt")
浏览 88
提问于2021-08-10
得票数 0
2
回答
AttributeError: GPT2Model对象没有属性“gradient_checkpointing”
、
、
、
我正试图加载一个
GPT2
微调
模型的瓶最初。model_gpt2.pt', map_location=torch.device('cpu')) app.modelgpt2tokenizer = GPT2Tokenizer.from_pretrained('
gpt2
,在_call_impl返回forward_call(*input,**kwargs)文件"/venv/lib/python3.8/site-packages/transformers
浏览 37
提问于2021-10-29
得票数 1
回答已采纳
1
回答
从哪里获取root用户的UUID?
、
feature_platform_search_hint = xy ]; then else
浏览 0
提问于2020-07-06
得票数 1
1
回答
GRUB找不到windows ESP
、
--hint-efi=hd0,
gpt2
--hint-baremetal=ahci0,
gpt2
insmod part-gptinsmod search_fs_uuidinsmod chaingrub> setcmdpath=(hd1,gpt
浏览 0
提问于2017-04-22
得票数 1
回答已采纳
1
回答
微调
GPT2
时库达内存不足
、
、
、
、
这是与错误有关的代码段:output_dir=
浏览 22
提问于2022-03-19
得票数 0
1
回答
GRUB设置地址内核在以下位置加载
在不使用链接器的情况下,
如何
更改GRUB尝试加载内核的地址?我想在GRUB配置文件中执行此操作。
浏览 10
提问于2020-03-20
得票数 0
1
回答
无法在Win10上运行tensorflow
、
我正在尝试在我的机器上运行
Gpt2
,我遵循以下指南:https://lambdalabs.com/blog/run-openais-new-gpt-2-text-generator-code-with-your-gpufrom tensorflow.python.pywrap_tensorflow_internal import * _pywrap_tensorflow_internal = sw
浏览 17
提问于2020-09-02
得票数 0
回答已采纳
1
回答
更新-grub导致计算机不启动?
、
、
我对
如何
解决这个问题有点糊涂,我的电脑实际上是无用的,而它却没有任何运行操作系统的方法。所以我需要一点帮助。提前感谢!
浏览 0
提问于2020-10-23
得票数 0
1
回答
为什么我的
微调
过的DistilGPT2模型没有生成新的行?
、
、
我目前正在尝试对DistilGPT-2 (使用Pytorch和HuggingFace转换器库)进行
微调
,以完成代码完成任务。<|endoftext|> 我的第一个尝试是从transformers库中运行以下script: python run_clm.py --model_name_or_path
浏览 54
提问于2020-12-04
得票数 1
1
回答
模型有利于长时间的答案生成,给定上下文和问题,以及哪些数据集最适合培训?
、
、
、
、
基本上,我试图创建一个上下文-需要的问题和长答案模型,我想知道什么样的模式最适合这样的任务,目前我倾向于T5,或GPT-NeoX-20B。另外,对于这样的任务,哪些数据集最适合,到目前为止,我已经看过CoQA和SQuAD,但没有一个提供详细的答案。
浏览 0
提问于2022-12-28
得票数 0
回答已采纳
2
回答
"ValueError:您必须指定input_ids或inputs_embeds“在培训AutoModelWithLMHead模型(GPT-2)时
、
、
、
我想
微调
AutoModelWithLMHead模型从,这是一个德国的GPT-2模式.我遵循了教程的预处理和
微调
。我已经为
微调
准备了一堆文字段落,但在开始训练时,我会收到以下错误: return forward_call(*input, **kwargs) File "GPT\lib\site-packages\transformers\models
浏览 7
提问于2022-01-04
得票数 0
回答已采纳
1
回答
Ubuntu20.04LTS无启动动画
、
、
、
grub_platform = xxen ]; then insmod xzio; insmod lzopio; fiinsmod ext2 search --no-floppy --fs-uuid --set=root --hint-bios=hd1,
gpt2
--hint-efi=hd1,
gpt2
--hint-baremetal=ahci1,
gpt2
浏览 0
提问于2020-11-02
得票数 1
点击加载更多
相关
资讯
如何使用内存微调大型语言模型 (LLM)
网站优化要如何微调,才可促进排名增长?
深度探索 DeepSeek 微调:LoRA 与全参数微调实战指南
使用LORA微调RoBERTa
微调GPT-4o AI模型新维度,OpenAI开放图片视觉微调功能
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券