Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >jenkins报错 Upgrading Jenkins. Failed to update the default Update Site ‘default’

jenkins报错 Upgrading Jenkins. Failed to update the default Update Site ‘default’

作者头像
Java架构师历程
发布于 2020-04-21 07:07:42
发布于 2020-04-21 07:07:42
2.1K00
代码可运行
举报
文章被收录于专栏:Java架构师历程Java架构师历程
运行总次数:0
代码可运行

6 次查看

解决方案:

jenkins\hudson.model.UpdateCenter.xml 文件,

将 url 中的 https://updates.jenkins.io/update-center.json 更改为

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
http://updates.jenkins.io/update-center.json

即去掉 https 中的 s 。

或者更改为

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
 https://mirrors.tuna.tsinghua.edu.cn/jenkins/updates/update-center.json

解决:安装Jenkins时web界面出现该jenkins实例似乎已离线

很久没有安装jenkins了,因为之前用的的服务器一直正常使用,令人郁闷的是,之前用jenkins一直没出过这个问题。

令人更郁闷的是,我尝试了好多个历史版本和最新版本,甚至从之前的服务器把jenkins在跑的程序打包copy这个服务器。终究还是不行。

启动时候,提示:该jenkins实例似乎已离线

可以说是非常坑!!!!!!!!!!!!!!!!!!!!!!!!!!!!

虽然可以离线安装,但是对于博主来说不解决怎么行呢?经过一番踩坑与资料查找终于解决了,这里与大家分享一下:

问题如图下所示:

解决上述问题方法:

1)    修改/var/lib/jenkins/updates/default.json

jenkins在下载插件之前会先检查网络连接,其会读取这个文件中的网址。默认是:

访问谷歌,这就很坑了,得不说jenkins的开发者脑子锈了,所以将图下的google改为www.baidu.com即可,更改完重启服务。

2)    修改/var/lib/jenkins/hudson.model.UpdateCenter.xml

该文件为jenkins下载插件的源地址,改地址默认jenkins默认为:https://updates.jenkins.io/update-center.json,就是因为https的问题,此处我们将其改为http即可,之后重启jenkins服务即可。

其他国内备用地址(也可以选择使用):

https://mirrors.tuna.tsinghua.edu.cn/jenkins/updates/update-center.json

http://mirror.esuni.jp/jenkins/updates/update-center.json

在修复完之后,我们发现离线问题已经解决,如图下所示:

这样我们就可以愉快地安装插件了。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020年4月17日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
「文生图」再升级!学习个性化参照,无限生成多样图片,轻松设计玩具建筑
最近,来自南加州大学、哈佛大学等机构的研究团队提出了一种全新的基于提示学习的方法——DreamDistribution。
新智元
2024/01/17
2320
「文生图」再升级!学习个性化参照,无限生成多样图片,轻松设计玩具建筑
DiT架构大一统:一个框架集成图像、视频、音频和3D生成,可编辑、能试玩
今年 2 月初,Sora 的发布让 AI 社区更加看到了基础扩散模型的潜力。连同以往出现的 Stable Diffusion、PixArt-α 和 PixArt-Σ,这些模型在生成真实图像和视频方面取得了显著的成功。这意味着开始了从经典 U-Net 架构到基于 Transformer 的扩散主干架构的范式转变。
机器之心
2024/05/14
9980
DiT架构大一统:一个框架集成图像、视频、音频和3D生成,可编辑、能试玩
Meta-LoRA:引入结构化三层架构实现身份个性化,在身份保留与效率上表现优异!
近年来,文本到图像生成模型取得了显著进展,展现出从文本 Prompt 编码生成高质量图像的卓越能力[22]。其中,潜在扩散模型(LDMs)[15,21,23,28]被证明特别有效,利用深度学习在潜在空间中迭代优化图像。然而,从单张或少量图像中实现身份个性化——即生成准确捕捉特定主体形象且保持泛化能力的图像——仍然是一个重大挑战[36]。
AIGC 先锋科技
2025/06/09
710
Meta-LoRA:引入结构化三层架构实现身份个性化,在身份保留与效率上表现优异!
北大和港科技提出 DiT4Edit, 用于图像编辑的扩散变换器 (Diffusion Transformer) !
近年来,扩散模型的最新进展在文本驱动的视觉生成领域取得了显著的进步。例如,Stable Diffusion(SD) 、DALL-E 3 和PixArt[2]等文本到图像(T2I)模型的开发,对许多下游应用产生了重大影响,其中图像编辑是最具挑战性的任务之一。对于合成或真实输入图像,图像编辑算法旨在根据用户的意图,添加、删除或替换整个目标或目标属性。
AIGC 先锋科技
2024/12/03
3330
北大和港科技提出 DiT4Edit, 用于图像编辑的扩散变换器 (Diffusion Transformer) !
从图像到语言:图像标题生成与描述
对图像中的视觉内容进行归纳和总结,并使用合适的词汇与合理的语法结构将其重新组织并表达出来,是图像标题生成与描述的主要研究内容。 如图 1 所示,首先对图像中的视觉内容进行解析,将其转换成视觉语义编码,然后根据编码内容进行解码,将其映射到语言空间中,生成相关词汇,并组合成用词准确、结构合理的自然语言。 本节围绕该基本框架,从视觉特征提取、视觉语义选择和模型设计与优化等方面,介绍当前流行的方法和模型架。
苏州程序大白
2021/08/13
1.9K0
从图像到语言:图像标题生成与描述
构建自己的ChatGPT:从零开始构建个性化语言模型
在本篇博客中,我们将探讨如何构建自己的ChatGPT(Generative Pre-trained Transformer),这是一种个性化语言模型,能够自动生成人类类似的文本内容。我们将逐步介绍了解ChatGPT和自然语言处理基础、构建ChatGPT之前的准备、数据收集和预处理、搭建ChatGPT模型、模型训练与优化、测试和评估、以及个性化语言模型的应用。同时,我们还将深入讨论面临的挑战,并提供相应的解决方案。最后,我们将展望个性化语言模型的未来发展方向。
猫头虎
2024/04/08
1.2K0
构建自己的ChatGPT:从零开始构建个性化语言模型
GroundiT:利用 Diffusion Transformers实现精确无训练空间定位,实现 SOTA 性能 !
Transformer架构[45]在各种应用中推动了突破,其中扩散模型成为近期的重要受益者。尽管U-Net[42]作为去噪 Backbone [22; 43; 41; 39]的成功,但近期基于 Transformer 的扩散模型,如 Diffusion Transformers(DiT)[37],在性能上又取得了新的飞跃。这一点由最近的生成模型,如Stable Diffusion 3[13]和Sora[6]得到证明。开源模型如DiT[37]及其文本引导的后续者PixArt-[8]相较于先前的U-Net基于的扩散模型,质量也有所提高。考虑到Transformer的可扩展性,Diffusion Transformers预计将成为图像生成的新的标准,尤其是在互联网规模的数据集上进行训练时。
AIGC 先锋科技
2024/12/03
2350
GroundiT:利用 Diffusion Transformers实现精确无训练空间定位,实现 SOTA 性能 !
Transformer再胜Diffusion!谷歌发布新一代文本-图像生成模型Muse:生成效率提升十倍
---- 新智元报道   编辑:LRS 【新智元导读】谷歌带着更强大的图像生成模型来了,依然Transformer! 最近谷歌又发布了全新的文本-图像生成Muse模型,没有采用当下大火的扩散(diffusion)模型,而是采用了经典的Transformer模型就实现了最先进的图像生成性能,相比扩散或自回归(autoregressive)模型,Muse模型的效率也提升非常多。 论文链接:https://arxiv.org/pdf/2301.00704.pdf 项目链接:https://muse-mod
新智元
2023/02/24
8710
Transformer再胜Diffusion!谷歌发布新一代文本-图像生成模型Muse:生成效率提升十倍
让多视角图像生成更轻松!北航和VAST推出MV-Adapter
本文的主要作者来自北京航空航天大学、VAST 和上海交通大学。本文的第一作者为北京航空航天大学硕士生黄泽桓,主要研究方向为生成式人工智能和三维视觉。本文的通讯作者为 VAST 首席科学家曹炎培和北京航空航天大学副教授盛律。
机器之心
2025/02/14
1970
让多视角图像生成更轻松!北航和VAST推出MV-Adapter
拳打开源SOTA脚踢商业闭源的LI-DiT是怎样炼成的?(商汤/MMLab/上海AI Lab)
仅基于解码器的 Transformer 的大语言模型(LLMs)与 CLIP 和 T5 系列模型相比,已经展示出卓越的文本理解能力。然而,在文本到图像扩散模型中利用当前先进的大语言模型的范例仍有待探索。本文观察到一个不寻常的现象:直接使用大语言模型作为提示编码器会显著降低图像生成中遵循提示的能力。本文发现了这个问题背后的两个主要障碍:一个是大语言模型中下一token预测训练与扩散模型中对有区别性的提示特征的要求之间的不一致;另一个是仅解码器架构引入的内在位置偏差。为了解决这个问题,本文提出了一个新颖的框架来充分利用大语言模型的能力。通过精心设计的使用指南,有效地增强了用于提示编码的文本表示能力,并消除了其内在的位置偏差。这使得能够灵活地将最先进的大语言模型集成到文本到图像生成模型中。
AIWalker
2024/06/26
2630
拳打开源SOTA脚踢商业闭源的LI-DiT是怎样炼成的?(商汤/MMLab/上海AI Lab)
字节首次公开图像生成基模技术细节!数据处理到RLHF全流程披露
就在今天,字节豆包大模型团队在 arxiv 上发布了一篇技术报告,完整公开了文生图模型技术细节,涵盖数据处理、预训练、RLHF 在内的后训练等全流程模型构建方法,也详细披露了此前大火的文字精准渲染能力如何炼成。
机器之心
2025/03/13
1370
字节首次公开图像生成基模技术细节!数据处理到RLHF全流程披露
基于DiT,支持4K图像生成,华为诺亚0.6B文生图模型PixArt-Σ来了
众所周知,开发顶级的文生图(T2I)模型需要大量资源,因此资源有限的个人研究者基本都不可能承担得起,这也成为了 AIGC(人工智能内容生成)社区创新的一大阻碍。同时随着时间的推移,AIGC 社区又能获得持续更新的、更高质量的数据集和更先进的算法。
机器之心
2024/03/18
2580
基于DiT,支持4K图像生成,华为诺亚0.6B文生图模型PixArt-Σ来了
无需训练的个性化分割Everything模型,可与文本提示联动(附源代码)
大数据预训练的驱动下,Segment Anything Model(SAM)已被证明是一个强大的可提示框架,彻底改变了分割领域。尽管具有普遍性,但在没有人工提示的情况下为特定视觉概念定制SAM的探索不足,例如,在大量图像中自动分割你的宠物狗。
计算机视觉研究院
2023/10/23
5290
无需训练的个性化分割Everything模型,可与文本提示联动(附源代码)
Step-Video-T2V:全球最强开源视频生成
目前阶跃已经成为行业内公认的内卷王之一。其覆盖的领域包含了语音、图片、视频理解和生成等。就在2月中,其就发布了Step-Video-T2V,号称全球最强的开源视频模型。同时一经发布,就已经上线官网,目前所有用户都可以注册进行免费使用,感兴趣的可以来到这个网站进行尝试:
算法一只狗
2025/03/20
2770
Sora 与文本到视频生成,探索通用人工智能的里程碑与挑战!
近期在AI生成内容(AIGC)领域的快速发展标志着向实现人工通用智能(AGI)迈出的关键一步,特别是继OpenAI在2023年初推出大型语言模型(LLM)GPT-4之后。AIGC 吸引了学术界和工业界的广泛关注,例如基于LLM的对话代理ChatGPT[1],以及文本转图像(T2I)模型如DALLLE[2],Midjourney[3]和Stable Diffusion[4]。这些成果对文本转视频(T2V)领域产生了重大影响,OpenAI的Sora[5]在图1中展示的出色能力便是例证。
AIGC 先锋科技
2024/07/08
3460
Sora 与文本到视频生成,探索通用人工智能的里程碑与挑战!
混元视频:大型视频生成模型的系统框架
视频生成技术的最新进展极大地改变了个人与行业日常生活的面貌。然而,主流的视频生成模型仍为闭源,导致行业与公众社区在视频生成能力上存在显著的性能差异。在本报告中,我们提出了HunyuanVideo,这是一种新型开源视频基础模型,其视频生成性能可与主流闭源模型相媲美,甚至更优。HunyuanVideo具有一个综合框架,整合了多项关键贡献,包括数据整理、先进架构设计、渐进式模型缩放与训练,以及为大规模模型训练和推理设计的高效基础设施。凭借这些,我们成功训练了一个参数超过130亿的视频生成模型,成为所有开源模型中的最大模型。我们进行了广泛的实验并实施了一系列有针对性的设计,以确保高视觉质量、运动动态、文本-视频对齐和先进的拍摄技术。根据专业人工评价结果,HunyuanVideo的性能优于先前的最先进模型,包括Runway Gen-3、Luma 1.6和3个表现最佳的中国视频生成模型。通过发布基础模型及其应用的代码,我们旨在弥合闭源与开源社区之间的鸿沟。这一举措将使社区中的每个人都能够对自己的想法进行实验,从而培育一个更具活力和动态的视频生成生态系统。代码已公开发布在https://github.com/Tencent/HunyuanVideo。
AI浩
2024/12/19
5110
混元视频:大型视频生成模型的系统框架
CVPR 2025 | 如何稳定且高效地生成个性化的多人图像?ID-Patch带来新解法
扩散模型(Diffusion Models, DMs)如今已成为文本生成图像的核心引擎。凭借惊艳的图像生成能力,它们正悄然改变着艺术创作、广告设计、乃至社交媒体内容的生产方式。如今,只需一段文字,就能生成一张极具风格的个性化头像,已经不再稀奇。
机器之心
2025/05/04
930
CVPR 2025 | 如何稳定且高效地生成个性化的多人图像?ID-Patch带来新解法
CVPR2025|MCA-Ctrl:多方协同注意力控制助力AIGC时代图像精准定制化
近年来,生成式人工智能(Generative AI)技术的突破性进展,特别是文本到图像 T2I 生成模型的快速发展,已经使 AI 系统能够根据用户输入的文本提示(prompt)生成高度逼真的图像。从早期的 DALL・E 到 Stable Diffusion、Midjourney 等模型,这一领域的技术迭代呈现出加速发展的态势。
机器之心
2025/05/13
1970
CVPR2025|MCA-Ctrl:多方协同注意力控制助力AIGC时代图像精准定制化
ECCV2022 | 生成对抗网络GAN论文汇总(图像转换-图像编辑-图像修复-少样本生成-3D等)
图像转换/图像可控编辑 视频生成 少样本生成 图像外修复/结合transformer GAN改进 新数据集 图像增强 3D 图像来源归属分析 一、图像转换/图像可控编辑 1、VecGAN: Image-to-Image Translation with Interpretable Latent Directions 提出VecGAN,图像到图像的转换方法,用于具有可解释的潜在方向的人脸属性编辑。人脸属性编辑任务面临着强度可控的精确属性编辑和保留图像其它非目标属性的挑战。为此,通过潜在空间分解来设计属性编辑,
公众号机器学习与AI生成创作
2022/10/31
1.8K0
ECCV2022 | 生成对抗网络GAN论文汇总(图像转换-图像编辑-图像修复-少样本生成-3D等)
Tailored Visions:利用个性化提示重写增强文本到图像生成
当前,我们正在通过自监督学习的方式来训练越来越强大的基础模型。这些大型预训练模型(LPM)充当高效的压缩器,压缩大量互联网数据。这种压缩使得我们可以通过自然语言描述方便地提取这些模型中编码的知识。尽管还处于起步阶段,但这种方法显示出超越传统搜索引擎的潜力,成为知识和信息获取的优质来源。与改进搜索引擎的查询类似,提供给LPM的提示(Prompt)也必须精心设计。然而,与传统搜索引擎相比,提示的复杂性、模型响应的不可预测性带来了独特的挑战。为了理解LPM如何对各种提示做出反应,一些研究检验了重写提示以提高特异性的可行性。然而,在无法访问用户个人数据和行为的情况下,定制提示以准确满足用户的需求仍然具有挑战性。
用户1324186
2023/12/20
2580
Tailored Visions:利用个性化提示重写增强文本到图像生成
推荐阅读
「文生图」再升级!学习个性化参照,无限生成多样图片,轻松设计玩具建筑
2320
DiT架构大一统:一个框架集成图像、视频、音频和3D生成,可编辑、能试玩
9980
Meta-LoRA:引入结构化三层架构实现身份个性化,在身份保留与效率上表现优异!
710
北大和港科技提出 DiT4Edit, 用于图像编辑的扩散变换器 (Diffusion Transformer) !
3330
从图像到语言:图像标题生成与描述
1.9K0
构建自己的ChatGPT:从零开始构建个性化语言模型
1.2K0
GroundiT:利用 Diffusion Transformers实现精确无训练空间定位,实现 SOTA 性能 !
2350
Transformer再胜Diffusion!谷歌发布新一代文本-图像生成模型Muse:生成效率提升十倍
8710
让多视角图像生成更轻松!北航和VAST推出MV-Adapter
1970
拳打开源SOTA脚踢商业闭源的LI-DiT是怎样炼成的?(商汤/MMLab/上海AI Lab)
2630
字节首次公开图像生成基模技术细节!数据处理到RLHF全流程披露
1370
基于DiT,支持4K图像生成,华为诺亚0.6B文生图模型PixArt-Σ来了
2580
无需训练的个性化分割Everything模型,可与文本提示联动(附源代码)
5290
Step-Video-T2V:全球最强开源视频生成
2770
Sora 与文本到视频生成,探索通用人工智能的里程碑与挑战!
3460
混元视频:大型视频生成模型的系统框架
5110
CVPR 2025 | 如何稳定且高效地生成个性化的多人图像?ID-Patch带来新解法
930
CVPR2025|MCA-Ctrl:多方协同注意力控制助力AIGC时代图像精准定制化
1970
ECCV2022 | 生成对抗网络GAN论文汇总(图像转换-图像编辑-图像修复-少样本生成-3D等)
1.8K0
Tailored Visions:利用个性化提示重写增强文本到图像生成
2580
相关推荐
「文生图」再升级!学习个性化参照,无限生成多样图片,轻松设计玩具建筑
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验