首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏总栏目

    Stable Sort

    In the second line, print the stability (“Stable” or “Not stable”) of this output. In the fourth line, print the stability (“Stable” or “Not stable”) of this output. H4 C9 Not stable Sample Input 2 2 S1 H1 Sample Output 2 S1 H1 Stable S1 H1 Stable Meaning 题目的意思是要求我们用冒泡排序和选择排序来对一副扑克牌进行排序 " << endl;//冒泡排序得到的结论总是稳定的 Print(c2, n); bool bl=Stable(c1, c2, n); if (bl) cout<<endl << "Stable 协议进行授权 转载请注明原文链接:Stable Sort

    26620编辑于 2022-09-05
  • Stable Diffusion简介

    Stable Diffusion是一种用于图像生成的模型,它可以生成高质量的图像。下面我将逐个介绍。 1. Stable Diffusion是一种基于概率的生成模型,它通过学习数据的概率分布来生成新的样本。与传统的生成模型相比,Stable Diffusion具有更好的稳定性和生成效果。 Stable Diffusion在生活和实践中有着广泛的应用。例如,在图像修复领域,我们可以使用Stable Diffusion来修复受损的图像,将模糊、噪声或缺失的部分恢复为清晰的图像。 此外,Stable Diffusion还可以用于图像合成、图像增强和图像生成等任务。例如,我们可以使用Stable Diffusion生成逼真的艺术作品、虚拟场景或者人脸图像。 4. Stable Diffusion作为一种生成模型,具有广阔的发展前景。随着计算机硬件的不断进步和深度学习算法的不断发展,Stable Diffusion可以生成更高质量、更逼真的图像。

    29710编辑于 2025-12-16
  • 来自专栏Java项目实战

    Stable Diffusion简介

    Stable Diffusion 是一种用于图像生成的人工智能技术。它可以根据文本描述生成相应的图像。Stable Diffusion 是基于 Transformer 语言模型的开源技术。 Stable Diffusion 的主要特点有:开源。代码和模型都在 MIT 许可下开源,可以自由使用和修改。高质量。生成的图像质量比较高,细节丰富,色彩鲜艳。速度快。 Stable Diffusion 使用 CLIP model 来建立图像和文本描述之间的关联,从而实现根据文本生成图像的功能。 得到训练好的 Stable Diffusion 模型,可以输入文本描述并生成匹配的图像。 Stable Diffusion以其高质量的图像生成能力受到广泛关注。它代表了深度学习在创作领域的最新进展,具有广阔的应用前景。

    2.1K20编辑于 2023-06-25
  • 来自专栏xiaosen

    Stable Diffusion AI绘画

    随着深度学习技术的飞速发展,一种名为Stable Diffusion的新型生成模型引起了广泛关注。 Stable Diffusion是一种基于概率的生成模型,它可以学习数据的潜在分布,并生成与训练数据相似的新样本。  Stable Diffusion是基于连续扩散过程的一种生成模型。 具体来说,Stable Diffusion将数据生成过程分解为一系列离散的时间步,每个时间步都对应一个条件概率分布。 关于DPM算法:这是我们在stable diffusion用的最多的方法,我们按照时间速度来筛选的话,我们直接选择DPM++ 且后面跟着Karras的算法就可以了。 我们还可以选择Stable Diffusion新版本增加的Unipc和Restart采样器。

    65810编辑于 2024-05-06
  • 来自专栏GoCoding

    Stable Diffusion WebUI 环境

    Stable Diffusion 是热门的文本到图像的生成扩散模型,本文介绍了如何准备其 WebUI 环境。 Stability AI[1] Stability API Extension for Automatic1111 WebUI[2] Stable Diffusion web UI[3] 环境基础 OS __version__, torch.cuda.is_available()) EOF 2.0.1 True Stable Diffusion WebUI 获取代码 sudo apt install .safetensors $SDWEBUI/models/Stable-diffusion/ mv dreamshaper_6BakedVae.safetensors $SDWEBUI/models/Stable-diffusion /webui.sh webui-user.sh 可配置指定的 Stable Diffusion 版本等,默认值见 $SDWEBUI/modules/launch_utils.py。

    1.1K20编辑于 2023-08-26
  • 来自专栏周末程序猿

    ChatGPT|Stable Diffusion实践

    最近根据文字输入生成图片很火,其技术是基于Stable Diffusion技术框架,Stable Diffusion的发布是AI图像生成发展过程中的一个里程碑,相当于给大众提供了一个可用的高性能模型,不仅生成的图像质量非常高 Stable Diffusion从功能上来说主要包括两方面: 1)其核心功能为仅根据文本提示作为输入来生成的图像(text2img); 2)你也可以用它对图像根据文字描述进行修改(即输入为文本+图像);

    69820编辑于 2023-04-17
  • 来自专栏小孟开发笔记

    stable diffusion汉化教程

    二、下载汉化包 stable-diffusion-webui-localization-zh_CN汉化包 将压缩包解压,找到localizations目录下的zh_CN.json文件,把它放到<stable 以上就是stable diffusion汉化教程了,希望对你有用,谢谢。

    1.5K20编辑于 2023-10-13
  • 来自专栏大龄程序员的人工智能之路

    Stable Diffusion 2.0 来了

    Stable Diffusion 一经发布,就立刻在业界掀起巨大的波浪。 我个人后知后觉,直到 Stable Diffusion V1.4 版本发布,才接触 Stable Diffusion (之前使用的是 Disco Diffusion)。 下面是使用 Stable Diffusion 2.0 生成的图像示例,图像分辨率为 768x768。 超分辨率 Upscaler 扩散模型 Stable Diffusion 2.0 还包括一个 Upscaler Diffusion 模型,该模型将图像的分辨率提高了 4 倍。 当然,现在可以一步到位,Stable Diffusion 2.0 可以生成分辨率为 2048x2048 甚至更高的图像。

    2.1K30编辑于 2023-02-27
  • 来自专栏崔哥的专栏

    Stable Diffusion 姓氏头像

    vae-ft-mse-840000-ema-pruned.safetensors, MR 3DQ 1.5版本 V2, Sampler: DPM++ 2M Karras, CFG scale: 7 然后粘贴到Stable

    36310编辑于 2024-04-21
  • 来自专栏程序那些事

    Stable Diffusion中的embedding

    Stable Diffusion中的embedding嵌入,也称为文本反转,是在 Stable Diffusion 中控制图像样式的另一种方法。 你需要把这些embedding文件放到Stable diffusion webUI根目录下面的embeddings文件夹,然后重启Stable diffusion webUI即可。 embedding:embedding、dreambooth 和hypernetwork的区别文本反转(Textual Inversion)、Dreambooth 和超网络 是三种不同的技术,它们都可以用于微调Stable

    55320编辑于 2024-04-25
  • 来自专栏CSDNToQQCode

    Stable Diffusion——外挂VAE模型

    Stable Diffusion 是一种基于变分自编码器(VAE)的深度学习模型,其作用主要是用于文本生成图像。 Stable Diffusion 的 VAE 模型在训练过程中会学习到一组潜在变量,这些潜在变量可以捕捉到图像中丰富的语义和结构信息。 这种基于文本生成的图像具有很高的稳定性和可复现性,因此得名“Stable Diffusion”。 总的来说,Stable Diffusion VAE 模型的作用是通过学习潜在表示空间,将文本表示转化为图像,从而实现高质量、稳定且可复现的文本生成图像任务。

    2.9K10编辑于 2023-12-25
  • stable diffusion 安装教程详解

    安装和使用stable diffusion 教程(整合包与自己手动两种方法) 1、硬件要求: 有N卡的电脑。N卡指的整合包安装是NVIDIA显卡,最好在6G以上,已知16xx系列现在还不支持。 手动安装 3.1、点击网站https://github.com/AUTOMATIC1111/stable-diffusion-webui。 3.3、注册账号后,进入(CompVis/stable-diffusion-v-1-4-original at main)界面,下载名字为:”sd-v1-4.ckpt“的文件,大小4.27G,这是Stable 3.4、将下载好的“sd-v1-4.ckpt”文件,放入3.1步骤下载好的文件 stable-diffusion-webui目录下的model文件夹中。 3.5、点击 stable-diffusion-webui目录下webui-user.bat文件,开始运行安装,等待,假如有报错(大概率是网络问题),关掉重开。

    87910编辑于 2025-12-16
  • 来自专栏人工智能领域

    Stable Diffusion 本地部署教程

    Stable Diffusion 是一种用于在图像和视频处理中进行几何变换的技术。它可以应用于各种图像处理任务,如图像去噪、图像增强、图像对齐等。 Stable Diffusion 通过应用扩散过程来实现图像的平滑处理,并且保持图像边缘的稳定性。 要在本地搭建 Stable Diffusion,您需要按照以下步骤进行操作: 确保您的计算机上已经安装了以下软件和工具: Python 3.x pip(Python 包管理工具) PostgreSQL( 数据库) 下载 Stable Diffusion 的源代码。 您可以从 Stable Diffusion 的官方网站或 GitHub 上下载代码,或者使用 Git 克隆整个仓库到您的计算机上。 在命令行中导航到 Stable Diffusion 代码的根目录。

    61910编辑于 2024-12-18
  • 来自专栏小义思

    AutoDL云部署Stable Diffusion

    通过云平台部署Stable Diffusion工具,解决普通人电脑配置低、不懂魔法等痛点,轻松实现AI绘画 1.账号注册 AutoDL地址https://www.autodl.com/. masterJohn大佬也会经常更新镜像,分享stable diffusion的最新模型和最新玩法,方便大家快速入手。 Jupyterlab按钮,再次点击,跳转到下面的程序页面,双击"启动器.ipynb"文件,按照文件说明启动程序即可 启动成功后,回到实例列表页,点击自定义服务,在弹窗中点击访问 在新标签页,可以看到我们已经打开stable-diffusion-webui 界面了,接下来就可以愉快画画了 4.上传模型 stable diffusion的模型文件一般都比较大,实例的50G容量根本放不太多,建议通过阿里云盘上传 点击列表页中的autoPanel,在弹出的页面中选择公网网盘

    90510编辑于 2024-04-10
  • 来自专栏Debian中国

    Nginx 发布 Stable Version 1.12.0

    Nginx 1.11 历经 11 个月 14 个小版本的开发,加入了大量新特性,今天发布了稳定版 1.12.0. Nginx 1.12.0 相比 1.10.0,增加了众多重要特性,其中最重要的是 stream 的众多模块以及 http 模块的大量新功能:

    54530发布于 2018-12-20
  • 来自专栏数据仓库技术

    Mac 本地部署Stable Diffusion

    Stable Diffusion 官网给出了mac系统的安装步骤,中间遇到些问题,不过整体比较顺利。 官网安装说明:https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Installation-on-Apple-Silicon#downloading-stable-diffusion-models /768-v-ema.ckpt下载完成之后将模型文件放到“stable-diffusion-webui/models/Stable-diffusion/”下,将768-v-ema.ckpt 改为 768 /models/Stable-diffusion/"目录下面。 pip deactivate 回到stable-diffusion-webui 目录下,再次执行 .

    2.6K10编辑于 2024-01-08
  • 来自专栏CSDNToQQCode

    Stable Diffusion——Adetailer面部处理

    GitHub - Bing-su/adetailer: Auto detecting, masking and inpainting with detection model.

    77910编辑于 2023-12-03
  • 来自专栏code-x

    stable-diffusion AI 绘画

    git clone https://github.com/CompVis/stable-diffusion.git进入stable-diffusion目录在这里注册一个账号: https://huggingface.co blog.csdn.net/qq_35930739/article/details/128167167pip install torch -f https://download.pytorch.org/whl/torch_stable.htmlpip import StableDiffusionPipelineimport torchif __name__ == '__main__': # https://github.com/CompVis/stable-diffusion torch.backends.cudnn.enabled = True pipe = StableDiffusionPipeline.from_pretrained( "CompVis/stable-diffusion-v1

    43630编辑于 2023-07-10
  • 来自专栏数据派THU

    使用ControlNet 控制 Stable Diffusion

    import StableDiffusionControlNetPipeline, ControlNetModel, DPMSolverMultistepScheduler 初始化ControlNet和Stable torch_dtype=torch.float16 ) pipe = StableDiffusionControlNetPipeline.from_pretrained( "runwayml/stable-diffusion-v1 torch_dtype=torch.float16 ) pipe = StableDiffusionControlNetPipeline.from_pretrained( "runwayml/stable-diffusion-v1

    1.9K30编辑于 2023-04-18
  • 来自专栏算法一只狗

    Stable Diffusion用来生成视频

    因此本期介绍简单易上手的Stable Video Diffusion。它是由Stability AI发布的,一个基于图像模型稳定扩散的生成视频模型。

    55610编辑于 2024-10-01
领券