首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏muller的测试分享

    文生大模型

    一年后的 2022 年 4 月 OpenAI 宣布了新版本的 DALL-E 2,这一版本具备更为强大的功能,并且在分辨率方便也提高了 4 倍。以下是 Dall-E 所具备的扩展的功能:图像生成。 os.path.join("img_" + datetime.datetime.now().strftime("%Y%m%d%H%M%S") + ".png")def test_image_normal(): # 文生 generate_image_path(), 'wb') as f: f.write(image_response.content)增加图像生成的条件def test_image_style(): # 文生 print(f"生成的第{i}张图片地址是:{image.url}")修改图像下载 img1.png 下载 img2.pngdef test_change_image(): # 将1 根据提示在2的标记上进行修改 response = client.images.edit( model="dall-e-2", image=open("img1.png

    54310编辑于 2024-11-07
  • 来自专栏刘旷专栏

    文生文生视频,AI行业卷疯了

    近几年,随着AIGC赋能多业态应用的加速落地,整个行业的热潮,已经逐渐从文生文、文生,转向了文生视频领域。 作为文生文、文生的升级,文生视频对算力以及模型的工程化能力要求更高。据了解,文生视频的人工智能模型参数为10亿级别至100亿级别。 文生文生视频的人工智能模型在底层技术框架上有着较高的相似性,一定程度上来说,文生视频可以看作是文生的进阶版技术,这也就意味着,文生的技术和经验可供文生视频加以运用和参考。 而众所周知,字节跳动、阿里、百度等玩家早已在文生领域有所深耕,甚至有的产品也已投入商用,凭借在文生技术上的积淀,其在文生视频领域也有望实现大幅进步。 只不过,目前国内文生视频技术还在发展的初级阶段,虽然看上去文生视频与文生的逻辑极其相似,但事实上,文生视频的难度要大得多,需要突破的瓶颈也有很多。

    64910编辑于 2023-12-26
  • 来自专栏前端数据可视化

    『SD』文生基础讲解

    本文将以初学者的角度,逐步讲解 SD 的文生功能,让你轻松上手 SD 的文生。 在此之前,你需要先安装好 SD WebUI。 什么是文生文生就是文生,字面意思。就是将文本提示词的内容转换成图片。 小学写的作文经常出现“看图写作”,现在使用 SD 就是先写作,然后让 AI 去画图。 举个例子,我把 Batch count(总批次数) 和 Batch size(单批数量)都设置成4。 Batch count(总批次数):每次生成一张图片,总共执行4次。 等于你点了4次生成按钮。 Batch size(单批数量):一次生成4张图片。 此时再生成一张图片就会以8:2的比例结合A和B去生成新。 关于 SD WebUI 文生的基础功能讲解就到这了。

    91810编辑于 2024-06-11
  • 来自专栏前端必修课

    DeepSeek 文生实战指南

    DeepSeek 作为新晋的 AI 助手,虽然在对话能力上表现出色,但并不直接支持图像生成功能。不过,通过本文介绍的方法,我们可以轻松突破这一限制,让 DeepSeek 秒变"画家"。

    86511编辑于 2025-03-07
  • 来自专栏AIOT

    在Jetson上玩转大模型Day4:SDW文生

    算法整合一个web界面,在https://github.com/AUTOMATIC1111/stable-diffusion-webui中发布,让我们可以在本地部署Stable Diffusion这项非常有趣的文生应用 不过目前的状态还不能真正执行,因为我们还没有可以执行文生功能的模型,不过执行的代码中已经嵌入了下载 。 如果有的话,我们就可以在Jetson Orin Nano上开始进行有趣的”AI文生”应用了。

    1.1K10编辑于 2024-10-24
  • 来自专栏腾讯技术工程官方号的专栏

    Sora的前世今生:从文生文生视频

    无论是文生还是文生视频,很多这方面的工作其实都可以看成是自编码器的进阶版本,让我们从自编码器开始入手。 这个结构先对图片进行卷积和池化,在U-net论文中是池化4次,比方说一开始的图片是224x224的,那么就会变成112x112,56x56,28x28,14x14四个不同尺寸的特征。 LDM文生(选读) 下面关于LDM的一些细节介绍,不感兴趣的同学可以直接跳过。 理解了latent的含义后,接下来再考虑下如何根据文本来生成图片呢? 用的就是 CoCa 的方法,也就是同时考虑对比损失和LM损失 模型推理策略 官方展示Sora的应用有很多,比如文生视频、生视频、视频反推、视频编辑、视频融合等。 不知道大家有没有注意到,Sora还提到了它除了文生视频,也支持文生,这里其实透露出了一种统一的味道。

    1.7K31编辑于 2024-02-23
  • 来自专栏GPUS开发者

    在Jetson上玩转大模型Day4:SDW文生

    算法整合一个web界面,在https://github.com/AUTOMATIC1111/stable-diffusion-webui中发布,让我们可以在本地部署Stable Diffusion这项非常有趣的文生应用 不过目前的状态还不能真正执行,因为我们还没有可以执行文生功能的模型,不过执行的代码中已经嵌入了下载 。 如果有的话,我们就可以在Jetson Orin Nano上开始进行有趣的”AI文生”应用了。

    61510编辑于 2024-10-25
  • 来自专栏个人总结系列

    ComfyUI搭建与文生运行

    二、文生模型运行1、模型下载如https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0 模型目录下载到指定目录gpt:~/llms_dir 00, 5.09it/s]Requested to load AutoencoderKLLoading 1 new modelPrompt executed in 102.37 seconds界面显示文生结果

    1.4K11编辑于 2024-08-06
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 “文生”战场上,自去年下半年开始,“Stable Diffusion 模型” 开始狂飙,不断产生效率的质变:生成图片的等待时间变的越来越少,生成图片的尺寸和质量越来越好,并且开始往移动端设备上扩展。 省略其他准备工作 # 初始化文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained width=512, height=512, output_type="pil", ) else: # 使用文生 即时的文生体验 不论我们是使用调整 Prompt 提示词文本,还是拖拽界面下面的参数,图片都会被快速的重新生成。如果你对参数还不是很了解,可以阅读文末的“AI Pipeline 参数概述”。

    1.1K10编辑于 2024-01-15
  • 来自专栏AI算法能力提高班

    ControlNet-图像控制文生模型

    有8个block是下采样或者上采样,其它17block包含4个resnet层和2个ViT层。每个ViT层包括self or cross注意力机制。 We use a tiny network E(·) of four convolution layers with 4 × 4 kernels and 2 × 2 strides (activated

    1.2K20编辑于 2023-09-13
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 “文生”战场上,自去年下半年开始,“Stable Diffusion 模型” 开始狂飙,不断产生效率的质变:生成图片的等待时间变的越来越少,生成图片的尺寸和质量越来越好,并且开始往移动端设备上扩展。 2023 年 5 月,Nvidia 发布了 “Key-Locked Lora” 方案,将 Lora 模型训练缩减到 4 分钟,每个模型只需要 100KB 大小,并在 SIGGRAPH 2023 发布,可惜代码尚未发布 省略其他准备工作 # 初始化文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained width=512, height=512, output_type="pil", ) else: # 使用文生

    1.4K10编辑于 2024-01-13
  • 来自专栏媒矿工厂

    草图指导的文生扩散模型

    sketch-guided-preprint.pdf 项目链接:https://sketch-guided-diffusion.github.io/ 作者:Andrey Voynov, Kfir Aberman等 内容整理:王寒 强大的文生预训练模型缺乏可以指导合成图像的空间属性的控制方法 草图指导的文生(Sketch-Guided Text-to-Image Synthesis) 在给定边缘e和提示词c的基础上,我们希望根据边缘获得具有较多细节的高分辨率图片。 潜在边缘预测器由 4 个全连接层组成,使用 ReLU 激活、批归一化,隐藏维度 512、256、128、64 ,输出维度 4。 去噪模型的特征取自网络中的 9 个不同层:输入块[第 2、4、8 层],中间块[第 0、1、2 层],输出块[第 2、4、8 层]。 效果与对比 3 上图展示了本文方法生成的一些图片,可以看到在忠实度和真实度上都很不错。 4 文章对比了 SDEdit,其结果如上图所示。

    97820编辑于 2023-09-19
  • 来自专栏四楼没电梯

    最新爆火文生模型FLUX

    在AI图片生成领域,Flux模型的推出引起了广泛关注。随着AI技术的不断进步,新的模型层出不穷,而Flux正是其中的一颗新星。

    40610编辑于 2024-10-12
  • 来自专栏muller的测试分享

    人工智能文生技术介绍

    所谓文生,就是指直接通过一些描述性文字生成对应的图片的技术。以前,完成各种设计,是离不开设计师的参与的。但是通过文生技术,可以直接将对于图片的需求发送给程序,让程序生成。 文生实现方式文成有两种实现方式:类型 示例 “代码式”文生PlantUML/Mermaid/Reveal.jsAI文生 MidJourney 以下是几个代码式文生的示例。PLANTUMLPlantUML是一个开源工具,用于通过简单的文本描述来创建各种类型的图形,包括类、时序、用例、组件、活动等。 4。 总结文生现在的工具以及使用体验逐渐越来越强大,不论是代码式文生还是AI 文生,都可以选择适合自己工作场景的工具进行使用。

    1K10编辑于 2024-06-03
  • 来自专栏个人总结系列

    API调用ComfyUI模板高效文生

    一、基础环境 环境搭建参考ComfyUI搭建文生,并开启ComfyUI的Dev Mode。 COMFYUI_ENDPOINT = 'localhost:8188' server_address = COMFYUI_ENDPOINT client_id = str(uuid.uuid4(

    3.1K10编辑于 2024-08-10
  • 来自专栏周末程序猿

    ChatGPT|字节开源的毫秒文生模型

    介绍 SDXL-Lightning是开源文本到图像生成模型,生成秒出,图片质量也还不错,其huggingface地址:https://huggingface.co/ByteDance/SDXL-Lightning /radames/Real-Time-Text-to-Image-SDXL-Lightning 体验地址3:https://replicate.com/lucataco/sdxl-lightning-4step

    25310编辑于 2025-02-27
  • 13.4 大语言模型文生能力评测

    13.4 大语言模型文生能力评测 大模型的文生能力,不仅推动了创意产业的创新,还在教育、医疗、娱乐等多个领域展现出广泛的应用前景。 本节将深入探讨大模型在文生能力方面的评测方法与标准。本节会介绍几种常见的大模型评估方法,并介绍其评估原理以及评估步骤,同时也会介绍一些不同评估方法的优缺点,让大家能够更加全面的了解这些评估方法。 13-29 SuperCLUE-Image评测基准 对于图像质量的评测,分别考虑了构图、光彩、细节处理、用户体验、分辨率、锐度和结构合理性,其中: 构图:评价图像的整体布局和视觉吸引力 光彩:评价图像色彩的对比度和和谐程度 综上所述,这些评估方法提供了多元化的视角,帮助研究人员更全面地理解和优化文生大模型的性能。通过综合运用这些方法,可以推动该领域的进一步发展。 Text2Video:https://github.com/Picsart-AI-Research/Text2Video-Zero [3] Sora: https://openai.com/index/sora/ [4]

    80510编辑于 2025-04-07
  • 来自专栏Java项目实战

    AI绘画专栏之statble diffusion SDXL 1.0 4种方式stable diffusion无需提示词文生 | (31)

    在日常出过程中,根据提示词出是我们AI出的日常,我们为了出现一张想象的图片需要不断的修改提示词,但总有灵感枯竭的时候,出了大部分一样风格的就要求越来越高,但现在,无需提示词,随机出现一张,一共4 提示词工具随机提示词One Button prompt安装插件One Button prompthttps://pan.quark.cn/s/3d5a5fd9aafa填写主题类型3.出选择主题类型描述 octane render (OC渲染)digital art (数字艺术)concept art (概念艺术)painting (画作)portrait (肖像)anime key visual (动漫主视觉/

    1.2K30编辑于 2023-11-15
  • 来自专栏菩提树下的杨过

    spring-ai 学习系列(6)-文生

    继续来学习spring-ai如何实现“文生” 一、pom依赖 1 <dependency> 2 <groupId>org.springframework.ai</groupId> 3 <artifactId>spring-ai-starter-model-zhipuai</artifactId> 4 <version>1.0.0</version> 5 </dependency > spring-ai支持多种文生的模型,这里我们使用国产的智谱大模型,可以先免费体验 ,api-key申请地址:https://bigmodel.cn/usercenter/proj-mgmt/apikeys 二、yaml配置 spring: ai: zhipuai: api-key: ${zhipuai_api_key} 这里api-key换成真实的key 三、文生代码 @GetMapping

    28210编辑于 2025-08-22
  • 来自专栏最新最全的大数据技术体系

    AI绘画普及课【二】文生入门

    二、文生入门与提示词基础 AI绘画和魔法、念咒有什么关系?记得吗,作图过程中,有一个必不可少的环节,就是向AI输入用于描述画面的Prompt,在AI聊天里我们也用。 1、提示词基本概念 内容概要: 提示词的概念和基本逻辑 提示词的语法(输入、间隔) 内容型提示词与标准化提示词 这节课,我们来接触StableDiffusion中的文生功能,也就是经由文本生成图像 上节课里,我们也提过了,SD里进行绘制的两种基本方式,文生文生就是主要以文字来实现这个沟通过程的,而还可以依赖图片来传达信息,但生图里也有提示词,而且同样重要。 采样方法 采样方法,其实可以简单解释成AI进行图像生成的时候使用的某种特定算法,WebUI提供的采样方法非常多,足足十几个,但其中我们常用到的估计也就4-5个。 4、提示词到底怎么写? 对于新手,我给大家总结三个快速写提示词的方法: (1) 翻译大法 其实,无论这些提示词再怎么复杂,它们说的还都是人话。

    2.7K41编辑于 2023-09-26
领券