首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏muller的测试分享

    文生大模型

    os.path.join("img_" + datetime.datetime.now().strftime("%Y%m%d%H%M%S") + ".png")def test_image_normal(): # 文生 generate_image_path(), 'wb') as f: f.write(image_response.content)增加图像生成的条件def test_image_style(): # 文生 print(f"生成的第{i}张图片地址是:{image.url}")修改图像下载 img1.png 下载 img2.pngdef test_change_image(): # 将1 根据提示在2的标记上进行修改 response = client.images.edit( model="dall-e-2", image=open("img1.png

    54210编辑于 2024-11-07
  • 来自专栏刘旷专栏

    文生文生视频,AI行业卷疯了

    近几年,随着AIGC赋能多业态应用的加速落地,整个行业的热潮,已经逐渐从文生文、文生,转向了文生视频领域。 作为文生文、文生的升级,文生视频对算力以及模型的工程化能力要求更高。据了解,文生视频的人工智能模型参数为10亿级别至100亿级别。 文生文生视频的人工智能模型在底层技术框架上有着较高的相似性,一定程度上来说,文生视频可以看作是文生的进阶版技术,这也就意味着,文生的技术和经验可供文生视频加以运用和参考。 而众所周知,字节跳动、阿里、百度等玩家早已在文生领域有所深耕,甚至有的产品也已投入商用,凭借在文生技术上的积淀,其在文生视频领域也有望实现大幅进步。 只不过,目前国内文生视频技术还在发展的初级阶段,虽然看上去文生视频与文生的逻辑极其相似,但事实上,文生视频的难度要大得多,需要突破的瓶颈也有很多。

    64910编辑于 2023-12-26
  • 来自专栏前端数据可视化

    『SD』文生基础讲解

    本文将以初学者的角度,逐步讲解 SD 的文生功能,让你轻松上手 SD 的文生。 在此之前,你需要先安装好 SD WebUI。 什么是文生文生就是文生,字面意思。就是将文本提示词的内容转换成图片。 小学写的作文经常出现“看图写作”,现在使用 SD 就是先写作,然后让 AI 去画图。 反过来了~ 在 SD WebUI 中,txt2img 就是文生的功能面板。 提示词(正向和反向) 在 txt2img 下方有2个输入框: Prompt 是输入正向提示词的地方。第一个输入框。 具体的使用方法我在 《『SD』文生-如何生成高分辨率图片?》 里有讲解。 Refiner 精炼器 Refiner 精炼器的作用是可以允许你用2个模型生成一张图片。 此时再生成一张图片就会以8:2的比例结合A和B去生成新。 关于 SD WebUI 文生的基础功能讲解就到这了。

    91810编辑于 2024-06-11
  • 来自专栏前端必修课

    DeepSeek 文生实战指南

    DeepSeek 作为新晋的 AI 助手,虽然在对话能力上表现出色,但并不直接支持图像生成功能。不过,通过本文介绍的方法,我们可以轻松突破这一限制,让 DeepSeek 秒变"画家"。

    86511编辑于 2025-03-07
  • 来自专栏腾讯技术工程官方号的专栏

    Sora的前世今生:从文生文生视频

    无论是文生还是文生视频,很多这方面的工作其实都可以看成是自编码器的进阶版本,让我们从自编码器开始入手。 然后我们对14x14的特征做上采样或者反卷积,得到28x28的特征,这个28x28的特征与之前的28x28的特征进行通道上的拼接,然后再对拼接之后的特征做卷积和上采样,得到56x56的特征, LDM文生(选读) 下面关于LDM的一些细节介绍,不感兴趣的同学可以直接跳过。 理解了latent的含义后,接下来再考虑下如何根据文本来生成图片呢? 用的就是 CoCa 的方法,也就是同时考虑对比损失和LM损失 模型推理策略 官方展示Sora的应用有很多,比如文生视频、生视频、视频反推、视频编辑、视频融合等。 不知道大家有没有注意到,Sora还提到了它除了文生视频,也支持文生,这里其实透露出了一种统一的味道。

    1.7K31编辑于 2024-02-23
  • 来自专栏个人总结系列

    ComfyUI搭建与文生运行

    二、文生模型运行1、模型下载如https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0 模型目录下载到指定目录gpt:~/llms_dir 00, 5.09it/s]Requested to load AutoencoderKLLoading 1 new modelPrompt executed in 102.37 seconds界面显示文生结果

    1.4K11编辑于 2024-08-06
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 “文生”战场上,自去年下半年开始,“Stable Diffusion 模型” 开始狂飙,不断产生效率的质变:生成图片的等待时间变的越来越少,生成图片的尺寸和质量越来越好,并且开始往移动端设备上扩展。 省略其他准备工作 # 初始化文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained width=512, height=512, output_type="pil", ) else: # 使用文生 即时的文生体验 不论我们是使用调整 Prompt 提示词文本,还是拖拽界面下面的参数,图片都会被快速的重新生成。如果你对参数还不是很了解,可以阅读文末的“AI Pipeline 参数概述”。

    1.1K10编辑于 2024-01-15
  • 来自专栏AI算法能力提高班

    ControlNet-图像控制文生模型

    ControlNet: Adding Conditional Control to Text-to-Image Diffusion Models

    1.2K20编辑于 2023-09-13
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生实战。 “文生”战场上,自去年下半年开始,“Stable Diffusion 模型” 开始狂飙,不断产生效率的质变:生成图片的等待时间变的越来越少,生成图片的尺寸和质量越来越好,并且开始往移动端设备上扩展。 省略其他准备工作 # 初始化文生两条 AI Pipeline pipelines = { "img2img": AutoPipelineForImage2Image.from_pretrained width=512, height=512, output_type="pil", ) else: # 使用文生 有机会的时候,我们聊聊如何使用 SDXL Turbo 实现 Midjourney 的“混”(),以及如何控制图片尽量趋近于我们想要的结果,还有性能优化。

    1.4K10编辑于 2024-01-13
  • 来自专栏媒矿工厂

    草图指导的文生扩散模型

    sketch-guided-preprint.pdf 项目链接:https://sketch-guided-diffusion.github.io/ 作者:Andrey Voynov, Kfir Aberman等 内容整理:王寒 强大的文生预训练模型缺乏可以指导合成图像的空间属性的控制方法 训练所需的数据是一个包含输入图片x,边缘e和文字标题c的三元组(x,e,c)。使用LDM的编码器对输入图片和边缘进行预处理,为了使用相同的编码器,边缘被复制了三遍转为三通道。 草图指导的文生(Sketch-Guided Text-to-Image Synthesis) 在给定边缘e和提示词c的基础上,我们希望根据边缘获得具有较多细节的高分辨率图片。 下面是这个mlp能起作用的原理: 2 在去噪过程中的每一步,聚合中间特征并传递到前面提到的P中,预测边缘 \hat{}_(,)=(_{,}) ,然后计算该边缘与输入边缘之间的相似度梯度 ∇_{ 效果与对比 3 上图展示了本文方法生成的一些图片,可以看到在忠实度和真实度上都很不错。 4 文章对比了 SDEdit,其结果如上图所示。

    97820编辑于 2023-09-19
  • 来自专栏muller的测试分享

    人工智能文生技术介绍

    所谓文生,就是指直接通过一些描述性文字生成对应的图片的技术。以前,完成各种设计,是离不开设计师的参与的。但是通过文生技术,可以直接将对于图片的需求发送给程序,让程序生成。 文生实现方式文成有两种实现方式:类型 示例 “代码式”文生PlantUML/Mermaid/Reveal.jsAI文生 MidJourney 以下是几个代码式文生的示例。PLANTUMLPlantUML是一个开源工具,用于通过简单的文本描述来创建各种类型的图形,包括类、时序、用例、组件、活动等。 ——来自维基百科文心一言同样也具备文生功能,不过目前还不够成熟,相信给到一定的时间,一定能发展成为一个优秀的大语言模型产品。 总结文生现在的工具以及使用体验逐渐越来越强大,不论是代码式文生还是AI 文生,都可以选择适合自己工作场景的工具进行使用。

    1K10编辑于 2024-06-03
  • 来自专栏四楼没电梯

    最新爆火文生模型FLUX

    在AI图片生成领域,Flux模型的推出引起了广泛关注。随着AI技术的不断进步,新的模型层出不穷,而Flux正是其中的一颗新星。

    40610编辑于 2024-10-12
  • 来自专栏个人总结系列

    API调用ComfyUI模板高效文生

    一、基础环境 环境搭建参考ComfyUI搭建文生,并开启ComfyUI的Dev Mode。

    3.1K10编辑于 2024-08-10
  • 来自专栏周末程序猿

    ChatGPT|字节开源的毫秒文生模型

    介绍 SDXL-Lightning是开源文本到图像生成模型,生成秒出,图片质量也还不错,其huggingface地址:https://huggingface.co/ByteDance/SDXL-Lightning

    25310编辑于 2025-02-27
  • 13.4 大语言模型文生能力评测

    13.4 大语言模型文生能力评测 大模型的文生能力,不仅推动了创意产业的创新,还在教育、医疗、娱乐等多个领域展现出广泛的应用前景。 本节将深入探讨大模型在文生能力方面的评测方法与标准。本节会介绍几种常见的大模型评估方法,并介绍其评估原理以及评估步骤,同时也会介绍一些不同评估方法的优缺点,让大家能够更加全面的了解这些评估方法。 13-29 SuperCLUE-Image评测基准 对于图像质量的评测,分别考虑了构图、光彩、细节处理、用户体验、分辨率、锐度和结构合理性,其中: 构图:评价图像的整体布局和视觉吸引力 光彩:评价图像色彩的对比度和和谐程度 综上所述,这些评估方法提供了多元化的视角,帮助研究人员更全面地理解和优化文生大模型的性能。通过综合运用这些方法,可以推动该领域的进一步发展。

    80510编辑于 2025-04-07
  • 来自专栏菩提树下的杨过

    spring-ai 学习系列(6)-文生

    继续来学习spring-ai如何实现“文生” 一、pom依赖 1 <dependency> 2 <groupId>org.springframework.ai</groupId> 3 spring-ai-starter-model-zhipuai</artifactId> 4 <version>1.0.0</version> 5 </dependency> spring-ai支持多种文生的模型 proj-mgmt/apikeys 二、yaml配置 spring: ai: zhipuai: api-key: ${zhipuai_api_key} 这里api-key换成真实的key 三、文生代码

    28110编辑于 2025-08-22
  • 来自专栏最新最全的大数据技术体系

    AI绘画普及课【二】文生入门

    二、文生入门与提示词基础 AI绘画和魔法、念咒有什么关系?记得吗,作图过程中,有一个必不可少的环节,就是向AI输入用于描述画面的Prompt,在AI聊天里我们也用。 1、提示词基本概念 内容概要: 提示词的概念和基本逻辑 提示词的语法(输入、间隔) 内容型提示词与标准化提示词 这节课,我们来接触StableDiffusion中的文生功能,也就是经由文本生成图像 上节课里,我们也提过了,SD里进行绘制的两种基本方式,文生文生就是主要以文字来实现这个沟通过程的,而还可以依赖图片来传达信息,但生图里也有提示词,而且同样重要。 它本身其实是额外的做了一次。你也可以反复实验,了解在你当前的设备条件下,什么分辨率是既能保证质量又能兼顾效率的。 如果你想让AI一直不断地按照同一组提示词和参数去出,那就把批次数调高,绘制的过程会不断重复进行。 结束以后,它会生成两样东西——除了每个批次出的,还会有一张拼在一起的格子预览,方便你进行对比。

    2.7K41编辑于 2023-09-26
  • 来自专栏wayn的程序开发

    FastAPI开发AI应用教程七:新增文生功能

    本文将深入讲解如何在 FastAPI AI 聊天应用中实现文生功能,重点介绍豆包 Seedream 4.0 图像生成模型的强大能力。 通过本教程,你将学会如何构建完整的 AI 图像生成系统,包括文生等图像输出核心技术。 项目概述 想象一下,当你向 AI 描述一个场景时,AI 能够立即为你生成对应的高质量图像;当你上传一张图片时,AI 能够基于你的描述对图片进行创意改造——这就是我们要实现的文生功能! 值得一提的是,9月11日晚,Seedream 4.0 在 Artificial Analysis「文生」和「图像编辑」两大榜单荣登榜首,充分证明了其在业界的领先地位。 '文生' : ''}

    <

43410编辑于 2025-11-13
  • 来自专栏个人总结系列

    开源AIGC学习—文生模型本地运行

    snapshot_download(repo_id) print(model_dir) cp -r model_dir $traget_dir ``` modelscope的也类似 二、文生模型本地运行

    1K10编辑于 2024-03-13
  • 来自专栏个人总结系列

    开源AIGC学习—文生模型服务封装

    一、模型本地化 详细内容见:开源AIGC学习—文生模型本地运行 二、服务封装 当前算法模型采用Python + Flask 方式进行Rest API方式进行服务封装,对应封装代码说明如下 main__': server = pywsgi.WSGIServer(('0.0.0.0', 2000), app) server.serve_forever() 也可以直接返回图片,但是文生模型推理耗时比较长

    61910编辑于 2024-03-15
  • 领券