3月12日,某中心宣布面向所有已支持区域的开发者开放Gemini 2.0 Flash原生图像输出功能的实验。此前,该功能已于去年12月首次向部分受信任的测试者推出。开发者现在可以通过Google AI Studio中的实验版本Gemini 2.0 Flash (gemini-2.0-flash-exp) 以及Gemini API来测试这项新能力。
Gemini 2.0 Flash结合了多模态输入、增强推理和自然语言理解能力来生成图像。
以下是2.0 Flash多模态输出的一些亮点应用场景:
使用Gemini 2.0 Flash讲述一个故事,它将用图片进行说明,并能在整个过程中保持角色和场景的一致性。给出反馈后,模型会重新讲述故事或改变其绘图风格。
Gemini 2.0 Flash可以通过多轮自然语言对话来协助编辑图像,非常适用于迭代生成完美的图像,或者共同探索不同的创意。
与许多其他图像生成模型不同,Gemini 2.0 Flash利用世界知识和增强推理来创建正确的图像。这使得它非常适合创建详细且逼真的图像,例如为食谱绘制插图。虽然它力求准确,但与所有语言模型一样,其知识是广泛而通用的,并非绝对或完整的。
大多数图像生成模型都难以准确渲染长文本序列,常常导致格式错误、字符难以辨认或拼写错误。内部基准测试表明,与领先的竞争模型相比,2.0 Flash具有更强的文本渲染能力,非常适合创建广告、社交帖子甚至邀请函。
立即通过Gemini API开始使用Gemini 2.0 Flash。可在相关文档中阅读更多关于图像生成的信息。
from google import genai
from google.genai import types
client = genai.Client(api_key="GEMINI_API_KEY")
response = client.models.generate_content(
model="gemini-2.0-flash-exp",
contents=(
"Generate a story about a cute baby turtle in a 3d digital art style. "
"For each scene, generate an image."
),
config=types.GenerateContentConfig(
response_modalities=["Text", "Image"]
),
)无论是构建AI智能体、开发具有精美视觉效果的应用(如带插图的互动故事),还是在对话中进行视觉创意头脑风暴,Gemini 2.0 Flash都允许仅通过单一模型来添加文本和图像生成功能。期待看到开发者利用原生图像输出功能创造出精彩应用,相关反馈将有助于尽快完善并推出生产就绪的版本。FINISHED
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。