Stable Diffusion 的人工智能绘画能力,我在之前已经不止一次给你展示过了。
目前, Stable Diffusion 的代码和模型都已开源。按理说,每一个感兴趣的用户,都应该正在开心地尝试作画。但是,这种模型执行起来,需要足够的算力支持。前些日子,你还得需要一块专业级 GPU 来运行它。我买不起专业 GPU 怎么办呢?就从 Google Colab 租了云 GPU 来用。为此,还交了钱订阅 Colab Pro 。
而随着最近 PyTorch 对苹果 ARM 芯片支持的完善,你现在完全可以在自己的 M1/M2 Mac 上面运行 Stable Diffusion ,来获得绘图结果了。
想想看,不花一分钱去租或者买 GPU ,就能在本地出图。那岂不是相当于把一个插画师随身携带了?想想都兴奋。
但问题是,在上周,为了实现这个功能,你还需要按照别人提供的详细教程,在本地安装一系列的软件包。
设置上稍微出点儿问题,往往就会让小白用户手足无措。
嘿,我明明只是打算输入文本生成图像,为什么需要达到计算机二级终端命令行操作水平才行?
这个痛点,不只是想尝鲜的新手会有,就连专业人士也会觉得很麻烦。这么多年被图形界面宠坏了,大伙儿早就更习惯了窗口交互。连换个描述语,都要在一行行代码里面做文本替换,不愉快。
今天我偶然看到了一个新的 Github 项目,叫做 Diffusion Bee ,可以有效解决咱们这个痛点 —— 终于,在 M1/M2 Mac 上面,图形界面开箱即用。不需要手动安装依赖、命令行输入参数,更不用对报错调试…… 总之,你可以直接用 Stable Diffusion 来画图了!
项目链接在这里。你需要做的,就是点击这个硕大无朋的 Download 按钮,下载安装包。
然后,双击打开软件包,拖拽图标,即可完成安装。
执行安装后的软件包,软件开启。
首次运行的时候,DiffusionBee 需要下载两个模型。
第一个模型较大,有好几个 GB,网速慢的话稍等一下。好在这是一次性的,以后就不用这么麻烦了。
这是第二个模型在下载中:
模型加载完毕后,你会看到一个非常简单洁净的页面。
下面我们来尝试输入 prompt (描述语)吧:
我输入的是:
a cat and a dog chasing each other on planet mars (一只猫和一只狗在火星追逐嬉戏)
好了,点击蓝色的 Generate 按钮就可以了。
这里生成的速度,就得看你的电脑配置了。根据官方说明,16GB 内存的 M1 Pro ,生成一张图片大概需要 30 秒钟。我的配置低一些,是 2020 款初代 M1 Macbook Pro ,而且内存里面驻留了很多服务,时间也就相应拉长。如果你的芯片配置更高、内存更大(例如 32GB),那么生成速度会更快。
我觉得其中内存是关键因素,因为如果模型没法放在内存中,就需要不断读写到交换存储空间,速度会显著拖慢。
好了,图片生成完毕。
你觉得怎么样?
我觉得不够智能 —— 应该给它俩弄套专用太空服,要不然怎么能体现出来是在火星环境呢?
当然,你可以通过描述,加入太空服,给它俩穿上。
点击保存按钮,把图片存下来吧。然后你就可以开始生成下一幅图片了。
这样一来,每次打算给文章配个题图,我就只需要开启这个小应用,搞定。
咱们本次的题图,就是这么生成的:
a painter is drawing a picture on a macbook
你觉得效果怎么样?
Diffusion Bee 的作者感慨,说没有想到一个周末完成的小项目,居然收获了那么多的关注,甚至在 HackerNews 上面冲上榜首。
估计有很多专业用户,也会嗤之以鼻:
哼,不就是给命令行套了个壳吗?有啥了不起?花里胡哨的!
其实我倒是觉得, Diffusion Bee 收到欢迎非常容易理解 —— 同等动机水平下,人们更喜欢降低行为的成本。没错,这样的一个小应用,看似不过是给命令行早就能够达成的功能「套个壳」。但这看似很小的一点改进,却使得一款新技术可以瞬时触达到更多普通用户。他们原本就有使用的热情,只不过是被复杂的操作方法和频繁的报错折磨到放弃。
所以,如果你有机会,用低成本降低一群人的痛苦。那老祖宗的那句「勿以善小而不为」就该派上用场了。别怕被所谓的「专业人士」嘲笑,尽管去做有价值的事吧。
既然 Diffusion Bee 这么简单的 Stable Diffusion 使用途径出现了,你是不是得赶紧亲自动手,试试 Stable Diffusion 人工智能绘图给你带来的便捷和愉悦?
欢迎你把自己的使用心得,在留言区和大伙儿分享。