梦想照进现实,微软果然不愧是微软,开源了贾维斯(J.A.R.V.I.S.)人工智能助理系统,贾维斯(jarvis)全称为Just A Rather Very Intelligent System(只是一个相当聪明的人工智能系统),它可以帮助钢铁侠托尼斯塔克完成各种任务和挑战,包括控制和管理托尼的机甲装备,提供实时情报和数据分析,帮助托尼做出决策等等。
如今,我们也可以拥有自己的贾维斯人工智能助理,成本仅仅是一块RTX3090显卡。
贾维斯(Jarvis)的环境配置
一般情况下,深度学习领域相对主流的入门级别显卡是2070或者3070,而3090可以算是消费级深度学习显卡的天花板了:
再往上走就是工业级别的A系列和V系列显卡,显存是一个硬指标,因为需要加载本地的大模型,虽然可以改代码对模型加载进行“阉割”,但功能上肯定也会有一定的损失。如果没有3090,也可以组两块3060 12G的并行,显存虽然可以达标,但算力和综合性能抵不过3090。
确保本地具备足以支撑贾维斯(Jarvis)的硬件环境之后,老规矩,克隆项目:
随后进入项目目录:
修改项目的配置文件 server/config.yaml:
这里主要修改三个配置即可,分别是openaikey,huggingface官网的cookie令牌,以及OpenAI的model,默认使用的模型是text-davinci-003。
修改完成后,官方推荐使用虚拟环境conda,Python版本3.8,私以为这里完全没有任何必要使用虚拟环境,直接上Python3.10即可,接着安装依赖:
项目依赖库如下:
这里web端接口是用Flask2.2高版本搭建的,但奇怪的是微软并未使用Flask新版本的异步特性。
安装完成之后,进入模型目录:
这里一定要做好心理准备,因为模型就已经占用海量的硬盘空间了,数据集更是不必多说,所有文件均来自huggingface:
也可以考虑拆成两个shell,开多进程下载,速度会快很多。
但事实上,真的,别下了,文件属实过于巨大,这玩意儿真的不是普通人能耍起来的,当然选择不下载本地模型和数据集也能运行,请看下文。
漫长的下载流程结束之后,贾维斯(Jarvis)就配置好了。
运行贾维斯(Jarvis)
如果您选择下载了所有的模型和数据集(佩服您是条汉子),终端内启动服务:
随后会在系统的8004端口启动一个Flask服务进程,然后发起Http请求即可运行贾维斯(Jarvis):
这个的意思是让贾维斯(Jarvis)生成一段“蜘蛛侠在冲浪”的视频。
当然了,以笔者的硬件环境,是不可能跑起来的,所以可以对加载的模型适当“阉割”,在models_server.py文件的81行左右:
把不需要的模型屏蔽即可。
与此同时,还可以不通过本地服务接口,修改config.yaml的inference_mode: huggingface
随后直接在终端运行ChatGPT版本的贾维斯:
运行效果:
可以理解为ChatGPT版本的文字生成图片,外面套了个贾维斯(Jarvis)的壳儿,演出效果满分。
结语
总的来说,和微软之前开源的“可视化图形ChatGPT[1]”一样,此类项目的象征意义要远远大于现实意义。贾维斯(Jarvis)代表的是大多数技术同仁的共同愿景,对于这类人工智能技术的发展,可以肯定,但由于硬件门槛过高的原因,短期内还不能过于期待。
引用链接
可视化图形ChatGPT:https://v3u.cn/a_id_288
领取专属 10元无门槛券
私享最新 技术干货