其实很早就想再写写闻达平台,因为在他们群里确实感受到非常棒的开发进度和互联网精神,但是个人原因~一直拖更;
而另一面,闻达平台却是每天都更新。功能都是重量级的!
直到端午节来了,闻达的更新又迭代了一波大的,真的是不更不行了。
这是我们之前写闻达的文章:
半个月爆肝迭代,让大厂都惭愧!支持本地部署大模型,还能接知识库,国产开源类GPT平台闻达竟然进化成这个样子了!
开源+本地运行!效果最好的中文类CHATGPT大模型平台闻达测评
其实,这两个月来的迭代,比之前的还猛!
先上一些例子,看看闻达这个本地大模型平台都能干嘛。
第一部分是常规的大模型能力,目前接入的是CHATGLM6B(1.1版本)+GPT4优化LORA:
这个求职信的写作质量,显然的提高了。
加班通知,也很可以。
写企业决议,写得不差~
这公文报告,改改数字都可以直接用了。
以上,都是随着模型端升级和LORA附加微调提升模型带来的提升。
下面,才是正菜:
AI当客服,很重要的一点就是,不能让LLM乱说话。现在,这部分得到了很大的完善。
这种问题,简单来说,就不能让LLM胡编~然后,做到了。(敏感问题全拒绝回答,在中国非常重要)
配合SD,实现对话式出图。
然后,就是最近端午节前最厉害的一个更新:
接入WORD。
这一版本的闻达,不仅已经对接了GLM6B和RWKV两个国内比较知名的本地开源模型,还增加了办公助手功能。
通过WORD的宏选项,实现了本地AI和word之间的对接。
之后,在word窗口里面可以通过对话调用闻达的大模型生成文本,写小说也毫无难度!!目前WPS AI都没做到!(WPS AI肯定能做,但不就是没做么?)
好吧。
到这里我们也不多说了,无缝接入OFFICE的大模型平台,这应该是第一家。
闻达项目的设计目标是为实现特定应用环境下的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性等问题。
为了达成上述目标,闻达平台聚焦多模型适配技术和知识向量化两个方向的应用技术研究,目前集成了多种能力。其中多模型适配方面已经支持rwkv、chatglm、llama、moss、replitcode、chatYuan、Baichuan、Aquila 等多套大语言模型,同时提供了openAI的chatGPT相关应用组件;在知识向量化应用方面提供了知识向量化工具、知识库动态调配工具和实时知识库管理RTST工具。
闻达本身还是开源的,这也意味着,它可以为很多中小公司提供非常便捷的AI效率提升服务。只花几千块就能获得公司级AI服务器,你不心动么?
现在闻达已经支持十多个大模型了,也就是说,现在只要你的本地电脑或者公司服务器都还不错,那么部署一波,走在AI生产力大普及的前面,是毫无问题的。
具体的公司部署方案,如何提升生产力,下次我们可以单独讲讲。
大模型观察
大模型测评
领取专属 10元无门槛券
私享最新 技术干货