00:00
今天我们要聊的呢,是如何把大语言模型为核心的这种生成式的AI,和企业里面的那些严谨的业务逻辑结合起来,让AI能够在企业的决策当中真正的去落地,真正的去做到既聪明又可控。这个其实是现在很多企业都在关心的问题。那我们就直接开始吧。咱们先来说一下,就是生成式AI的崛起和企业面临的挑战。嗯,自从2022年年底爆火了之后,这个生成式AI它到底是怎么改变了我们和机器的互动方式?那就是2022年年底开始哈,这个大语言模型带动的生成式AI就席卷了全球吧。虽然它并不是一个基础科学的一个跃迁,但是他在图灵测试上面的表现,已经让人机对话变得跟人与人交流几乎没有差别,没错,现在很多人一说到AI就会想到像chat、G、BT这样的图灵机器人,大家都开始用它作为衡量所有智能产品的标准了。是的,而且它的这个影响已经不只是在科技圈了,他在很多行业都有影响。比如说在。
01:00
图像处理、文本生成、代码编写等领域,它都改变了数字自动化的方式,就连客户关系管理和索赔处理这样的流程,都因为它而发生了很大的变化。那现在的问题就是说,企业在使用生成式AI的时候,最大的冲突点是什么?核心的矛盾就在于企业的运营是离不开准确、可靠、可审计和确定的决策的。但是生成式AI的大语言模型本质上却是一个随机鹦鹉,它只是对海量数据进行压缩模糊后的结果,他没有事实依据,也没有推理能力,它只是在概率上预测下一个词是什么,它的输出结果永远都是不确定的。所以企业其实很纠结嘛,到底要不要引入这个AI,虽然他很懂人类的语言,但是企业又怕牺牲掉自己的逻辑和可靠性,对。所以企业真正要做的并不是说简单的去选择,而是要把生成式AI和业务逻辑深度的融合,要通过工程的方法把概率性的机器学习和确定。
02:00
定性的符号逻辑结合起来去打造一种全新的复合神经符号AI,这样才能够既拥有AI的灵活性,又可以保证决策的严谨。哎,说到这个,我想问一下企业AI的两大支柱就是概率性引擎和确定性引擎。这两个东西到底是怎么定义的?然后他们各自在企业的AI体系里面扮演什么样的角色?其实,企业的这个AI体系里面是有两个支柱并存的,嗯哼,一个支柱就是概率性引擎,它主要就是以大语言模型为代表的这种生成式AI。然后它主要是擅长去处理一些非结构化的数据,做一些内容的生成和语言的翻译等等。然后另一个支柱就是确定性引擎,它主要就是以知识图谱和规则优化引擎为代表的这种符号AI,它主要是用来处理一些结构化的数据,然后做一些精确的推理和决策。也就是说,概率性的这个引擎,它的核心优势就是在于能够从大量的数据当中去捕捉一些复杂的模式,然后帮我们去做一些以前很难做的。
03:00
的事情,比如说文本的摘要和问答系统,没错,就是因为这两个支柱它各有所长,所以只有他们两个结合起来,企业才能够真正的去构建出一个完整的智能系统,去应对各种各样的业务需求。明白了,那这个大语言模型,它在处理文本和生成内容的时候,它的优点到底有多么突出?大语言模型其实就是一种神经网络,它是通过在海量的非结构化文本上面进行自监督学习训练出来的。然后它的核心就是利用概率来预测下一个最有可能出现的词,所以他在处理非结构化数据方面是非常厉害的。这么说,他的这种能力确实让很多以前很难做的事情,比如文本的理解和内容生成变得简单了,是的,他在文本摘要、翻译、内容生成,甚至是把非结构化的数据转成结构化的数据,这些方面都是非常厉害的。嗯,它也让AI的应用一下子就拓宽了很多,就从AlphaGo这种标志性的突破真正。
04:00
走向了更广泛的设计应用,既然大语言模型这么强大,那它在企业级的决策应用当中会有哪些明显的短板?其实大语言模型它有几个比较根本的局限,第一个就是它的知识是有时效性的,就是他训练完之后新发生的事情他是不知道的。第二个就是他会经常产生幻觉,他会一本正经的跟你胡说八道一些完全错误的答案,因为他的目标是生成统计上合理的文本,而不是保证事实是正确的。这听起来确实会给企业带来麻烦,尤其是对那些需要准确可验证信息的场景。而且最关键的是大语言模型,它不是一个逻辑推理引擎,它只是一个统计模型。他根本就不理解因果关系,所以他的回答跟事实真相没有什么关系。然后,他每次生成的结果又都是不确定的,对这对于要求可重复、可审计、绝对可靠的企业决策来说是一个非常严重的问题。诶,那这个确定性引擎,它在企业里。
05:00
里面到底是怎么运作的?它跟大语言模型的运作方式有什么不一样?确定性引擎其实就是符号AI,它在企业自动化里面是非常重要的,它最常见的就是在金融和保险这种强监管的行业里面,从上世纪80年代就开始用了,也就是说这个东西已经在核心系统里面默默运行了几十年了。对,那它背后的这个工作原理是什么呢?它的工作方式是完全不一样的,就是他是靠领域专家先去定义一个业务本体,然后用逻辑谓词去写非常精确的业务策略,就是那种if done的语句或者是决策表。再复杂一点呢,就是用知识图谱,最后通过一个因果推理引擎来把这些规则链接在一起,所以它的整个推理过程是完全可以追溯的,对每一步都是有根有据的。好的,那这种确定性的引擎在企业级的决策系统里面,到底有哪些突出的优势和劣势?优势就在于它的准确性和可靠性。嗯,它是完全可扩展的,比如像IBM的一些系统,每天可以。
06:00
处理超过10亿次的决策,然后每次决策都是在几毫秒之内完成的,并且它的输出是完全确定的,就是你同样的输入永远都会得到同样的结果。然后它的整个决策过程也是透明的,可审计的,听起来好像是企业的理想选择啊。那它的缺点是什么呢?它最大的问题就是太僵化了,它只能处理完全结构化的数据,然后,如果你的规则变得非常多非常复杂的时候,这个模型的构建和维护就会变成一个非常昂贵和耗时的事情。懂了,懂了。那这个融合框架到底是怎么回事儿?为什么企业在自动化的过程当中既离不开生成式AI,同时又离不开业务规则引擎的?因为企业要想自动化真正的落地,它既要用生成式AI去搞定那些模棱两可的非结构化的信息,又要用规则引擎去确保那些高风险的结构化的决策是绝对可靠的,所以这两者是缺一不可的。这么说的话,融合的难点就在于怎么让这两种完全不同的。
07:00
技术发挥出他们各自最大的优势,没错,没错,这就有点儿像我们发明复合材料的过程,就是把不同的材料结合在一起,创造出一种性能上超越原有材料的全新材料。所以我们才提出了这个智能决策的复合框架,它是把生成式模型和预测模型,以及规范性规则这三者有机的结合在一起,然后来实现更高级的企业自动化,了解了在这个智能决策的复合框架里面,生成式AI和业务规则引擎到底是怎么配合的。在这个框架下,生成式AI和业务规则引擎不再是互相竞争的关系,而是互相协作的关系,他们之间有一个很重要的界面,我们把它叫做前沿,这个前沿就是用来区分非结构化数据和结构化数据的,所以生成式AI其实是在这个边界上工作的,对吗?对,生成式AI就是这个边界的守卫和翻译官,他会把人类那些乱七八糟的自然语言输入处理成干净的结构化信息,交给规则引擎。
08:00
规则引擎就像是内核一样,只负责在结构化数据的世界里面去执行那些不容置疑的业务逻辑,这就是他们的分工。能不能具体说说在这个智能决策的复合框架里面,大模型和知识图谱是怎么互补的?其实在王文广的知识增强大模型里面,他就是特别强调说,这个神经符号的结合,最终的目标就是要同时提升决策的智能水平和实际的生产力哦,所以这个知识增强大模型,它其实就是在解决大模型本身的一些短板,对吗?是的,就是大模型他虽然很擅长去理解和生成非结构化的内容,但是它会有一些幻觉或者是知识不及时的问题。那知识图谱或者说业务规则引擎,正好可以给他提供一个确定的可追溯的结构化的知识体系,去弥补这些缺陷。然后大模型又可以反过来帮助知识体系的构建和运用。嗯,这就是所谓的涂膜互补。这个理论现在也是企业级智能决策系统的一个核心的理论神经。
09:00
符号集成的5种模式,嗯,这5种模式到底是怎么回事儿?它是怎么帮企业,把这个真AI的灵活性和规则引擎的可靠性结合在一起的?这5种模式其实就是给企业提供了一个蓝图,它就是解决了从非结构化的数据输入到生成可信的决策输出,这一整套端到端的难题。啊,原来它是覆盖了整个自动化流程的,对,那能不能先说说这个g AI作为前台的这种集成方式,它的工作原理是什么?好的,第一个模式就是用大语言模型先去理解纯文本,比如说客户的邮件、聊天记录,或者是一些索赔的申请表,然后把里面的关键信息提取出来,变成结构化的数据,比如说,名字、金额、日期和问题的类别等。嗯,最后把这些结构化的参数传递给规则引擎,由规则引擎去做一个确定性的推理,最终做出决策。这种方式,是不是就特别适合那种传统的系统里面很难去处理的自由文本?对,没错。
10:00
错,它其实是自动化流程的一个非常自然的语言入口,但是它的风险就在于,如果大语言模型提取的参数是错的,后面的规则引擎就算逻辑再对这个决策也是错的。所以我们要设置一些适当的护栏,就是要去处理那些提取失败或者说置信度很低的这些情况,这是这个模式能否落地的关键。明白了,那真NAI。作为发言人,这个模式跟刚才的那个有什么区别?这个模式就刚好跟第一个反过来,就是先由规则引擎基于结构化的数据做出一个决策,比如说贷款审批或者是保险定价。对,然后把这个结构化的结果,比如说一个包含了approved=false reason, code=credit score low policy ref=P103等键值对的对象,交给大语言模型,大语言模型再把它转成一段非常流畅的自然语言,自动生成一封客户通知邮件,或者是一个内部的摘要报告。听起来这种方式就特别适合那种需要让客户感受到。
11:00
被理解被尊重的场景是这样的,它的最大的好处就是决策的过程依然是百分之百确定的、可审计的,然后大语言模型只是负责把结果用一种更人性化的方式表述出来,所以它既保证了合规又提升了体验。但难点就在于我们要设计一些有效的测试,来确保生成的文本真的准确反映了结构化的决策。因为自然语言生成是会有一些变化的,所以自动的去验证它的准确性是有一定难度的。那这个动态二人组模式又是怎么一回事儿呢?它是怎么让规则引擎和大语言模型配合的?在这个模式里面,规则引擎就变成了一个总指挥,它会在运行的过程当中根据逻辑的需要动态的去调用大语言模型,让它执行一些特定的NLP任务。比如说在处理客户投诉的时候,如果规则引擎发现投诉的情绪是愤怒,并且投诉还没有摘要,他就会临时的让大语言模型去生成一个摘要。
12:00
这样的话,就相当于把理解和推理这两个能力深度的结合起来了,对,那是不是就可以处理更复杂的业务流程了?没错,这个模式的威力就在于它可以实现多步的自动化规则,引擎可以完全掌控整个逻辑的流程,然后大语言模型就像是一个随时可以调用的插件一样,需要的时候就用它来处理文本。但因为他们的集成度很高,所以我们必须要在结构化和非结构化数据的边界上,设置一些非常严格的防护措施,来保证整个系统的稳健性。懂了懂了,那g n AI作为自动化架构师,这个模式是怎么来提升企业自动化项目的开发效率的?这个模式其实特别有变革性,就是它会让大语言模型去分析纯文本的文档,比如说法律法规或者是公司自己的业务手册,然后自动的去提取出里面的业务规则、数据模型和一些决策的签名。嗯,有了这些信息之后,他会直接帮你在决策平台上面生成一个初始的自动化项目,也就是说,原来需要分析。
13:00
其实,手动一点点去梳理的那些政策文档,现在可以自动的转化成系统的规则了。是的,是的,这是一个真正的生产力革命。因为知识提取一直都是自动化的一个瓶颈嘛。业务分析师可能要花几个星期的时间去消化这些政策,然后再把他们一条条的写成逻辑规则。但现在有了这个大语言模型,你只要把纯文本的策略粘贴进去,它就会帮你生成对应的Json数据模型和BL规则,那也务专家就只需要去审核和微调就可以了。所以这就大大降低了自动化的门槛和成本,让企业可以大规模的去推进决策自动化可靠的助手这个模式里面,LLM和规则引擎是怎么分工合作的,然后,他们各自发挥了什么不可替代的作用?在这个模式下,大语言模型主要是用来驱动这个聊天机器人的,它会负责和用户进行自然流畅的对话。然后在对话的过程当中,一旦他识别出了用户有决策的意图,比如说用户问我能不能贷20万,嗯,他就会把这个金额。
14:00
利用评分等关键参数都提取出来,交给后端的规则引擎。也就是说,大语言模型只负责理解用户说话和生成回复,真正的决策还是要靠规则引擎来做。对规则引擎会根据这些参数,应用业务规则做出一个确定的不可变的决策。然后再返回给大语言模型,由大语言模型来把这个结果用自然语言的方式说出来,这样的话既保证了用户体验的流畅,同时又保证了每一步交易都是合规的、可审计的,并且彻底的避免了大语言模型胡乱作答的风险。咱们最后来看看通往全面决策自动化的道路。嗯,为什么企业在推进智能决策的时候不能只靠生成式AI,还要依赖逻辑形式化引擎。虽然生成式AI给我们带来了很多新的可能性,但是它的本质还是一个概率性的模型,它的结果是不可靠的,经常会出现一些逻辑上的错误或者是事实性的错误,所以企业如果只看表面的流畅对话。
15:00
忽略了这些底层的问题是很容易出大问题的,所以就是说图灵机器人再怎么能说会道,在真正做决策的时候还是不能让人完全放心。没错,真正能够保证推理过程是受控的,还是得靠逻辑形式化引擎,所以我们其实更应该做的是把生成式AI和逻辑引擎结合起来,做成一个复合的神经符号AI。这样才能够既发挥AI的创造力,又保证决策的严谨和可靠。OK, 那这5种集成模式到底是怎么帮助企业实现全面的决策自动化的?这5种模式其实就给了企业非常清晰的落地的步骤。嗯,比如说我们可以用g AI来做数据输入的前端,把那些非结构化的信息自动化的提取出来,或者是用它来做决策结果的解释器,让机器的决策也可以被普通人轻松的理解。听起来这些模式真的是覆盖了自动化流程的每一个关键环节。是的,而且最厉害的是我们还可以用GN。AI来加速整个系统的开发。
16:00
通过从纯文本里面去抽取知识,自动的生成一些规则和模型。对这就大大简化了从业务策略到实际决策服务的过程,让企业能够迈向一个既智能又可靠的自动化新阶段。嗯,今天我们把这个大语言模型和业务规则引擎的集成方式,都给大家拆解了一遍。其实大家可以看到,只有把AI的灵活性和规则的严谨性结合起来,企业才能够真正的释放自动化的价值。好了,那这就是本期博客的全部内容了啊,感谢大家的收听,我们下期再见,拜拜,拜拜天。
我来说两句