译者 | 明知山
策划 | 丁晓昀
Avraham Poupko 在 OOP 大会 上发表了一场关于他在日常工作中如何使用 AI 的演讲。
Avraham Poupko 指出,软件架构师和系统架构师不会很快被生成式 AI 或 LLM 所取代。他们将被那些懂得如何利用生成式 AI 和 LLM 的软件架构师所取代。同样重要的是,这些架构师还知道何时不该使用生成式 AI。
LLM 是“大语言模型”的缩写。Poupko 认为,人类与机器之间的本质区别是一个关键问题,理解这一问题对于理解 LLM 至关重要。
Poupko 表示,人类并没有真正的语言模型,而是“世界模型”。人类对世界的理解包括对世界中物体的行为以及它们之间相互作用的理解。这种世界模型是基于许多经验和互动形成的:
当我们用口头或书面语言来描述这个世界时,这只是一种非常有限的世界模型表达方式。
相比之下,LLM 只有语言模型。Poupko 指出,LLM 只知道词语之间的关系。尽管这种模型常常会给人一种惊人的理解能力的错觉,但这并不是真正的理解,只是词语的排列组合。
Poupko 补充道,虽然许多关于世界的知识可以通过文字和语言来表达,但还有一部分是基于经验的,无法完全用语言来描述。这在高度依赖上下文的情境中尤为明显,人们虽然了解上下文,但并非所有上下文信息都能用语言表达出来。
Poupko 认为,架构师可以与大语言模型合作,打造出更好的软件架构,这有点类似于人类与书籍的合作模式:
人类通过阅读书籍学习和理解知识。当人类判断某个案例与书中描述的案例相似时,会灵活地将书中的知识应用到当前情境中。
这正是我们与 LLM 合作的方式。我们向它提供提示词并接收响应。这些响应通常并非绝对正确或错误,而是有用或无用的(正如著名的 George Box 所说的:“所有模型都是错误的,但有些是有用的”)。当我们说“有用”时,我们是指对人类有用。人类将决定模型是否真的有用,以及在何种情境下使用它。
Poupko 提到,AI 在处理涉及书面语言的任务时最有用。他经常使用 LLM 的一个场景是需要阅读需求文档并发现其中的模糊性,即一个需求可以有多种解释的情况。
在演讲中,他例举了一个在线系统需求示例:
系统应能够支持大量用户。
当他要求 LLM 检测模糊性时,LLM 发现了两个模糊点:
接下来,Poupko 使用 LLM 探讨了解决这些模糊性所需的信息。
Poupko 表示,AI 并不会为他完成设计工作。有效架构所需的系统知识、领域知识和组织知识极为复杂,AI 无法取代他。
查看英文原文:
https://www.infoq.com/news/2025/02/software-architect-AI-LLM/
声明:本文由 InfoQ 翻译,未经许可禁止转载。