

发布时间:2025年10月11日
在 v0.12.5 版本中,Ollama 带来了多项功能改进、问题修复及平台兼容性调整。本次更新主要涉及运行流程优化、错误处理改进、模型输出优化以及平台支持范围调整。以下是详细解析。
"think": false 时,以前会出现错误提示的问题,现版本将改为静默忽略,提升了非思考模型的兼容性。deepseek-r1 模型的输出异常问题,提升了生成结果的稳定性。在多个图像处理模块中,替换了 math.Min、math.Max 为 Go 语言的内置 min()、max() 方法:
llama4 及 mllama 模型的 process_image.go 调整了分辨率计算方法,提升了代码简洁性与性能。processingDuration 与 generationDuration/samplingDuration 变量,用于区分不同阶段的运行时间。startedAt、lastUpdatedAt 的记录,以便更精准地分析性能数据。ollamarunner 中,批量处理逻辑修改为使用 previousBatch 和 nextBatch 交替进行。pooling_type == none),批处理计算会并行执行,提升模型运行效率。server/routes.go 中,GenerateHandler 和 ChatHandler 的逻辑调整为:thinking,则默认开启;thinking 且用户设置了 true,将返回错误;false,则不报错,正常执行。在 server/routes_generate_test.go 中:
"\"test\" does not support thinking"。thinking 且 think=false 时的执行结果,确保返回状态码 200。本次 ollama v0.12.5 更新在性能优化、运行时度量、错误处理等方面都有显著提升,尤其是:
我们相信人工智能为普通人提供了一种“增强工具”,并致力于分享全方位的AI知识。在这里,您可以找到最新的AI科普文章、工具评测、提升效率的秘籍以及行业洞察。 欢迎关注“福大大架构师每日一题”,发消息可获得面试资料,让AI助力您的未来发展。