前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >使用正确的技术创建出色的生成式 AI 应用程序

使用正确的技术创建出色的生成式 AI 应用程序

原创
作者头像
IT蜗壳-Tango
发布2024-04-26 22:55:29
1340
发布2024-04-26 22:55:29
举报
文章被收录于专栏:机器学习OpenVINO

前言

生成式人工智能是当今人工智能技术发展最快的领域。 如果您是生成式 AI 的新手或从传统机器学习过渡,那么使用生成式 AI 似乎令人生畏。

作为一名人工智能软件架构师,我的职责是围绕当前的研究趋势(包括炒作)思考大局。

由于许多行业都希望使用大型语言模型 (LLM) 和生成式 AI 工具,因此不仅要考虑模型,还要考虑增强这些生成式 AI 体验的技术,以及它们的功能、局限性和可能性。

这些应用程序背后的一个关键因素是需要正确的数据,以便将专业化、情境化和多模态等技术引入培训管道。 让我们来看看它们中的每一个。

训练您自己的专业生成式 AI

启动基于语言的 AI 项目的用户通常会从几个预先训练的高级 LLM 中进行选择,包括 GPT-4、Llama 2、Mistral 7B 和 ChatGPT*。 每种方法都有其优点和缺点,但一个共同特征(至少在其基本形式上)是,它们有意在广泛的通用数据集上进行训练,这些数据集提供语言功能,但缺乏重点或特异性。 这种类型的模型称为基础模型。 基础模型是一个大规模的人工智能模型,可以执行多个任务,对广泛的下游应用很有用。

但是,如果训练自己的模型,则可以获得显著的好处,例如:

  • 数据隐私:确保机密或专有信息不会暴露给第三方。
  • 提高性能:可以针对特定任务进行优化,以较低的成本获得良好的效果。
  • 内容控制:可以将模型训练为特定值或标准。
  • 限制偏差:您可以组织训练数据集,以提高公平性和中立性。

从头开始训练自己的模型的缺点是需要大量的努力和大量的专业知识。 因此,微调正在成为生成式 AI 模型优化的未来挑战。

使用人机反馈微调生成式 AI

微调使用预训练模型作为起点,然后针对新的特定训练数据集进行调整。 这套技术大大减少了开发时间和成本。 由于大部分训练过程可以缩短,因此微调 LLM 比从头开始训练同一模型要便宜几个数量级。

就像有许多 LLM 一样,也有很多微调方法。 所有这些方法都包括将预训练模型发布到新数据集,以及:

  • 重用:使模型适应相关任务。
  • 完整的模型微调:调整所有参数以执行新的和显着不同的任务。
  • 微调说明:训练模型遵循特定准则来限制其行为。
  • 监督微调:使用标记的数据集来优化任务,以便明确定义所需的结果。
  • 人工反馈强化学习 (RLHF):使用人工评估为复杂任务提供细致入微的反馈。
  • 参数高效微调(例如,LoRA):仅调整模型的一部分。 它有助于克服调整大型模型的挑战。

RLHF因其以类似人类的方式进行推理和决策的能力而受到最多关注。 例如,OpenAI 团队指出,与 GPT-3 模型相比,用户更喜欢 RLHF 模型的输出,即使参数少了 1/100 以上。 RLHF的缺点是需要大量的人力和计算资源。 这就是为什么我们想到了 LoRA 采用一种新的、专门的方法,旨在提高效率。

LoRA 专注于模型中的变压器注意力和前馈模块。 与其他调整模型权重的微调技术不同,LoRA 固定这些值并插入额外的可训练层。 训练这些附加层所需的计算量非常小,但结果与微调完整模型相当。 我们的团队最近展示了 LoRA 的潜力,该管道结合了 Stable Diffusion + ControlNet 和 OpenVINO™ 优化来生成不同风格的图像。

微调中的优化和决策

优化是一个重要的考虑因素,因为它不仅决定了成本,还决定了生成式人工智能的灵活性。 通过优化模型参数(如 INT8、FP16 和 FP32)的精度,可以显著提高模型的速度、内存占用和可伸缩性。

LoRA 极大地限制了所需的训练,但它也带来了修复哪些参数的挑战。 新的 API 和抽象(如 Hugging Face 的库)为开发人员提供了一条“现成”优化的途径。 英特尔一直在与该公司合作,通过使用 OpenVINO™ 优化 Hugging Face 模型来推进 AI 的采用。 借助 OpenVINO™,开发人员可以利用优化的库在采用英特尔®锐炫™显卡的系统或采用英特尔®至强®处理器的云中训练模型。

多式联运方法

生成式 AI 的另一个重大变化是迁移到多个数据源。 这可以从 LLM 用户熟悉的多模态功能中看出,例如 ChatGPT*。 在这里,基于文本的功能与捕获其他数据类型(如图像和声音)的能力相辅相成。

目前的重点已转移到数据表示上,目标是将不同的格式统一到一个数据集中。 这允许模型同时处理各种数据格式,从而产生一个复杂且功能强大的人工智能系统,充当助手。

虽然多模态模型的挑战之一是引入新的数据结构可能会影响性能和准确性,但OpenVINO™使开发人员可以轻松地加速可视化数据和其他复杂数据的推理和基准测试。

例如,我们最近探索了使用 LLaVa 和 OpenVINO 创建虚拟助手,OpenVINO™ 是一个接受视觉和图像输入的多模态系统。 使用 OpenVINO™ NNCF 将模型权重压缩到 4 位和 8 位)后,交互式虚拟助手执行推理并询问有关图像的问题。

加速生成式 AI 的未来

生成式人工智能革命正在推动模型训练和调整技术的快速发展,以及不同人工智能学科的融合。 我们期待看到该行业将如何利用这些进步来实现新的智能水平。

要开始您的生成式 AI 之旅,我们建议您查看 OpenVINO™ 笔记本,其中包含新的生成式 AI 应用程序。

什么是 OpenVINO™ 工具包?

OpenVINO™ 工具包是一款用于加速 AI 的免费工具,是一种推理引擎,它通过广泛的深度学习模型(包括计算机视觉、图像相关、自然语言处理和语音处理)优化和加速推理,充分利用英特尔免费 CPU、GPU、GPU、FPGA 等的性能。 它是一套工具。


我正在参与2024腾讯技术创作特训营最新征文,快来和我瓜分大奖!

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 训练您自己的专业生成式 AI
  • 使用人机反馈微调生成式 AI
  • 微调中的优化和决策
  • 多式联运方法
  • 加速生成式 AI 的未来
  • 什么是 OpenVINO™ 工具包?
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档