Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >这款 AI 网关项目简直太棒了,轻松接入OpenAI、LLama2、Google Gem)ini等 100 多种大语言模型!

这款 AI 网关项目简直太棒了,轻松接入OpenAI、LLama2、Google Gem)ini等 100 多种大语言模型!

作者头像
Python兴趣圈
发布于 2024-01-19 06:48:17
发布于 2024-01-19 06:48:17
1.9K00
代码可运行
举报
文章被收录于专栏:翩翩白衣少年翩翩白衣少年
运行总次数:0
代码可运行

前言

在当今的人工智能领域,接入和使用各种大语言模型是非常重要的。

然而,随着技术的不断发展,各种AI模型框架也越来越多,管理和整合多个模型、服务提供商和密钥可能会变得复杂。

幸运的是,而今有一款名为“AI 网关”的开源项目可以帮助简化这一过程。

本篇小编将介绍这个令人振奋的项目,以及它的特色功能、使用方法和应用场景。

项目介绍

AI Gateway 是一个AI领域的开源工具,是应用程序和托管 LLM 之间的接口,通过统一简单的 API,让用户轻松快速接入 100 多种大语言模型,如 OpenAI、Anthropic、Mistral、LLama2、Google Gemini 等。

项目地址:https://github.com/Portkey-AI/gateway

特色功能

  • • ✅ 速度极快(快 9.9 倍),占用空间极小(已安装约 45kb)
  • • ✅ 跨多个模型、提供程序和密钥的负载平衡
  • • ✅ 回退确保您的应用程序保持弹性
  • • ✅ 默认情况下具有指数回退的 自动重试
  • • ✅ 插件中间件根据需要
  • • ✅ 经过超过100B 代币的战斗测试
四大特征

1、统一API签名

2、倒退

3、自动重试

4、负载均衡

使用方法

部署属于自己的私人网关,前提是电脑上安装Node.js 和npx

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
npx @portkey-ai/gateway

网关web服务启动之后,直接访问以下地址即可:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
http://localhost:8787

而详细的用法及相关模型的调用是通过curl 命令请求的,比如使用OpenAI的模型:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
curl '127.0.0.1:8787/v1/chat/completions' \
  -H 'x-portkey-provider: openai' \
  -H "Authorization: Bearer $OPENAI_KEY" \
  -H 'Content-Type: application/json' \
  -d '{"messages": [{"role": "user","content": "Say this is test."}], "max_tokens": 20, "model": "gpt-4"}'

支持的SDK基本上满足当下各种开发语言:JavaPython、GO、JS等。

支持接入的GPT产品有100+。以下只是一部门AI产品截图:

配置AI网关

AI 网关支持配置以启用多种路由策略,例如回退、负载平衡、重试等。 您可以在通过标头

进行 OpenAI 调用时使用这些配置x-portkey-config

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
// Using the OpenAI JS SDK
const client = new OpenAI({
  baseURL: "http://127.0.0.1:8787", // The gateway URL
  defaultHeaders: {
    'x-portkey-config': {.. your config here ..}, 
  }
});

下面是官方提供的一个示例配置,比如:在回退到 Gemini Pro 之前重试 OpenAI 请求 5 次。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
{
  "retry": { "count": 5 },
  "strategy": { "mode": "fallback" },
  "targets": [{
      "provider": "openai",
      "api_key": "sk-***"
    },{
      "provider": "google",
      "api_key": "gt5***",
      "override_params": {"model": "gemini-pro"}
  }]
}

还可以配置在 2 个 OpenAI 密钥之间实现均匀的负载平衡。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
{
  "strategy": { "mode": "loadbalance" },
  "targets": [{
      "provider": "openai",
      "api_key": "sk-***",
      "weight": "0.5"
    },{
      "provider": "openai",
      "api_key": "sk-***",
      "weight": "0.5"
    }
  ]
}

应用场景

AI Gateway 适用于各种人工智能应用场景,包括自然语言处理、文本生成、语音识别等。无论是个人开发者还是企业级应用,都可以受益于该工具的便捷性和稳定性。

总结

AI Gateway 是一个令人振奋的开源项目,为用户提供了轻松接入多种大语言模型的解决方案。

其极小的占用空间和快速的处理速度,以及丰富的特色功能,使其成为人工智能领域的导航工具。

通过该工具,用户可以更加高效地管理和集成多个模型,提高应用的稳定性和可靠性。如果你正在寻找一种简单而强大的方法来接入大语言模型,那么AI网关绝对值得一试。

写到最后

感谢您的一路陪伴,用代码构建世界,一起探索充满未知且奇妙的魔幻旅程。如果您对Python编程技巧、好玩实用的开源项目、行业新知趣事和各类技术干货等充满兴趣,那么不要错过未来我为大家奉上的精彩内容!点击关注,让您的探索学习之旅更加丰富多彩,我们一同成长,一同前行!🚀💻📚

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-01-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python兴趣圈 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Huggingface🤗NLP笔记7:使用Trainer API来微调模型
不得不说,这个Huggingface很贴心,这里的warning写的很清楚。这里我们使用的是带ForSequenceClassification这个Head的模型,但是我们的bert-baed-cased虽然它本身也有自身的Head,但跟我们这里的二分类任务不匹配,所以可以看到,它的Head被移除了,使用了一个随机初始化的ForSequenceClassificationHead。
beyondGuo
2021/10/08
8.7K0
Transformers 4.37 中文文档(一)
下表表示库中对这些模型的当前支持,它们是否有 Python 分词器(称为“slow”)。由🤗 Tokenizers 库支持的“fast”分词器,它们是否在 Jax(通过 Flax)、PyTorch 和/或 TensorFlow 中有支持。
ApacheCN_飞龙
2024/06/26
1.2K0
Transformers 4.37 中文文档(一)
Transformers 4.37 中文文档(四)
www.youtube-nocookie.com/embed/KWwzcmG98Ds
ApacheCN_飞龙
2024/06/26
4030
Transformers 4.37 中文文档(四)
Transformers 4.37 中文文档(三)
www.youtube-nocookie.com/embed/ajPx5LwJD-I
ApacheCN_飞龙
2024/06/26
2440
Transformers 4.37 中文文档(二)
除了🤗 Transformers 的 notebooks 之外,还有示例脚本演示如何使用PyTorch、TensorFlow或JAX/Flax训练模型的方法。
ApacheCN_飞龙
2024/06/26
6890
Transformers 4.37 中文文档(二)
5分钟NLP:使用 HuggingFace 微调BERT 并使用 TensorBoard 可视化
上篇文章我们已经介绍了Hugging Face的主要类,在本文中将介绍如何使用Hugging Face进行BERT的微调进行评论的分类。其中包含:AutoTokenizer、AutoModel、Trainer、TensorBoard、数据集和指标的使用方法。
deephub
2022/04/14
1.4K0
5分钟NLP:使用 HuggingFace 微调BERT 并使用 TensorBoard 可视化
transformers快速上手:实体识别和词性标注
大家好,我是多多,最近在学习整理预训练模型和transformers。这是本系列的第3篇。文字和代码较多,建议点赞、在看、收藏食用。
AI部落联盟
2021/05/11
2.9K0
transformers快速上手:实体识别和词性标注
使用 Transformers 在你自己的数据集上训练文本分类模型
最近实在是有点忙,没啥时间写博客了。趁着周末水一文,把最近用 huggingface transformers 训练文本分类模型时遇到的一个小问题说下。
Alan Lee
2021/12/07
2.5K0
探秘Transformers:用Hugging Face预训练模型实现命名实体识别!
命名实体识别(NER)是自然语言处理中的一项关键任务,旨在从文本中识别并提取出具有特定意义的实体,如人名、地名、组织机构名等。通过NER,计算机可以更好地理解文本,帮助我们从海量文本数据中快速获取有用信息,是许多NLP应用的基础,如信息提取、问答系统等。
Tom2Code
2024/03/02
1.4K0
探秘Transformers:用Hugging Face预训练模型实现命名实体识别!
在低配置电脑上使用TinyBERT训练并部署产品编号提取模型
虽然 TinyBERT 相比于 BERT 较小,但训练和推理过程中仍然依赖于计算资源。如果你的计算机没有 GPU,可以考虑使用 Google Colab 或 AWS 等云平台来提供 GPU 计算资源。
IT蜗壳-Tango
2025/03/22
1340
聊聊预训练模型的微调
翻译自:Fine-tuning a model with the Trainer API
Ryan_OVO
2023/10/19
5330
基于深度学习的NER(命名实体识别)教程 —— 识别文本中的编号
命名实体识别(Named Entity Recognition, NER)是自然语言处理(NLP)任务之一,用于识别文本中的特定类别的实体,如人名、地名、组织名、日期、编号等。
IT蜗壳-Tango
2025/03/18
1260
从零预训练一个自己的大模型(完整代码)
(2)复制安装包下载链接,在Linux中安装。 Miniconda镜像(清华源):miniconda清华源
用户2225445
2025/03/15
2390
从零预训练一个自己的大模型(完整代码)
应用实践:Paddle分类模型大集成者[PaddleHub、Finetune、prompt]
相关文章: [Paddlenlp之UIE模型实战实体抽取任务【打车数据、快递单】](https://blog.csdn.net/sinat_39620217/article/details/12582
汀丶人工智能
2022/11/11
3830
Transformer 模型实用介绍:BERT
在 NLP 中,Transformer 模型架构是一场革命,极大地增强了理解和生成文本信息的能力。
数据科学工厂
2023/08/10
5870
Transformer 模型实用介绍:BERT
使用huggingface全家桶(transformers, datasets)实现一条龙BERT训练(trainer)和预测(pipeline)
huggingface的transformers在我写下本文时已有39.5k star,可能是目前最流行的深度学习库了,而这家机构又提供了datasets这个库,帮助快速获取和处理数据。这一套全家桶使得整个使用BERT类模型机器学习流程变得前所未有的简单。
blmoistawinde
2021/01/21
5.5K0
基于腾讯云HAI + DeepSeek 开发企业知识库
自从年后大家都开始关注deepseek,我们公司年后特别忙,上面的老板及其他部门都提出了需求。 之前各个部门对AI模型都不了解,经过网上铺天盖地的新闻后,大家都知道AI比较厉害,所以都提出来部门的想法看如何把deepseek引入到部门中,原因大家想必都知道,就是提高大家的工作效率,节省人力。
七条猫
2025/03/08
3022
基于腾讯云HAI + DeepSeek 开发企业知识库
nlp-with-transformers系列-02-从头构建文本分类器
文本分类是 NLP 中最常见的任务之一, 它可用于广泛的应用或者开发成程序,例如将用户反馈文本标记为某种类别,或者根据客户文本语言自动归类。另外向我们平时见到的邮件垃圾过滤器也是文本分类最熟悉的应用场景之一。
致Great
2023/08/25
1.4K0
nlp-with-transformers系列-02-从头构建文本分类器
使用Huggingface创建大语言模型RLHF训练流程的完整教程
ChatGPT已经成为家喻户晓的名字,而大语言模型在ChatGPT刺激下也得到了快速发展,这使得我们可以基于这些技术来改进我们的业务。
deephub
2023/12/05
1.9K0
使用Huggingface创建大语言模型RLHF训练流程的完整教程
使用LORA微调RoBERTa
模型微调是指在一个已经训练好的模型的基础上,针对特定任务或者特定数据集进行再次训练以提高性能的过程。微调可以在使其适应特定任务时产生显着的结果。
deephub
2024/02/21
4480
使用LORA微调RoBERTa
推荐阅读
相关推荐
Huggingface🤗NLP笔记7:使用Trainer API来微调模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验