OpenAI即将对不支持地区的API用户进行封禁,从7月9日起生效。这一变化引发了开发者和企业客户的广泛关注,尤其是那些依赖OpenAI API进行应用开发和服务的公司。此次封禁不仅影响到位于服务范围之外的用户,甚至一些位于支持国家的用户也报告说收到了警告邮件。这表明OpenAI在加强其服务的合法性和区域限制。
作为业界领先的人工智能公司,OpenAI自去年3月提供大模型API以来,允许第三方开发者将ChatGPT等能力集成到他们的应用程序中。这些API服务通过直接HTTP调用或通过其提供的库,使开发人员可以轻松地将OpenAI的大模型功能集成到自己的产品中。
随着技术的发展和工程优化,OpenAI API已经支持包括GPT-4o在内的多种模型,能够执行多模态生成式AI任务,同时费用也有所降低。然而,面对即将到来的封锁,许多开发者可能需要寻找替代工具,而依赖OpenAI API简单套壳的应用可能会暴露出无法独立运行的问题。
在此背景下,OpenAI还宣布将推出新功能,并已在其iOS APP上增加了高级语音模式的选项。这表明公司不仅在限制服务的地理范围,同时也在不断推动产品的创新和升级。
今天的消息还涉及到中美之间在技术投资领域的紧张关系。美国财政部最近发布的一项规则草案,要求对在半导体、微电子、量子计算和人工智能领域的某些投资进行监管,尤其是限制对中国的投资。这一政策变动可能会进一步影响中美之间的技术和贸易关系。
OpenAI的这一行动不仅基于法律合规和数据安全的考量,也可能与新加入董事会的成员有关。此外,此举可能迫使国内大模型公司加速自主研发,推动更多创业公司转向使用国产大模型,以规避未来可能的风险。
最后,值得注意的是,国内大模型厂商已经开始采取措施,通过降价或提供免费服务来吸引大模型用户,这在某种程度上可能有助于减轻OpenAI撤出部分市场带来的影响。而对于那些业务面向海外的大模型应用公司,OpenAI的政策变动影响较小,因为这些公司本身就在海外设有服务器,可以继续使用OpenAI的技术。
下面我们来介绍一个最简单的解决方案:
购买一台美国的服务器vps即可,然后安装nginx,创建反向代理来访问OpenAI的API,这样不仅符合OpenAI的要求,还可以帮助你管理API请求、增加安全性、缓存响应或分配流量。
下面是一个简单的配置:
server {
listen 80;
location /api/ {
proxy_pass https://api.openai.com/;
proxy_set_header Host api.openai.com;
proxy_set_header Authorization "Bearer YOUR_OPENAI_API_KEY";
proxy_set_header Content-Type application/json;
}
}
常见的代理服务器软件包括Nginx、Apache和HAProxy,都可以使用,甚至还可以使用Python自己写一个,并且在Github上以 ”openai proxy“ 关键词搜索可以搜到一堆的列表。
本文分享自 DeepHub IMBA 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!