前言
近段时间大家听到的最多的新闻热点无非就是生成式AI了。确实它的出现对社带来了巨大的改变。
对于普通人来说,他的出现带来了更大的便利。现在市面上几乎所有的应用程序都穿上了”生成式AI的盔甲“,这对于用户来说是体验更加便利的表现。 对于开发者来说,在这个巨大的风口浪尖上,许多开发者都转型为独立开发者,自己当起了老板,而他手下的员工则是这些AI。
今天实验的目的是为了证明原生的生成式AI算力精度的不确定性,及设置生成逻辑风格的单一性,从而证明AI+agent(智能体)的必要发展趋势。
pip install openai langchain langchain-wenxin
llm.py:
from langchain_wenxin import Wenxin
WENXIN_APP_Key = ""
WENXIN_APP_SECRET = ""
llm = Wenxin(
temperature=0.9,
model="ernie-bot-turbo",
baidu_api_key = WENXIN_APP_Key,
baidu_secret_key = WENXIN_APP_SECRET,
verbose=True,
)
response = llm("请给我讲一个笑话")
print(response)
文心输出:
当然可以,这是一个关于两只小猪的笑话:
有一天,两只小猪一起去郊游。一只小猪带了一个超级大的野餐篮子,里面装满了各种美食,而另一只小猪只带了一片三明治。
当他们到达目的地时,那只带美食的小猪开始抱怨:“你看,我带了这么多好吃的,你只带了一片三明治,我简直快饿死了。”
另一只小猪笑了笑,回答说:“别担心,我有办法让你吃饱。”说着,他打开三明治,从中取出一块,然后递给那只带美食的小猪。
带美食的小猪看着手中的三明治,突然笑了起来:“你这是在做什么?我只带了一片三明治,现在你要我怎么吃?”
另一只小猪回答说:“这就是我要你吃的啊!”
希望这个笑话能让你开心!
chat.py:
from langchain.schema import (
AIMessage,
HumanMessage,
)
from langchain_wenxin import ChatWenxin
WENXIN_APP_Key = ""
WENXIN_APP_SECRET = ""
chat_model = ChatWenxin(
temperature=0.9,
model="ernie-bot-turbo",
baidu_api_key = WENXIN_APP_Key,
baidu_secret_key = WENXIN_APP_SECRET,
verbose=True,
)
response = chat_model(
[
HumanMessage(content="请给我讲一个笑话")
]
)
print(response)
文心输出:
content='当然可以,这是一个有趣的笑话:\n\n有一天,一只鸟飞到一栋房子前,它看到门上写着“请勿乱扔垃圾”。
于是它决定不扔垃圾,但是它又很饿,于是它想出了一个聪明的办法。它从嘴里吐出一些食物,然后把这些食物扔到房子里。
房子的主人看到后非常惊讶,问他:“你是怎么做到的?
”鸟回答说:“很简单,我是用鸟嘴吐出来的。
”房子的主人笑了笑,说:“你真聪明,下次你可以再试试。
”\n\n希望你喜欢这个笑话!'
getAccessToken() {
let that = this
wx.request({
url: 'https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id='+api_key+'&client_secret='+secret_key,
method: 'POST',
'headers': {
'Content-Type': 'application/json',
'Accept': 'application/json'},
success: (res) => {
// console.log(res.data.access_token);
that.setData({
access_token:res.data.access_token
})
that.instructModel()
},
fail: (err) => {
reject(err);
}
});
},
instructModel(){
let that = this
const access_token = that.data.access_token
const url_chat = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions?access_token=" + access_token
const payload = {
"messages": [
{
"role": "user",
"content": "给我讲个笑话"
}
]
};
wx.request({
url: url_chat,
method: "POST",
data: payload,
header: {
'Content-Type': 'application/json'
},
success: function (res) {
console.log(res.data.result);
},
});
},
文心输出:
小明告诉妈妈:“今天有人表扬我了。”
妈妈兴奋地问:“怎么表扬的?”
小明说:“那人碰了我一下,说:‘小朋友,你胖乎乎的,真可爱!’”
以上生成的内容大家觉得搞笑度如何,那如果是让专门的人士,比如说相声的人跟他们比较呢?大家可能认为就一个笑话,用得着这么较真吗? 那如果问的问题不是笑话这么简单,而是医学上关乎生命安全领域的解决方案呢? 所以,现在的人们大多数还是将生成式AI解决方案作为极小部分的参考比例,这一现象的根本原因式在于,原生生成式AI的不精准性。 那么想要解决这一类问题,就要在原生LLM大语言模型的基础上再次深耕。这一现象也是最近爆火的一类话题”生成式AI+agent(智能体)“,这也代表了生成式AI+agent(智能体)的必要发展趋势!