首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Ai 底层的数据集决定其是否真的人类泛化智能

国际所有先进的LLM(包括OpenAI )都离不开亚历山大的Scale AI。为什么?所有大厂的大模型对数据源都不可能自己训练出来的,亚历山大的公司就是做Ai最底层也是最难做的一步,训练地球上所有物体,把那样物体都特征数值化,通过监督和无监督等深度学习方法,都分类出来:你是马,就是怎么基因突变,也不可能变成鹿。反观我们的大模型,像文心,经常生成出来的图片同时具备了几样动物的器官,为什么会导致这样?因为我们这里,没有一家愿意把钱烧在工作量最大最难变现的底层数据源上,国内的资本投Ai公司,都是想着赚快钱,早点IPO,早点变现离场。这导致我们的Ai产业十分畸形,经常一本正经的胡说八道!

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OTqKjSxwLK6b0U3dWk9uC_zg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券