前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >FM系列算法解读(FM+FFM+DeepFM)

FM系列算法解读(FM+FFM+DeepFM)

作者头像
全栈程序员站长
发布于 2022-07-01 02:05:50
发布于 2022-07-01 02:05:50
1.2K0
举报

大家好,又见面了,我是你们的朋友全栈君。

综述

  在计算广告中,CTR是非常重要的一环。对于特征组合来说,业界通用的做法主要有两大类:FM系列和Tree系列。这里我们来介绍一下FM系列。   在传统的线性模型中,每个特征都是独立的,如果需要考虑特征与特征之间的相互作用,可能需要人工对特征进行交叉组合。非线性SVM可以对特征进行核变换,但是在特征高度稀疏的情况下,并不能很好的进行学习。现在有很多分解模型可以学习到特征之间的交互隐藏关系,基本上每个模型都只适用于特定的输入和场景。推荐系统是一个高度系数的数据场景,由此产生了FM系列算法。   本文主要涉及三种FM系列算法:FM,FFM,DeepFM

一、FM算法(Factorization Machines)

背景

FM(Factorization Machine)主要是为了解决数据稀疏的情况下,特征怎样组合的问题。已一个广告分类的问题为例,根据用户与广告位的一些特征,来预测用户是否会点击广告。数据如下:

对于ctr点击的分类预测中,有些特征是分类变量,一般进行one-hot编码,以下是对组合特征的one-hot:

one-hot会带来数据的稀疏性,使得特征空间变大。

另外,对于普通的线性模型,我们将各个特征独立考虑,并没有考虑特征与特征之间的关系,因此有很多方法对特征进行组合,数据模型上表达特征xi,xj的组合用xixj表示,即所说的多项式模型,通常情况下只考虑两阶多项式模型,也就是特征两两组合的问题,模型表达如下:

y=w0+∑i=1nwixi+∑i=1n−1∑j=i+1nwijxixj y = w 0 + ∑ i = 1 n w i x i + ∑ i = 1 n − 1 ∑ j = i + 1 n w i j x i x j

y=w_0+\sum_{i=1}^nw_ix_i+\sum_i=1^{n-1}\sum_{j=i+1}^nw_{ij}x_ix_j 其中n表示样本的特征数量,这里的特征是离散化后的特征。与线性模型相比,FM的模型多了后面的特征组合的部分。

FM求解

Wij求解的思路是通过矩阵分解的方法,为了求解Wij,我们队每一个特征分量xi引入辅助向量 Vi=(vi1,vi2,...,vik) V i = ( v i 1 , v i 2 , . . . , v i k ) V_i=(v_{i1},v_{i2},...,v_{ik})

然后用 vivTj v i v j T v_iv_j^T对 wij w i j w_{ij}进行求解

从上式可以看出二项式的参数数量由原来的 n(n−1)2 n ( n − 1 ) 2 \frac{n(n-1)}{2}个减少为nk个wik,远少于多项式模型的参数数量。另外,参数因子化使得 xhxi x h x i x_hx_i的参数和 xhxj x h x j x_hx_j的参数不再相互独立,因为有了 xh x h x_h特征关联。因此我们可以在样本系数的情况下相对合理地估计FM的二次项参数。 具体来说, xhxi x h x i x_hx_i和 xhxj x h x j x_hx_j的系数分别为< vh,vi v h , v i v_h,v_i>,< vh,vj v h , v j v_h,v_j>,它们之间的共同项vi,因此所有包含xi的非零组合特征的样本都可以用来学习隐向量vi,很大程度上避免了数据稀疏性造成的影响。 求解< vi,vj v i , v j v_i,v_j>,主要采用公式 (a+b+c)2−a2−b2−c2 ( a + b + c ) 2 − a 2 − b 2 − c 2 (a+b+c)^2-a^2-b^2-c^2求出交叉项,具体过程如下:

FM的复杂度为 O(kn2) O ( k n 2 ) O(kn^2),通过上述等式,FM的二次项化简为只与 vi,f v i , f v_{i,f}有关的等式。因此,FM可以在线性时间对新样本做出预测,复杂度和LR模型一样,且效果提升不少。 在训练FM是,加入使用SGD来优化模型,训练时各个参数的梯度如下:

∑nj=1vj,fxj ∑ j = 1 n v j , f x j \sum_{j=1}^nv_{j,f}x_j只与f有关,只要求出一次所有的f元素,就能够计算出所有 vi,f v i , f v_{i,f}的梯度,而f是矩阵V中的元素,计算复杂度为O(kn)。当已知 ∑nj=1vj,fxj ∑ j = 1 n v j , f x j \sum_{j=1}^nv_{j,f}x_j时计算每个参数梯度的复杂度是O(1),更新每个参数的复杂度为O(1),因此训练FM模型的复杂度也是O(kn)

扩展到多维,模型表达式为:

FM vs SVM

SVM和FM的主要区别在于:

  • SVM的二元特征交叉参数是独立的,而FM的二元特征交叉参数是两个k维的向量vi、vj,交叉参数就不是独立的,而是相互影响的。
  • FM可以在原始形式下进行优化学习,而基于kernel的非线性SVM通常需要在对偶形式下进行
  • FM的模型预测是与训练样本独立,而SVM则与部分训练样本有关,即支持向量

为什么线性SVM在和多项式SVM在稀疏条件下效果会比较差呢?线性svm只有一维特征,不能挖掘深层次的组合特征在实际预测中并没有很好的表现;而多项式svn正如前面提到的,交叉的多个特征需要在训练集上共现才能被学习到,否则该对应的参数就为0,这样对于测试集上的case而言这样的特征就失去了意义,因此在稀疏条件下,SVM表现并不能让人满意。而FM不一样,通过向量化的交叉,可以学习到不同特征之间的交互,进行提取到更深层次的抽象意义。

参考: 1. https://blog.csdn.net/jiangjiang_jian/article/details/80631180 2. https://www.csie.ntu.edu.tw/~b97053/paper/Rendle2010FM.pdf 3.https://www.csie.ntu.edu.tw/~b97053/paper/Factorization%20Machines%20with%20libFM.pdf 3. https://blog.csdn.net/tiangcs/article/details/76601643?locationNum=9&fps=1 4. https://www.cnblogs.com/AndyJee/p/7879765.html

二、FFM算法(Field-aware Factorization Machine)

在CTR预估中,通常会遇到one-hot类型的变量,会导致数据特征的稀疏。未解决这个问题,FFM在FM的基础上进一步改进,在模型中引入类别的概念,即field。将同一个field的特征单独进行one-hot,因此在FFM中,每一维特征都会针对其他特征的每个field,分别学习一个隐变量,该隐变量不仅与特征相关,也与field相关。 假设样本的n个特征属于f个field,那么FFM的二次项有nf个隐向量。而在FM模型中,每一维特征的隐向量只有一个。FM可以看做FFM的特例,把所有特征都归属到一个field的FFM模型。其模型方程为:

y(X)=w0+∑i=1nwixi+∑i=1n∑j=i+1n<Vi,fj,Vj,fi>xixj y ( X ) = w 0 + ∑ i = 1 n w i x i + ∑ i = 1 n ∑ j = i + 1 n < V i , f j , V j , f i > x i x j

y(X)=w_0+\sum_{i=1}^nw_ix_i+\sum_{i=1}^n\sum_{j=i+1}^n<V_{i,f_j},V_{j,f_i}>x_ix_j 如果隐向量的长度为k,那么FFM的二次参数有nfk个,远多于FM模型的nk个。

FFM实现

  • 损失函数 FFM将问题定义为分类问题,使用的是logistic loss,同时加入正则项 minw∑i=1Llog(1+exp(−yiϕ(w,xi)))+λ2||w||2 m i n w ∑ i = 1 L l o g ( 1 + e x p ( − y i ϕ ( w , x i ) ) ) + λ 2 | | w | | 2 min_w\sum_{i=1}^Llog(1+exp(-y_i\phi(w,x_i)))+\frac{\lambda}{2}||w||^2
  • 梯度下降 梯度下降方法有很多种,根据为提高效率分别衍生了批量梯度下降,随机梯度下降及小批量梯度下降,根据需求选择即可

FFM应用

在DSP或者推荐场景中,FFM主要用来评估站内的CTR和CVR,即一个用户对一个商品的潜在点击率和点击后的转化率。 CTR和CVR预估模型都是在线下训练,然后线上预测。两个模型采用的特征大同小异,主要分三类:

  • 用户相关的特征 年龄、性别、职业、兴趣、品类偏好、浏览/购买品类等基本信息,以及用户近期点击量/购买量/消费额等统计信息
  • 商品相关的特征 商品所属品类、销量、价格、评分、历史CTR/CVR等信息
  • 用户-商品匹配特征 浏览/购买品类匹配、浏览/购买商家匹配、兴趣偏好匹配等

为了使用FFM方法,所有的特征必须转换成“field_id:feat_id:value”格式,field_id代表特征所属field的编号,feat_id是特征编号,value是特征的值。数值型的特征比较容易处理,只需分配单独的field编号,如用户评论得分、商品的历史CTR/CVR等。categorical特征需要经过One-Hot编码成数值型,编码产生的所有特征同属于一个field,而特征的值只能是0或1,如用户的性别、年龄段,商品的品类id等。除此之外,还有第三类特征,如用户浏览/购买品类,有多个品类id且用一个数值衡量用户浏览或购买每个品类商品的数量。这类特征按照categorical特征处理,不同的只是特征的值不是0或1,而是代表用户浏览或购买数量的数值。按前述方法得到field_id之后,再对转换后特征顺序编号,得到feat_id,特征的值也可以按照之前的方法获得。 【举例说明】

原始数据:

  • 特征编号:
  • 特征组合:

在训练FFM的过程中,有许多小细节值得特别关注。

  • 样本归一化:FFM默认是进行样本数据的归一化,即 为真;若此参数设置为假,很容易造成数据inf溢出,进而引起梯度计算的nan错误。因此,样本层面的数据是推荐进行归一化的。
  • 特征归一化:CTR/CVR模型采用了多种类型的源特征,包括数值型和categorical类型等。但是,categorical类编码后的特征取值只有0或1,较大的数值型特征会造成样本归一化后categorical类生成特征的值非常小,没有区分性。例如,一条用户-商品记录,用户为“男”性,商品的销量是5000个(假设其它特征的值为零),那么归一化后特征“sex=male”(性别为男)的值略小于0.0002,而“volume”(销量)的值近似为1。特征“sex=male”在这个样本中的作用几乎可以忽略不计,这是相当不合理的。因此,将源数值型特征的值归一化到 是非常必要的。
  • 省略零值特征:从FFM模型的表达式可以看出,零值特征对模型完全没有贡献。包含零值特征的一次项和组合项均为零,对于训练模型参数或者目标值预估是没有作用的。因此,可以省去零值特征,提高FFM模型训练和预测的速度,这也是稀疏样本采用FFM的显著优势。

参考: 1. https://www.jianshu.com/p/781cde3d5f3d 2. https://blog.csdn.net/u012102306/article/details/51322194

三、DeepFM

FM通过对于每一位特征的隐变量内积来提取特征组合,最后的结果也不错,虽然理论上FM可以对高阶特征组合进行建模,但实际上因为计算复杂度原因,一般都只用到了二阶特征组合。对于告诫特征组合来说,我们很自然想到多层神经网络DNN

FM的结构

DNN结构

DeepFM结构

FM和DNN的特征结合

DeepFM目的是同时学习低阶和高阶的特征交叉,主要由FM和DNN两部分组成,底部共享同样的输入。模型可以表示为:

y^=sigmoid(yFM+yDNN) y ^ = s i g m o i d ( y F M + y D N N )

\hat{y}=sigmoid(y_{FM}+y_{DNN})

FM部分 原理如上,数学表达为

yFM=<w,x>+∑i=1d∑j=i+1d<Vi,Vj>xi⋅xj y F M =< w , x > + ∑ i = 1 d ∑ j = i + 1 d < V i , V j > x i ⋅ x j

y_{FM}=<w,x>+\sum_{i=1}^d\sum_{j=i+1}^d<V_i,V_j>x_i \cdot x_j

Deep部分 深度部分是一个前馈神经网络,与图像或语音类的输入不同,CTR的输入一般是极其稀疏的,因此需要重新设计网络结构。在第一层隐藏层之前,引入一个嵌入层来完成输入向量压缩到低位稠密向量:

嵌入层的结构如上图所示,有两个有趣的特性: 1) 尽管不同field的输入长度不同,但是embedding之后向量的长度均为k 2) 在FM中得到的隐变量 Vik V i k V_{ik}现在作为嵌入层网络的权重

嵌入层的输出为 a(0)=[e1,e2,...,em] a ( 0 ) = [ e 1 , e 2 , . . . , e m ] a^{(0)}=[e_1,e_2,...,e_m],其中 ei e i e_i是嵌入的第i个filed,m是field的个数,前向过程将嵌入层的输出输入到隐藏层为

a(l+1)=σ(W(l)a(l)+b(l)) a ( l + 1 ) = σ ( W ( l ) a ( l ) + b ( l ) )

a^{(l+1)}=\sigma(W^{(l)}a^{(l)}+b^{(l)}) 其中l是层数, σ σ \sigma是激活函数, W(l) W ( l ) W^{(l)}是模型的权重, b(l) b ( l ) b^{(l)}是l层的偏置 因此,DNN得预测模型表达为:

yDNN=W|H|+1⋅a|H|+b|H|+1 y D N N = W | H | + 1 ⋅ a | H | + b | H | + 1

y_{DNN}=W^{|H|+1} \cdot a^{|H|}+b^{|H|+1} |H|为隐藏层层数

模型对比

有学者将DeepFM与当前流行的应用于CTR的神经网络做了对比

从预训练,特征维度以及特征工程的角度进行对比,发现

从实验效果来看,DeepFM的效果较好

参考: 1. https://arxiv.org/pdf/1703.04247.pdf 2. https://www.jianshu.com/p/6f1c2643d31b 3. https://blog.csdn.net/zynash2/article/details/79348540 4. https://blog.csdn.net/zynash2/article/details/79360195

实践参考:https://blog.csdn.net/john_xyz/article/details/78933253

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/131689.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
川普PK希拉里,谁演讲技术更好?这里有一个AI做的测试
来源:foxnews.com 作者:Brooke Crothers 编译:刘小芹 【新智元导读】最近Trint公司做了一个测试,用它的AI软件对特朗普、克林顿、奥巴马等14名有影响力的政界人物的演讲进行语音转文本测试,目的是看看谁的演讲是AI最容易理解的。结果表明,前国务卿希拉里·克林顿排名第二,特朗普以97.89%正确率排在倒数第四名。 尽管人工智能和机器学习的技术已经存在了几十年,但直到过去几年,它才开始获得主流的认可。例如,iPhone自2011年起内置了智能助理Siri,用于理解语音。Androi
新智元
2018/03/21
6550
谷歌操纵20年大选!算法帮拜登击败特朗普,950页源文件泄漏
---- 新智元报道   编辑:武穆 桃子 【新智元导读】美国中期选举临近,有关谷歌操纵大选的新闻,又被挖了出来。从种种披露的资料来看,操纵大选这事,谷歌无论如何也赖不掉了。 众所周知,2020年的大选,是拜登胜出。 如果细看选票的统计的话,会发现,从全美普选票来看,在计票率为97%时,拜登以50.8%的得票率超过特朗普的47.4%,拜登的优势并不是特别大。 所以在大选基本尘埃落定之际,特朗普方面一直不甘心,想要重新计票。 不过大选已经尘埃落定,特朗普方面再不甘心也只是徒劳。 然而就在美国即将举行中
新智元
2022/09/27
3300
谷歌操纵20年大选!算法帮拜登击败特朗普,950页源文件泄漏
【AI版纸牌屋】特朗普团队操纵大数据+AI左右竞选引舆论哗然
【新智元导读】一家名叫Cambridge Analytica的数据分析公司成了这两天新闻的焦点,他们使用大数据和AI分析Facebook用户资料,操纵舆论帮助特朗普竞选。研究早已发现,机器能比人类更加精准地掌握人类的性格。AI和大数据正在成为强大的政治武器,假新闻、机器人水军、AI换脸既成为一种技术现象,也是一种社会现象,是我们每个人都需要面对和思考的问题。 消息已经出来了:俄罗斯大选,弗拉基米尔·普京轻松赢得了第四个任期,对70%的得票进行抽查的结果显示,普京得票率为75.91%。 民意调查显示,
新智元
2018/03/22
1.2K0
【AI版纸牌屋】特朗普团队操纵大数据+AI左右竞选引舆论哗然
响铃:Don't be evil?Google别闹了
刚刚被欧盟贴了巨额罚单的Google又开心起来。美国时间7月23日,谷歌母公司Alphabet公布了2018年二季度财报,总营收326.57亿美元,同比增长26%。
曾响铃
2018/08/20
7600
响铃:Don't be evil?Google别闹了
Google“炸弹”袭击2004美国总统大选
Google“炸弹”袭击2004美国总统大选     现在,当打开国际头号网络搜索引擎Google(www.google.com),键入“胡说八道”(Waffles)时,在540,000项符合“胡说八道”的查询结果中,克里的个人网站(johnkerry.com)已攀升至第二位。这给人的印象是:您瞧,克里就是那个最“胡说八道”的家伙了。
数据和云01
2018/09/12
4310
谷歌的十种搜索技术创新
大数据文摘翻译,转载请保留 作者:Amit Singhal 翻译/超伦 校对/yawei xia 阿米特·辛格回看10年谷歌搜索技术发展 十年前,谷歌以每股85美金上市,并在第一天交易日就售出2200多万股的股票,价值272亿美元。 今天,谷歌市值已经超过当时的15倍,达到约3970亿美金,这主要归功于其蒸蒸日上的搜索广告业务。根据NetMarketShare的数据,谷歌控制了大约68%的全球桌面搜索市场和大约91%的移动搜索市场。 艾米特·辛格在14年前加入谷歌,现任高级
大数据文摘
2018/05/22
7210
深度 | 美国大选 Facebook 误导公众?智能时代,推荐算法主导群体意识
【新智元导读】Facebook 将一则美国大选的假新闻置顶,引发热议。在批判 Facebook 的喧嚣之中,很少有人看清,问题的本质并非 Facebook 传播了假新闻,而是 Facebook 的算法出了问题。算法设计的本质不是消除错误,而是对错误有耐受力。在信息传播愈发受算法左右的现在,只有不断设计更好的算法,才能获得更好的“媒体”——不过,算法的标准,取决于公司在商业模式和用户体验之间作何选择。 11月9日,美国大选结果出炉: 共和党候选人唐纳德•特朗普(Donald Trump)拿下威斯康星州的10张
新智元
2018/03/26
7370
深度  | 美国大选 Facebook 误导公众?智能时代,推荐算法主导群体意识
希拉里PK川普激战正酣,看看黑客如何“干预”美国总统大选
昨天的美国大选第二轮辩论,相信大家都有所耳闻,撕得那是一个风生水起,好生热闹!不过今年除了两位总统候选人备受关注之外,黑客攻击干扰大选的新闻也是屡屡见诸报端,引发了激烈的讨论。 美国大选流程 在谈黑客
FB客服
2018/02/09
9370
希拉里PK川普激战正酣,看看黑客如何“干预”美国总统大选
从未失手的AI 预测:川普将赢得选举,入主白宫 (附深度学习生成川普语录教程)
【新智元导读】 从2004年开始连续三次准确预测美国总统大选结果的AI系统MogAI10月28日发布最新预测,看好川普赢得与希拉里的2016总统之争。不管最终结果如何,川普作为美国总统候选人都已经获得了“深入人心”的形象,国外甚至有人整理了他的一些有趣的言论,推出“川普语录”。本文后半部分秉承新智元的干货原则,手把手教你使用递归神经网络在TensorFlow上让生成川普讲话。 “唐纳德·川普会赢”,准确预测了前三场选举的AI系统如此说道。 “如果川普输了,将是过去12年里第一次违反数据趋势,”AI的开发人员
新智元
2018/03/26
1K0
从未失手的AI 预测:川普将赢得选举,入主白宫 (附深度学习生成川普语录教程)
社交媒体分析:洞察希拉里面对的性别歧视
大数据文摘作品 编译成员:周希雯,王昱森,闫蒲,陈妍君,Xenia 感谢Julia Lu提供的素材 【摘要】作为女性总统候选人,希拉里被支持者视作政坛女强人,然而在社交媒体上,频现针对希拉里性别的语言
大数据文摘
2018/05/22
8380
外链建设:详谈链接价值
在过去十多年前友情链接是非常受欢迎而且有效,但现在不再有效。谷歌允许这些事情持续多年,他们很清楚很多网站管理员和网站所有者都不知道友情链接存在真正的问题。实际上是谷歌的外链方案中提到这个问题,例如某种惩罚,可能不会。
林雍岷
2019/07/12
6320
外链建设:详谈链接价值
特朗普炮轰:Google一下,净说我坏话!
用谷歌搜“特朗普新闻”,结果只显示CNN这些“假新闻媒体”的观点或报道,而共和党、保守派以及“公平媒体”被拒之门外。
新智元
2018/09/25
4940
特朗普炮轰:Google一下,净说我坏话!
揭秘全球最危险的11大网络间谍组织
几十年前,当黑客入侵刚刚出现的时候,其大多是网络“发烧友”的“杰作”,他们痴迷于学习有关计算机和网络的一切知识。现如今,民族国家支持的威胁行为者正在开发越来越复杂的网络间谍工具,而网络犯罪分子则针对包含《财富》500强企业、医院、政府机构以及金融机构等在内的一切事物实施攻击,赚得盆满钵满。
FB客服
2021/07/02
1.5K0
谷歌搜索秘籍泄漏:揭秘内部工程文档 [译]
好吧,让我们开始吧。谷歌搜索内容库 API 的内部文档不慎泄露。谷歌内部的微服务体系与谷歌云平台所提供的服务相似,其已废弃的文档 AI 仓库的内部文档不小心被公开到了客户端库的代码仓库中。该代码的文档也被外部的自动化文档服务记录下来。
硬核编程
2024/06/07
1580
谷歌搜索秘籍泄漏:揭秘内部工程文档 [译]
Who Knows You Better
这一集有一个地方印象非常深刻,是警方和碎片的 COO 去了解 Chris 背景信息维度的差异。
Fred Liang
2020/01/02
7970
Who Knows You Better
川普的逆袭,是给大数据的一记耳光!
昨日,美国总统选举落下帷幕,共和党总统候选人唐纳德·特朗普在这场权利的游戏中获得胜利,成功当选美国第58届总统。这次美国总统竞选被德国《商报》称作“第一次数字化竞选”,而特朗普的这次逆袭,让之前支持希
钱塘数据
2018/03/02
1.2K0
川普的逆袭,是给大数据的一记耳光!
助特朗普胜选、英国脱欧,深扒FB丑闻背后的神秘数据公司如何玩转人心
大数据文摘作品 作者:钱天培、邱猛、龙牧雪、魏子敏 美国时间 3月19日,星期一,Facebook股价暴跌7%,一天内市值蒸发近400亿美元。在“数据泄露丑闻”发酵之下,这一暴跌并不意外。 上周五,特朗普(Donald Trump)聘用的一家政治AI公司剑桥分析(Cambridge Analytica),被曝非法将大约5千万Facebook用户的信息用于大数据分析,从而精准刻画这些Facebook用户的心理特征,并向他们推送定制广告,甚至假新闻。 这些用户信息由剑桥大学心理学系讲师Aleksandr Kog
大数据文摘
2018/05/23
8750
谷歌霸权瓦解?从霸主到备受质疑:二十年塑造网络潮流的谷歌搜索陷入迷局
1998年,谷歌的两位创始人Larry Page和Sergey Brin为计算机科学家John Hennessy演示了谷歌。他们在AltaVista和Google上搜索了Casper的名字。
新智元
2023/09/09
2320
谷歌霸权瓦解?从霸主到备受质疑:二十年塑造网络潮流的谷歌搜索陷入迷局
谷歌数据集搜索正式版出炉:全面升级,覆盖2500万数据集
近日,谷歌宣布,它们的数据集搜索引擎不再是 beta 版了。这意味着该产品已经正式向用户们开放使用。Jeff Dean 和谷歌官方都在推特上宣布了这一消息。
机器之心
2020/02/24
7840
谷歌数据集搜索正式版出炉:全面升级,覆盖2500万数据集
谷歌搜索语法大全_Google语法
关于搜索,像国内外的百度,bing,Yahoo,soso等好多网站都可以做到,但是他们的影响力却远远不如Google大?那么为什么Google这么令人关注呢?我们先来了解一下Google的搜索特色。
全栈程序员站长
2022/11/04
1.7K0
谷歌搜索语法大全_Google语法
推荐阅读
相关推荐
川普PK希拉里,谁演讲技术更好?这里有一个AI做的测试
更多 >
LV.1
这个人很懒,什么都没有留下~
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档