发布

机器学习入门

专栏成员
83
文章
19883
阅读量
15
订阅数
基于 BERT 的抽取式摘要
Python: 3.7 或更高版本(推荐 3.8 或 3.9,与 PyTorch 和 Transformers 兼容性更好)。
小言从不摸鱼
2025-03-05
570
【机器学习】深入探索SVM概念及其核方法
支持向量机在深度学习技术出现之前,使用高斯核的支持向量机在很多分类问题上取得了很好的结果,支持向量机不仅用于分类,还可以用于回归问题。它具有泛化性能好,适合小样本和高维特征的优点。
小言从不摸鱼
2025-02-08
1550
【机器学习】深入探索SVM:支持向量机的原理与应用
在很久以前的情人节,一位大侠要去救他的爱人,但魔鬼需要大侠先攻克他设置的防线,于是和他玩了一个游戏game。
小言从不摸鱼
2025-01-27
980
【AI大模型】BERT GPT ELMo模型的对比
ELMo: * 优点: * 从早期的Word2Vec预训练模型的最大缺点出发, 进行改进, 这一缺点就是无法解决多义词的问题. * ELMo根据上下文动态调整word embedding, 可以解决多义词的问题. * 缺点: * ELMo使用LSTM提取特征的能力弱于Transformer. * ELMo使用向量拼接的方式融合上下文特征的能力弱于Transformer.
小言从不摸鱼
2025-01-17
980
【NLP自然语言处理】Transformer模型的几大核心优势与应用前景
对于Transformer比传统序列模型RNN/LSTM具备优势的第一大原因就是强大的并行计算能力.
小言从不摸鱼
2025-01-17
1830
【AI大模型】探索GPT模型的奥秘:引领自然语言处理的新纪元
给定句子U = [u1, u2, ..., un], GPT训练语言模型时的目标是最大化下面的似然函数:
小言从不摸鱼
2025-01-17
1340
【AI大模型】深入GPT-2模型细节:揭秘其卓越性能的秘密
从模型架构上看, GPT2并没有特别新颖的架构, 它和只带有解码器模块的Transformer很像.
小言从不摸鱼
2025-01-17
820
【NLP自然语言处理】TextRank揭秘:文本摘要与关键词提取的强大算法
小言从不摸鱼
2025-01-17
1400
【面试宝典】机器学习:深度解析高频面试题与解答策略(上)
在分类问题中,这个问题相对好理解⼀点,⽐如⼈脸识别中的例⼦,正样本很好理解,就是⼈脸的图 ⽚,负样本的选取就与问题场景相关,具体⽽⾔,如果你要进⾏教室中学⽣的⼈脸识别,那么负样本就 是教室的窗⼦、墙等等,也就是说,不能是与你要研究的问题毫不相关的乱七⼋糟的场景图⽚,这样的 负样本并没有意义。负样本可以根据背景⽣成,有时候不需要寻找额外的负样本。⼀般3000-10000的正样本需要5,000,000-100,000,000的负样本来学习,在互⾦领域⼀般在⼊模前将正负⽐例通过采样的⽅ 法调整到3:1-5:1。
小言从不摸鱼
2024-12-12
1050
探索Neo4j:图数据库的卓越特性与应用实践
第三步:修改配置文件默认在/etc/neo4j/neo4j.conf, 为了方便显示下面把一些修改显示在这里
小言从不摸鱼
2024-12-12
2760
【NLP自然语言处理】FastText在文本分类中的智能应用与探索
数据集介绍,本案例烹饪相关的数据集, 它是由facebook AI实验室提供的演示数据集
小言从不摸鱼
2024-12-12
2640
拥抱AI未来:Hugging Face平台使用指南与实战技巧
Huggingface总部位于纽约,是一家专注于自然语言处理、人工智能和分布式系统的创业公司。他们所提供的聊天机器人技术一直颇受欢迎,但更出名的是他们在NLP开源社区上的贡献。Huggingface一直致力于自然语言处理NLP技术的平民化(democratize),希望每个人都能用上最先进(SOTA, state-of-the-art)的NLP技术,而非困窘于训练资源的匮乏。同时Hugging Face专注于NLP技术,拥有大型的开源社区。尤其是在github上开源的自然语言处理,预训练模型库 Transformers,已被下载超过一百万次,github上超过24000个star。Transformers 提供了NLP领域大量state-of-art的 预训练语言模型结构的模型和调用框架。
小言从不摸鱼
2024-11-24
3820
【AI大模型】ELMo模型介绍:深度理解语言模型的嵌入艺术
ELMo最底层的词嵌入采用CNN对字符级进行编码, 本质就是获得一个静态的词嵌入向量作为网络的底层输入.
小言从不摸鱼
2024-11-24
2060
【机器学习】带你迅速了解什么是机器学习
试想这样一个场景,傍晚小街路面上沁出微雨后的湿润,和煦的细风吹来,抬头看看天边的晚霞。心里想着明天又是一个好天气。
小言从不摸鱼
2024-11-24
850
【NLP自然语言处理】深入探索Self-Attention:自注意力机制详解
self-attention是一种通过自身和自身进行关联的attention机制, 从而得到更好的representation来表达自身.
小言从不摸鱼
2024-11-24
2600
【AI大模型】大型语言模型LLM基础概览:技术原理、发展历程与未来展望
大语言模型 (英文:Large Language Model,缩写LLM) 是一种人工智能模型, 旨在理解和生成人类语言. 大语言模型可以处理多种自然语言任务,如文本分类、问答、翻译、对话等等.
小言从不摸鱼
2024-11-24
5890
【NLP自然语言处理】深入解析Encoder与Decoder模块:结构、作用与深度学习应用
多头self-attention层的作用: 实验结果表明, Multi-head可以在更细致的层面上提取不同head的特征, 总体计算量和单一head相同的情况下, 提取特征的效果更佳.
小言从不摸鱼
2024-11-24
3930
【Python】运算符详解:从基础到高级,掌握数据操作的利器
需求:用户手工输入梯形的上底、下底以及高,能直接通过Python打印出梯形的面积为多少。
小言从不摸鱼
2024-10-22
1760
【AI大模型】深入Transformer架构:输入和输出部分的实现与解析
因为在Transformer的编码器结构中, 并没有针对词汇位置信息的处理,因此需要在Embedding层后加入位置编码器,将词汇位置不同可能会产生不同语义的信息加入到词嵌入张量中, 以弥补位置信息的缺失.
小言从不摸鱼
2024-10-22
2430
【AI大模型】深入Transformer架构:解码器部分的实现与解析
小言从不摸鱼
2024-10-20
1990
点击加载更多
社区活动
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档