首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

RSS消亡史:没有比这更令人扼腕叹息的了!

所以我想也许是时候做一个我自己的 RSS 阅读器了,一个比其他阅读器更适合我个人需求的阅读器,也许这会让我恢复阅读RSS的好习惯。 过去的辉煌 一切都开始于几年前。...我当时对极简主义很感兴趣,那个页面只显示了简短的新闻标题和漂亮清晰的排版。甚至为了添加另一个博客,我不得不编辑 HTML 源代码本身。...使用 节点来定义动态添加元素的布局,比如新闻标题或提要列表中的条目。 仅留下了一个屏幕,减少动画数量。 我在想,如果我在十年前写,没有这么多花里胡哨的现代技术,这将如何实现。...然而,如果该应用程序有一段时间没有使用,Webkit 和 Apple 会默认清空本地的存储数据。那么用户不仅会丢失缓存的新闻,还会丢失宝贵的提要列表。...另辟蹊径,我倒是实现了文字关键字过滤。用户可以列出要突出显示的单词和正则表达式,就可以突出显示匹配的标题。 简单、快速、可预测。所以我又回到了每天使用 RSS 的状态。

1.3K10

vim显示行号、语法高亮、自动缩进的设置

"去除vim的GUI版本中得toolbar set vb t_vb= "当vim进行编辑时,如果命令错误,会发出警报,该设置去掉警报..."默认情况下,寻找匹配是高亮度显示,该设置关闭高亮显示 set incsearch "在程序中查询一单词,自动匹配单词的位置;如查询desk单词,...当输到/d时,会自动找到第一个d开头的单词,当输入到/de时,会自动找到第一个以ds开头的单词,以此类推,进行查找;当找到要匹配的单词时,别忘记回车 set backspace=2...backup endif 如果设置完成后,发现功能没有起作用,检查一下系统下是否安装了vim-enhanced包,查询命令为:         $rpm -q vim-enhanced 注意...:如果设置好以上设置后,VIM没有作出相应的动作,那么请你把你的VIM升级到最新版,一般只要在终端输入以下命令即可:sudo apt-get install vim 转自:https://blog.csdn.net

4.6K20
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    为什么说Transformer就是图神经网络?

    通过这篇文章,我想建立起图神经网络(GNNs)和Transformers之间的联系。...该架构采用了一种全新的表示学习方法:完全抛弃了递归的方法,Transformers使用注意力机制构建每个词的特征,从而找出句子中所有其他单词对上述单词的重要性。...将投影到一个更高的维度,在该维度中, ? 经过ReLU非线性变换,然后投影回其原始维度,然后再进行另一个归一化操作: ?...说实话,我不确定超参数化前馈子层背后的确切理由是什么,似乎也没有人对此提出疑问!...这仅仅是因为图中的边数与节点数成二次平方关系,即在n个单词的句子中,Transformer/GNN将在n^2对单词上进行计算。如果n很大,那将会是一个非常棘手的问题。

    1.5K20

    从发展历史视角解析Transformer:从全连接CNN到Transformer

    我是这样考虑的:图像中的每一个突出事物(狗,狗的鼻子,边缘,一小块颜色)都可以分开来独立理解,不需要观察该事物以外的内容。...(这一点与CNN相反,因为CNN对每个位置的信息的处理方式都是一样的。) 在这种情况下,如果一个句子开头的单词只能根据后面出现的单词来理解时,就会出现问题。...那我就把‘pigs’加进来,看看后文有没有相关的解释……但这个‘though’到底想表达什么意思?...(另一个限制是注意力不包含单词被应用的位置计数器。) 我跳过了一些技术细节的讲解,但这就意味着,Transformer模型类是CNN模型类的超集。...这样可以提高原始GPT进行单词预测时的准确度。(预测下一个单词的本质就是猜谜游戏:如果我们的单词完全是可预测的,那就没有再开口说话的理由了。

    7.6K11

    用机器学习生成披头士的歌词 | 项目实战

    数据清理和组织是数据科学项目中最大的一块 建模 如上所述,Bigram模型只是根据前一个单词对下一个单词进行采样。我们可以做到这一点的一个简单方法是跟踪当前单词后面的单词,以及它们的出现频率。...寻求更好的模型 Bigram模型最突出的问题之一是,它只使用在训练数据中看到的单词和短语。虽然我们想要创作出听起来像披头士乐队自己写的歌词,但我们不想只局限于他们使用的词。...例如,当你开始阅读这篇文章时,你不需要重新学习单词是什么,哪些单词跟在哪些单词后面,或者它们是如何组合成句子的。想象一下那将是多么乏味。相反,你利用了之前所学的语法知识来理解我现在在说什么。...不过,我们将只使用抓取的披头士的歌曲歌词,而不是Reddit上的帖子进行训练,这将使模型严重偏向于生成类似披头士的歌曲。 这里我跳过如何具体实现,因为要讲它将需要采取另一个类似长度的文章来解释一切。...如果你对具体细节感兴趣,我建议你参考[2],这是一篇很棒的博客文章,详细介绍了如何将GPT-2模型转移到任何你关心的语言任务。这也是我所遵循的,以得到这里显示的结果。

    62720

    maclinux中vim永久显示行号、开启语法高亮

    "语法高亮度显示 set autoindent                       "vim使用自动对齐,也就是把当前行的对齐格式应用到下一行(自动缩进) set cindent                             ..."去除vim的GUI版本中得toolbar    set vb t_vb=                            "当vim进行编辑时,如果命令错误,会发出警报,该设置去掉警报       ..."默认情况下,寻找匹配是高亮度显示,该设置关闭高亮显示      set incsearch                        "在程序中查询一单词,自动匹配单词的位置;如查询desk单词,...当输到/d时,会自动找到第一个d开头的单词,当输入到/de时,会自动找到第一个以ds开头的单词,以此类推,进行查找;当找到要匹配的单词时,别忘记回车  set backspace=2           ..." 设置退格键可用 注:如果是mac,更好的办法是直接换掉默认的终端,改用zsh,百度一下zsh,有很多教程, 比如: http://blog.163.com/qy_gong/blog/static/1718738792013102992830558

    3.1K20

    Word2Vec教程-Skip-Gram模型模型“伪”任务关于模型的更多细节隐藏层输出层

    我们进一步看,你可能在机器学习使用Word2Vec时用到下面一个技巧:使用一个隐藏层的简单神经网络来执行某个任务,但是接下来我们将不会在训练模型任务时使用那样的神经网络,而是仅仅是使用它来学习隐层神经网络的权重...另一个你可能在无监督学习中看到这种技巧,在无监督学习中,你训练一个自动编码器来将输入向量“压缩”到隐藏层,然后将它“解压”到的原始输出层。...下面的例子显示了一些训练样本(单词对),句子为“The quick brown fox jumps over the lazy dog.”,窗口大小为2,蓝色突出显示的是输入单词。 ?...下面是我们神经网络的结构: ? 在隐藏层中没有使用激活函数,而在输出层使用了softmax,我们稍后在讨论这个原因。...如果你将一个1×10000 one hot向量乘以10000×300的矩阵,那么就会有效地选中矩阵中与1对应的行。下面是一个例子: ?

    1.2K40

    掌握 Python RegEx:深入探讨模式匹配

    搜索和替换:正则表达式擅长识别符合特定模式的字符串并用替代项替换它们。此功能在文本编辑器、数据库和编码中尤其有价值。 语法突出显示:许多文本编辑器使用正则表达式来进行语法突出显示。...日志分析:在处理日志文件时,正则表达式可以有效地提取特定日志条目或分析一段时间内的模式。 现在我希望你有足够的动力! 让我们开始使用 re 模块,它是关于正则表达式的。...如果存在匹配,该函数返回一个匹配对象;如果没有,则不返回任何内容。 接下来,我们将使用 re.match() 函数。这里我们将检查字符串文本是否以单词“Python”开头。...在下面的代码中,我们使用 re.search() 函数在字符串文本中的任意位置搜索单词“amazing”。如果找到该单词,我们将其打印出来;否则,我们打印“未找到匹配项”。...re.sub() re.sub() 函数用于将一个字符串替换为另一个字符串。接下来,我们将使用 re.sub() 函数将“Python”替换为“Java”。然后我们打印修改后的字符串。

    23120

    Word2Vec教程-Skip-Gram模型

    模型 skip-gram实际上是非常简单的神经网络模型形式;我认为任何所有微小的调整和变化都会使解释困扰。...另一个你可能在无监督学习中看到这种技巧,在无监督学习中,你训练一个自动编码器来将输入向量“压缩”到隐藏层,然后将它“解压”到的原始输出层。...下面的例子显示了一些训练样本(单词对),句子为“The quick brown fox jumps over the lazy dog.”,窗口大小为2,蓝色突出显示的是输入单词。 ?...下面是我们神经网络的结构: ? 在隐藏层中没有使用激活函数,而在输出层使用了softmax,我们稍后在讨论这个原因。...如果你将一个1×10000 one hot向量乘以10000×300的矩阵,那么就会有效地选中矩阵中与1对应的行。下面是一个例子: ?

    1.2K50

    Linux下设置vi和vim语法高亮、显示行数等功能

    vim默认情况下已经有语法高亮了,现在我们要设置用vi或vim打开文件的时候默认显示行数。而对于vi我们只需在使用的时候默认使用vim即可。至vim本来功能和设置就较完善,为什么我们还要用vi?..."去除vim的GUI版本中得toolbar set vb t_vb= "当vim进行编辑时,如果命令错误,会发出警报,该设置去掉警报 set ruler..."在编辑过程中,在右下角显示光标位置的状态行 set nohls "默认情况下,寻找匹配是高亮度显示,该设置关闭高亮显示...set incsearch "在程序中查询一单词,自动匹配单词的位置;如查询desk单词,当输到/d时,会自动找到第一个d开头的单词,当输入到/de时,会自动找到第一个以...ds开头的单词,以此类推,进行查找;当找到要匹配的单词时,别忘记回车 set backspace=2 " 设置退格键可用 修改一个文件后,自动进行备份,备份的文件名为原文件名加

    9K20

    手把手教你从零起步构建自己的图像搜索模型

    最后,如果我们设法为我们的图像和单词找到常见的嵌入,我们可以使用它们来进行文本到图像的搜索! 由于其简单性和高效性,第三种方法将成为本文的重点。 我们该怎样实现这个过程?...在下图中,这过程由绿色突出显示的嵌入层表示,该嵌入层位于最终分类层之前。 ? 对于我们的嵌入,我们在最终分类层之前使用该层。...这个很棒的方法最初是从 Insight 研究员 Daweon Ryu 那里看到的。例如,在下图中,我们使用 Siamese cat 类的权重来重新赋予我们数据集上的激活(以绿色突出显示)的权重。...图像的嵌入层大小为 4096,而单词的嵌入大小为 300——我们如何使用一个来搜索另一个?...作为参考,我的笔记本电脑上没有 GPU 的情况下需要大约 6-7 个小时。 重要的是要注意这种方法是多么浪费资源的。

    66430

    常用正则表达式匹配Antconc英文句式搭配

    \b 匹配一个单词边界。例如 ‘er\b’ 可以匹配"never" 中的 ‘er’,但不能匹配 “verb” 中的 ‘er’。 \B 匹配非单词边界。...四、使用案例 首先,我们使用已词性标记的英文语料,标记形式如下图。...可见词性标记先将文本内容分词(常用HMM隐马模型进行词性标注任务),然后在每个词后面加入_来达到标记效果,如The_DT表示标记为冠词的单词The。 ?...|(_IN))\s 【部分解释】: \S+意图匹配下划线_前的非空原词字符串,+表示非空字符\S有1个或多个,这样我们就可匹配到_前的一个任意长度单词(字符串),例如该项可匹配到is_VBZ中的is。...\S+_VV\w*\s 如果想精确性查找This paper+任意词(if any)+动词则可以使用 this_DT\spaper_NN\s(\S+_\S+\s)?

    4.8K32

    linux之文本编辑器

    另一个有趣的功能是vim支持从右到左输入字符,这在使用一些特殊语言(如Farsi)进行编程时是比较有用的。在vim中,我们还可以使用多窗口显示,在一个屏幕中同时对多个文件进行操作。...技巧 使用“vi + 文件名”打开文件。执行vi时,如果使用加号后面跟文件名,就可以在进入文件的时候使光标处在文件最后一行的位置,便于添加内容。如“vi + /etc/hosts”。...4.3.3 vi 的底线模式(Last line mode) 对一般的使用者来说,底线模式最重要的一个功能,就是让我们可以保存编辑工作的结果,如果没有存盘而异常退出,那么非常不幸,需要重新再来修改一遍...如查找“mail”: “/mail” 使用底线模式的查找功能 就是从光标所在位置向后查找“mail”这个单词,如果现在找到的不是所需的单词,可以按“n”键(表示next),继续查找。使用问号“?”...在使用!与shell交互的时候很有用,不过也不宜过多空耗内存。 set vb t_vb= vim如果操作不被允许,计算机会发出“哔”的声音。

    2.2K20

    【Python环境】探索 Python、机器学习和 NLTK 库

    作为一名 Ruby 开发人员,虽然我还没有学过该语言,但我也知道 Python 是一个面向相似对象的、基于文本的、可理解和动态的编程语言。...使用一组系统范围内的库的做法一般是不可取的,因为您的其中一个项目可能依赖于某个给定的库的版本 1.0.0,而另一个项目则依赖于版本 1.2.7。...这只是在 Python 中编写空方法的一种方式。 工具 我真正需要的是一个具备语法突出显示、代码完成和断点调试功能的集成开发环境 (IDE),用该环境帮助我掌握我的 Python 学习曲线。...然后会遍历 top_words,并在该 set 中进行比较,确定是否存在重复的单词。随后返回 1000 个布尔值组成的一个散列,以 w_ 为键,后面是单词本身。这个 Python 非常简洁。...虽然本文中并没有提到,但我还发现 Python 对于图表和绘图非常有用。如果 Python 同样是您的盲点,我建议您了解一下它。

    1.6K80

    特征工程(三):特征缩放,从词袋到 TF-IDF

    图4-2显示了相应特征空间中的文档。可以注意到,单词“is”被有效地消除,因为它出现在该数据集中的所有句子中。...即便如此,仍然有必要找到并使用正确的超参数范围。 否则,一个模型相对于另一个模型的优点可能仅仅是由于参数的调整,并不能反映模型或特征的实际表现。...图3-1显示了一个向量形式的词袋向量,图4-1显示了特征空间中的四个词袋向量。 要形成文档词汇矩阵,只需将文档向量取出,平放,然后将它们堆叠在一起。 这些列表示词汇表中所有可能的单词。...由于大多数文档只包含所有可能单词的一小部分,因此该矩阵中的大多数都是零,是一个稀疏矩阵。 ? 包含5个文档7个单词的文档-词汇矩阵 特征缩放方法本质上是对数据矩阵的列操作。...因此,tf-idf可以完全消除无意义的单词。 我们还发现了另一个特征缩放效果:它改善了数据矩阵的条件数,使线性模型的训练速度更快。 L2标准化和tf-idf都有这种效果。

    1.4K20

    谷歌、DeepMind和OpenAI都在用的Transformer是如何工作的?| 干货

    这样的话,如果想翻译某些文本,就可以将这个文本中的单词设置为输入。循环神经网络就会将前面的单词信息传递给下一个网络,下一个网络可以使用和处理这些信息。...下图显示了seq2seq模型使用循环神经网络的工作原理。每个单词都是单独处理的,通过将隐藏状态传递给解码器来生成结果句子,然后生成输出。 ?...最近的信息表明,下一个单词可能是一种语言,但如果想缩小范围,就需要France的上下文信息了。 ? 当相关信息与需要信息的地方之间的差距离非常大时,循环神经网络就基本没用了。...循环神经网络和 LSTM 的另一个问题是,处理句子的工作很难并行化,必须要逐单词处理。不仅如此,还没有长期和短期依赖的模型。...就我自己而言,在翻译一个句子的时候,我会特别注意自己正在翻译的单词。 如果要描述自己所在的房间,我会先扫一眼,看看周围都有啥东西。

    58820

    AI 行业实践精选:深度学习股市掘金

    写这篇文章的目的是想表达头脑中的想法。尽管我已经成为一个“深度学习”的爱好者,但是深度学习的成果太多太杂,我没有太多机会做出相关的整理。...另一方面,市场并没有承诺会提供一个可学习的结构,这样的结构之所以存在是建立在此项目会被证明或反驳的假设之上(而不是可能证明或反驳,如果我能找到该结构)。...假设结构是存在的,以我们编码段落语义的方式来概括市场当前状态的想法对我来说似乎是合理的。如果这还没有意义,请继续阅读,总会有意义的。 你应该知道它所持有的公司的一个单词(Firth,J....使用该记忆,RNN 可以“记住”预定范围内的事情,这就是我们正确地获得嵌套输出文本的方式。 ? 一个基本的 RNN。...在这个观点下,我所描述的整个架构实质上是个编码器,而我并没有真正的向其中放置过解码器。 但是,我想用第一层来实现某些特定的功能,使其在输入4000维向量后输出一个300维的向量。

    71640

    数据科学家应知道的数据科学项目的四个关键方面

    然后,它会响应用户的查询返回最相关的查询。 如果数据科学组件可以提供高置信度解释查询并提取确切的特定答案,则用户界面可以利用此置信度将答案仅显示为该结果。这将导致无缝的用户体验。 ?...基本的数据科学机制的任务是识别何时键入的单词可能是拼写错误,如果是,则突出显示拼写错误的单词并建议可能的正确单词。 ?...当数据科学机构仅发现一个可能的正确拼写并且也非常有把握时,它应该自动更正拼写以提供无缝的用户体验 另一方面,如果拼写错误的单词有多个可能正确的单词,每个单词的置信度都很高,则用户界面应将其全部显示,并让用户选择合适的单词...同样,如果多个可能的正确单词的置信度得分较低,则UI应通过突出显示拼写错误而不建议任何纠正措施来伪装此缺点。...另一个实际考虑因素是"模型可解释性"。 通过能够解释为什么一个给定的数据科学模型以一种特定的方式运行,可以帮助对模型的更改、训练样本的更改和体系结构的更改进行优先级排序,从而提高整体性能。

    51030

    图解2018年领先的两大NLP模型:BERT和ELMo

    这是一个重大的进展,因为任何需要构建语言处理模型的人都可以将这个强大的预训练模型作为现成的组件使用,从而节省了从头开始训练模型所需的时间、精力、知识和资源。 图示的两个步骤显示了BERT是如何运作的。...ELMo预训练的一个步骤 我们可以看到每个展开的LSTM步骤的隐藏状态从ELMo的头部后面突出来。这些在预训练结束后的嵌入过程中会派上用场。...除了遮盖15%的输入,BERT还混入了一些东西,以改进模型后来的微调方式。有时它会随机地将一个单词替换成另一个单词,并要求模型预测该位置的正确单词。...特定任务的模型 BERT的论文展示了在不同的任务中使用BERT的多种方法。 BERT用于特征提取 fine-tuning 方法并不是使用BERT的唯一方法。...如果你以前从未使用过云TPU,那么这也是一个很好的起点,可以尝试使用它们。BERT代码也适用于TPU、CPU和GPU。

    1.3K20

    少于两层的transformer,且只有注意力块,GPT-3:你怕不是搞事情?

    例如,在对大量文本进行训练时,二元模型会注意到“green”一词后面最常出现的单词(例如“grass”)并记住它。然后,在生成文本时,它会重现相同的模式。...首先,它查看上下文中的最后一个单词(Doctor),并在上下文中搜索它已经学习(在训练期间)与最后一个单词相关联的特定单词。...然后,对于它找到的任意单词,从中查找另一个它已经学会与找到的单词相关联的单词,就像在二元模型中一样,这可以是同一个词。再将这个关联的单词作为模型的输出。...不妨想一下,当Smith的名字变成了一个虚构的名字,比如“Gigamuru”时会发生什么。...它们解释了如何使上下文学习的简单和重复形式成为可能,并且提供了所需的功能:能够复制模型没有训练过的新单词(如“Gigamuru”或“124”)。

    45520
    领券