前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >lodash源码分析之NaN不是NaN

lodash源码分析之NaN不是NaN

原创
作者头像
对角另一面
发布于 2018-01-17 01:36:47
发布于 2018-01-17 01:36:47
1.8K03
代码可运行
举报
文章被收录于专栏:对角另一面对角另一面
运行总次数:3
代码可运行

暗恋之纯粹,在于不求结果,完全把自己锁闭在一个单向的关系里面。

——梁文道《暗恋到偷窥》

本文为读 lodash 源码的第五篇,后续文章会更新到这个仓库中,欢迎 star:pocket-lodash

gitbook也会同步仓库的更新,gitbook地址:pocket-lodash

本篇分析的是 eq 函数。

作用与用法

eq 函数用来比较两个值是否相等。遵循的是 SameValueZero 规范。

代码语言:javascript
代码运行次数:0
运行
复制
var obj1 = {test: 1}
var obj2 = {test: 1}
var obj3 = obj1
_.eq(1,1) // true
_.eq(+0, -0) // true
_.eq(obj1, obj3) // true
_.eq(obj1, obj2) // false
_.eq(NaN, NaN) // false

几个比较规范

SameValueNonNumber

这个规范规定比较的值 xy 都不为 Number 类型,照抄规范如下:

  1. x 的类型不为 Number 类型
  2. y 的类型与 x 的类型一致
  3. 如果 x 的类型为 Undefined ,返回 true
  4. 如果 x 的类型为 Null ,返回 true
  5. 如果 x 的类型为 String,并且 xy 的长度及编码相同,返回 true,否则返回 false
  6. 如果 x 的类型为 Boolean ,并且 xy 同为 true 或同为false ,返回 true,否则返回 false
  7. 如果 x 的类型为 Symbol ,并且 xy 具有相同的 Symbol 值,返回 true,否则返回 false
  8. 如果 xy 指向同一个对象,返回 true, 否则返回 false

Strict Equality Comparison

js 中的全等(===)便是遵循这个规范,照搬规范如下:

  1. 如果 xy 的类型不同,返回 false
  2. 如果 x 的为 Number 类型:
    • a. 如果 xNaN ,返回 false
    • b. 如果 yNaN ,返回 false
    • c. 如果 xy 的数值一致,返回 true
    • d. 如果 x+0 并且 y-0 ,返回 true
    • e. 如果 x-0 并且 y+0 ,返回 true
    • f. 返回 false
  3. 按照 SameValueNonNumber 的结果返回

SameValue

规范如下:

  1. 如果 xy 的类型不同,返回 false
  2. 如果 x 的类型为 Number
    • a. 如果 xNaN 并且 yNaN ,返回 true
    • b. 如果 x+0 并且 y-0 ,返回 false
    • c. 如果 x-0 并且 y+0 , 返回 false
    • d. 如果 xy 的数值一致,返回 true
    • e. 返回 false
  3. 按照 SameValueNonNumber 的结果返回

SameValueZero

这个是 eq 遵循的规范,如下:

  1. 如果 xy 的类型不同,返回 false
  2. 如果 x 的类型为 Number
    • a. 如果 xNaN 并且 yNaN ,返回 true
    • b. 如果 x+0 并且 y-0 ,返回 true
    • c. 如果 x-0 并且 y+0 , 返回 true
    • d. 如果 xy 的数值一致,返回 true
    • e. 返回 false
  3. 按照 SameValueNonNumber 的结果返回

小结:SameValueNonNumber 是基本,Strict Equality ComparisonSameValueSameValueZero 只是在对待 +0-0NaN 上有区别。

源码分析

来看下 eq 的源码:

代码语言:javascript
代码运行次数:0
运行
复制
function eq(value, other) {
  return value === other || (value !== value && other !== other)
}

其实eq 的源码其实就只有这么一句。

既然 eq 遵循的是 SameValueZero 规范,那就将源码来拆解一下,看它是怎样符合规范的。

首先,看第一部分:

代码语言:javascript
代码运行次数:0
运行
复制
value === other

就是这么一段,符合的是 Strict Equality Comparison 规范,通过对比可以发现, Strict Equality ComparisonSameValueZero 只在对待 NaN 上有区别。

Strict Equality Comparison 规定就算 xy 都为 NaN 时,返回的是 falseNaN === NaN 返回的就是 false。但是 SameValueZero 返回的是规定 xy 都为 NaN 时返回的是 true。因此只需要在 Strict Equality Comparison 的基础上处理 NaN 就可以了。

下面这段便是处理 NaN 的:

代码语言:javascript
代码运行次数:0
运行
复制
(value !== value && other !== other)

在 js 中,只有 NaN 和自身是不相等的,当两个需要比较的值都是和自身不相等时,表明这两个值都为 NaN,返回 true

这样便遵循了 SameValueZero 的比较实现。

可以用Object.is()吗?

Object.is(NaN, NaN) 返回的是 true ,所以 eq 同样可以改成:

代码语言:javascript
代码运行次数:0
运行
复制
function eq(value, other) {
  return value === other || Object.is(value, other)
}

Object.is 同样是比较两个值是否一样,但是 Object.is(+0, -0) 返回的是 false, 它遵循是的 SameValue 规范,因此不可以直接用 Object.is 替代 eq

可以用isNaN()吗?

还有个 isNaN 的全局方法,可以用来判断一个值是否为 NaN。例如 isNaN(NaN) 会返回 true ,那 eq 是否可以改成以下形式呢?

代码语言:javascript
代码运行次数:0
运行
复制
function eq(value, other) {
  return value === other || (isNaN(value) && isNaN(other))
}

答案是:不可以!

isNaN 有一个很怪异的行为,如果传入的参数不为 Number 类型,会尝试转换成 Number 类型之后再做是否为 NaN 的判断。所以类似 isNaN('notNaN') 返回的也是 true ,因为字符串 notNaN 会先被转换成 NaN 再做判断,这不是我们想要的结果。

可以用Number.isNaN()吗

为了修复 isNaN 的缺陷,es6Number 对象上扩展了 isNaN 方法,只有是 NaN 时才会返回 true,因此用 Number.isNaN 来判断是安全的。所以 eq 同样可以改成以下形式:

代码语言:javascript
代码运行次数:0
运行
复制
function eq(value, other) {
  return value === other || (Number.isNaN(value) && Number.isNaN(other))
}

参考

  1. ECMAScript® 2016 Language Specification
  2. MDN:Number.isNaN()
  3. MDN:isNaN()

License

署名-非商业性使用-禁止演绎 4.0 国际 (CC BY-NC-ND 4.0)

最后,所有文章都会同步发送到微信公众号上,欢迎关注,欢迎提意见:

作者:对角另一面

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
Qwen7b微调保姆级教程
前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于各种开源LLM模型的,同时支持多轮和单轮对话数据集的大模型高效微调范例。
lyhue1991
2023/09/17
2.1K0
Qwen7b微调保姆级教程
Baichuan-13B 保姆级微调范例
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的Baichuan-13B-Chat的finetune教程~
lyhue1991
2023/09/05
1.4K0
Baichuan-13B 保姆级微调范例
BaiChuan13B多轮对话微调范例
前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于多轮对话数据集的大模型高效微调范例。
lyhue1991
2023/09/05
1.1K0
BaiChuan13B多轮对话微调范例
单样本微调给ChatGLM2注入知识~
前方干货预警:这可能也是一篇会改变你对LLM微调范式,以及对LLM原理理解的文章。
lyhue1991
2023/09/05
9560
单样本微调给ChatGLM2注入知识~
60分钟吃掉ChatGLM2-6b微调范例~
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源LLM的finetune教程~
lyhue1991
2023/09/05
8030
60分钟吃掉ChatGLM2-6b微调范例~
微调BaiChuan13B来做命名实体识别
传统上,一般把NLP的研究领域大致分为自然语言理解(NLU)和自然语言生成(NLG)两种。
lyhue1991
2023/09/05
6980
微调BaiChuan13B来做命名实体识别
微调llama2模型教程:创建自己的Python代码生成器
本文将演示如何使用PEFT、QLoRa和Huggingface对新的lama-2进行微调,生成自己的代码生成器。所以本文将重点展示如何定制自己的llama2,进行快速训练,以完成特定任务。
deephub
2023/08/30
1.3K0
微调llama2模型教程:创建自己的Python代码生成器
【LLM训练系列01】Qlora如何加载、训练、合并大模型
参考脚本:https://github.com/QwenLM/Qwen/blob/main/recipes/finetune/deepspeed/finetune_qlora_multi_gpu.ipynb
致Great
2024/11/23
2940
【LLM训练系列01】Qlora如何加载、训练、合并大模型
使用QLoRa微调Llama 2
上篇文章我们介绍了Llama 2的量化和部署,本篇文章将介绍使用PEFT库和QLoRa方法对Llama 27b预训练模型进行微调。我们将使用自定义数据集来构建情感分析模型。只有可以对数据进行微调我们才可以将这种大模型进行符合我们数据集的定制化。
deephub
2023/08/30
6840
使用QLoRa微调Llama 2
使用QLoRA对Llama 2进行微调的详细笔记
使用QLoRA对Llama 2进行微调是我们常用的一个方法,但是在微调时会遇到各种各样的问题,所以在本文中,将尝试以详细注释的方式给出一些常见问题的答案。这些问题是特定于代码的,大多数注释都是针对所涉及的开源库以及所使用的方法和类的问题。
deephub
2023/09/22
6.2K0
使用QLoRA对Llama 2进行微调的详细笔记
【LLM训练系列04】手把手教你Qlora微调
IGNORE_TOKEN_ID 是一个常量,通常用于在训练过程中忽略某些特定的标签或输入。它的作用是告诉模型在计算损失时不考虑这些特定的标签或输入。
致Great
2024/12/21
2060
【LLM训练系列04】手把手教你Qlora微调
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
之前陆续写了Qwen1.5、Qwen2.0、GLM-4等国产开源大模型的原理、训练及推理相关的文章,每一篇都拿到了热榜第一,但其中训练部分均基于Llama-factory框架,对于工程师而言,最喜欢的就是刨根问底,使用中间层的训练框架,还是少一些“安全感”。今天我们抛开中间框架,深入底层,一步一步带大家微调一个大模型。
LDG_AGI
2024/08/13
1.6K0
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
谷歌Gemma介绍、微调、量化和推理
谷歌的最新的Gemma模型是第一个使用与Gemini模型相同的研究和技术构建的开源LLM。这个系列的模型目前有两种尺寸,2B和7B,并且提供了聊天的基本版和指令版。
deephub
2024/03/01
2.1K0
谷歌Gemma介绍、微调、量化和推理
解密Prompt系列6. lora指令微调扣细节-请冷静,1个小时真不够~
上一章介绍了如何基于APE+SELF自动化构建指令微调样本。这一章咱就把微调跑起来,主要介绍以Lora为首的低参数微调原理,环境配置,微调代码,以及大模型训练中显存和耗时优化的相关技术细节
风雨中的小七
2023/04/29
10.4K1
解密Prompt系列6. lora指令微调扣细节-请冷静,1个小时真不够~
使用ORPO微调Llama 3
ORPO是一种新的微调技术,它将传统的监督微调和偏好对齐阶段结合到一个过程中。减少了训练所需的计算资源和时间。论文的实证结果表明,ORPO在各种模型大小和基准上都优于其他对齐方法,所以这次我们就来使用最新的Llama 3来测试下ORPO的效果。
deephub
2024/04/26
4660
使用ORPO微调Llama 3
QLoRa:在消费级GPU上微调大型语言模型
大多数大型语言模型(LLM)都无法在消费者硬件上进行微调。例如,650亿个参数模型需要超过780 Gb的GPU内存。这相当于10个A100 80gb的gpu。就算我们使用云服务器,花费的开销也不是所有人都能够承担的。
deephub
2023/08/30
1K0
QLoRa:在消费级GPU上微调大型语言模型
ChatGLM-6B使用、微调、训练
https://github.com/THUDM/ChatGLM-6B模型3月14日开源后,Github Star增速惊人,连续12天位列全球大模型下载榜第一名。
Dlimeng
2024/01/13
1.9K0
ChatGLM-6B使用、微调、训练
GLM4大模型微调入门实战(完整代码)
以GLM4作为基座大模型,通过指令微调的方式做高精度文本分类,是学习LLM微调的入门任务。
用户9029617
2024/06/12
1.9K0
GLM4大模型微调入门实战(完整代码)
“超级AI助手:全新提升!中文NLP训练框架,快速上手,海量训练数据,ChatGLM-v2、中文Bloom、Dolly_v2_3b助您实现更智能的应用!”
在文件code02_训练模型全部流程.ipynb的cell-5代码的前面,创建一个新的cell,然后把下面的代码放到这个cell里面
汀丶人工智能
2023/10/11
5550
“超级AI助手:全新提升!中文NLP训练框架,快速上手,海量训练数据,ChatGLM-v2、中文Bloom、Dolly_v2_3b助您实现更智能的应用!”
使用BERT进行文本分类
准备数据阶段主要需要用到的是datasets.Dataset 和transformers.AutoTokenizer。
lyhue1991
2023/09/05
7240
使用BERT进行文本分类
推荐阅读
相关推荐
Qwen7b微调保姆级教程
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档