JS 0.1+0.2的理解
在JavaScript中,如果判断0.1 + 0.2 === 0.3,结果是false,
console.log(0.1 + 0.2 === 0.3); // false
console.log(0.1 + 0.2); // 0.30000000000000004
这是怎么回事呢?0.1 + 0.2竟然不等于0.3?是程序出问题了吗?
首先,十进制的0.1和0.2会被转换成二进制的,二进制浮点数表示法并不能精确的表示类似0.1这样的数值,因为浮点数在转化为二进制时,会出现无限循环
0.1 -> 0.0001 1001 1001 1001...(1100循环)
0.2 -> 0.0011 0011 0011 0011...(0011循环)
两者相加之后得到二进制为再转换为十进制,会产生误差。
原来JavaScript采用的是IEEE754的64位双精度版本,由三部分组成:
1位数符:标记正负,0为正,1为负
11位阶码:数字的整数部分
52位尾数:数字的小数部分
0.1的二进制表示为:
0.1 = 0.0(0011)(0011)(0011)(0011)(0011)....
是无限循环小数,而在JavaScript中只能存储52位小数,那么0.1的小数位在第52位时就需要判读进位(第53位为1就+1,为0则不进位),则0.1在JavaScript中存储的实际为:
0.1 = 0.0(0011)(0011)...(0011)010
第52位进位了。
同理0.2在JavaScript中存储的为:
0.2 = 0.(0011)(0011)...(0011)
不需要进位。
那么将0.1和0.2在JavaScript中存储的表示值相加得到:
0.0001100110011001100110011001100110011001100110011010
+ 0.0011001100110011001100110011001100110011001100110011
-----------------------------------------------------------
0.0100110011001100110011001100110011001100110011001101
0.0100110011001100110011001100110011001100110011001101这个二进制数刚好等于十进制的0.30000000000000004:
这样看来,程序并没有出问题,这是由于浮点数精度问题造成的,不仅是JavaScript,所有采用IEEE754的64位双精度的语言都是如此。
在JavaScript中,可用原生办法解决:
console.log(parseFloat((0.1 + 0.2).toFixed(10)) === 0.3); // true
console.log(parseFloat((0.1 + 0.2).toFixed(10))); // 0.3
还可以用这个
想办法规避掉这类小数计算时的精度问题就好了,那么最常用的方法就是将浮点数转化成整数计算。因为整数都是可以精确表示的。
0.1+0.2 => (0.11000+0.21000)/1000
共有 0 条评论