大家好,欢迎来到程序视点
!我是小二哥。
在上一篇文章中,我们又主要介绍了浮点数。今天,我们接着把浮点数的范围和精度
问题弄清楚。
浮点数的范围和精度
根据IEEE754 浮点数标准
,无论是单精度浮点数,还是双精度浮点数,都是通过有限个 bit 位来表示的。但我们的小数可以是无穷无尽的哦!(想想圆周率的小数位数~)
因此,用浮点数表示一个数字,那就只能表示其中的一部分数据。这就是我们说的范围和精度
问题。
根据IEEE754 浮点数标准
中的规定,我们可以计算出单精度浮点数和双精度浮点数的范围和精度。
单精度浮点数
以单精度浮点数 float 为例,它能表示的最大二进制数为 1.11111…1 * 2^127
(小数点后23个1),而二进制 1.11111…1 ≈ 2,所以 float 能表示的最大数为 2^128 = 3.4 * 10^38,即 float 的表示范围为:-3.4 * 10^38 ~ 3.4 * 10 ^38
。
它能表示的精度有多小呢?
float 能表示的最小二进制数为 0.0000…1(小数点后22个0,1个1),用十进制数表示就是 1/2^23。
双精度浮点数
用同样的方法可以算出,double 能表示的最大二进制数为 1.111…111(小数点后52个1) * 2^1023 ≈ 2^1024 = 1.79 * 10^308,所以 double 能表示范围为:-1.79 * 10^308 ~ 1.79 * 10^308
。
同理,double 的最小精度为:0.0000…1(51个0,1个1),用十进制表示就是 1/2^52。
精度丢失
在上面的计算中,单精度和双精度浮点数表示的范围和精度都已非常之大。但这仍没有囊括所有的小数。此外,浮点数标准的规定,也造成了计算中精度丢失的问题。
计算机在表示一个数字时,宽度(可以理解为bit位
)是有限的。当有无限循环的小数(二进制无效循环)存储在计算机时,只能被截断,所以就会导致小数精度发生损失的情况。这也就是解释了为什么浮点数没有办法用二进制精确表示。
拿个常见的例子给大家看看,十进制下的 0.2 就没办法精确转换成二进制小数:
0.2 * 2 = 0.4 -> 0 0.4 * 2 = 0.8 -> 0 0.8 * 2 = 1.6 -> 1 0.6 * 2 = 1.2 -> 1 0.2 * 2 = 0.4 -> 0(发生循环) ...
按照IEEE 754 标准
的 64 位双精度浮点数,小数部分最多支持 53 位二进制位,之后的二进制位就会被截断。因此,计算机存储的0.2
的二进制不是完整的,是有精度缺失的。
于是乎!就有一个问题:如果我们要基于这个浮点数的0.2
来进行存储和计算,那结果就不是我们期待的答案啦!
怎么解决这个问题呢?我们下篇文章接着讲!