整个套接字的数据包含数字、int、float和char数组。这些浮标的精度为点后的四位数。最近,我们开始使用char数组来表示数据结构/协议中的浮点数,或者使用 int 来表示浮点数(浮点数乘以时间10000,然后在接收端除以10000 )。有人告诉我,如果直接在数据结构/协议中使用浮点数,就很难保持精度。发送方很难准确地将浮点数</e
我试图解析一个二进制 in .net(C#),其中包含32位浮点数(IEEE-754)。
我需要解析这些数字,然后将这些数字存储在PovRay脚本中的字符串表示中,这是一个纯文本文件。我使用函数在nodejs中尝试了这一点,该函数给出了一个数字(双精度值)。在.net中,我只找到了读取二进制32位的Bitconverter.ToSingle函数,并给出了一个浮点数,它的十进制精度(7)低于nodejs解析。nodejs解析给出了一个p