今天写程序过程中需要对数据比较校验两次数据是否一致,于是要采用数据摘要的算法。
于是我测试了一下几种常用算法对同一数据的摘要的计算用时,测试结果如下:
MD4算法 15ms,31ms,219ms,1139 MD5算法 31ms,31ms,280ms,1513ms SHA1算法 47ms,47ms,453ms,2387ms Haval算法 31ms,31ms,437ms,2325ms Tiger算法 78ms,78ms,717ms,3806ms CRC32算法 16ms,0ms,63ms,328ms SHA256算法 62ms,78ms,717ms,3837ms SHA384算法 188ms,172ms,2231ms,11825ms SHA512算法 187ms,172ms,2215ms,11825ms RipeMD128算法 47ms,47ms,468ms,2543ms RipeMD160算法 78ms,78ms,780ms,4118ms
(数据仅供参考)
4个测试数据前两个为我的屏幕截图位图,大小3mb左右,第三个测试数据为37.2mb的exe电子书;
最后一个数据是cs1.6的exe安装程序,大小为198mb。
测试结果发现CRC32算法有很大的优势,CRC32的结果是4字节整数,理论上的重复概率是 1/0xFFFFFFFF,
大概就是2亿分之一。CRC既然被广泛使用,说明其在特定范围内重复的概率是比较低的。