length(json sent) = length(attributes values) * length(attributes names) * Xdoc
让我们简化一下,也就是说,键和值的平均长度是相同的。
length(json sent) = 2 x length(attributes values) * Xdoc
这意味着一半的数据(我跳过=/,/{,})是多余的。
基于文档的不是类似于表的sql,同一集合的属性可能完全不同.
,但是这真的没有必要去优化它吗?
例如,建立一个密钥字典,使用二进制或优化大小作为google协议缓冲区?
为什么问这个问题?因为我有客户端需要的10 to集合,而且速度越来越慢,如果我使用分页和筛选键进行优化的话,但是我想知道:)
-一颗流星/蒙哥诺
PS:我不是在寻找演练,而是要解释为什么不能对发送的json数据长度进行优化。
发布于 2016-09-06 11:26:43
答案是,实际传输的字节数量很少是一个问题。除非你对你的网络有一些限制,否则10M不是很多数据。
在一个或几个帧中传输10米(如请求/响应往返)是没有问题的。但如果你是在10000帧,每帧1k,它将需要很多毫秒。
然后,这些数据被存储(扩展)客户端,大多数情况下需要额外的开销,占用大量的RAM,使应用程序也慢下来。
因此,除非您有一些有趣的角落案例,否则,减少请求/响应的数量,并限制在客户端代码中进行的数据复制的数量,将比担心通过网络发送1000万字节的影响要大得多。
https://stackoverflow.com/questions/39353202
复制