首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >KVM客户端的混频控制信道性能差

KVM客户端的混频控制信道性能差
EN

Server Fault用户
提问于 2012-11-24 16:03:12
回答 1查看 595关注 0票数 1

我在Debian 4 (x86_64) KVM来宾上运行一个Mumble (Murmur),它运行在Debian 4 (x86_64) KVM管理程序上。客户机器通过Virtio网络接口连接到虚拟机管理程序系统上的桥接设备。Hypervisor连接到100 guest /S上行链路,并在来宾计算机和剩余的Internet之间进行IP路由。

在此设置中,我们在客户端双击通道和通道连接操作之间存在明显的滞后。在Linux和Windows系统上,很多不同的客户端都会出现这种情况,在1.2.3到1.2.4之间。

语音质量和延迟似乎完全不受此影响。大多数情况下,客户端的信息对话框为语音和控制通道都规定了16‘s的延迟。控制信道的偏差大多要比语音信道高得多。在某些情况下,控制通道显示为100 is ping和大约1000偏差。在这里,TCP性能似乎是一个问题。

我们在早期的设置上没有任何问题,这在原则上与新的设置非常相似。我们使用了基于Debian的Xen管理程序和一台软虚拟化的来宾机器,以及早期版本的Mble1.2.3系列。

当前的murmurd --version说:1.2.3-349-g315b5f5-2.1

更新:我发现这个讨论中有很多人在虚拟系统上运行,他们和我一样遇到同样的问题。

到目前为止,我尝试过的(一点也没有成功):

  • 在我的系统管理程序系统上安装并试用了混合服务器
  • 在客户系统上安装并试用了beta 1.2.4 Mumble服务器
  • 将我的SQLite数据库从原来的1 KiB压缩到大约300 KiB
  • 禁用系统上的IPv6以检查是否可能是问题源。
  • 安装了一个客人系统Debian挤压(稳定),并尝试在那里。

更新:我之前说过,我已经测试了如何将tmpfs数据库和日志文件放入一个内存中的文件系统中,但它并没有解决这个问题。我在那里犯了一个错误,所以它实际上不是存储在tmpfs中的。现在我已经这样做了,性能问题消失了。但是将其存储在tmpfs中并不能真正解决我的问题。

EN

回答 1

Server Fault用户

回答已采纳

发布于 2012-11-28 20:22:39

我发现这与I/O性能问题有关,方法是将file服务器的数据库和日志文件放入内存中的文件系统中。导致不良I/O延迟的原因是这个问题的主题。通过添加nobarrier挂载选项解决了这个问题,该选项是在Linux2.6.33引入barrier作为默认选项后首次添加的。请注意,这样做可以实现引发安全问题。此外,通过Virtio访问分区,同时将缓存设置为nonewriteback。当缓存设置为writethrough时,性能仍然很差。

票数 0
EN
页面原文内容由Server Fault提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://serverfault.com/questions/451787

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档