kvm1.0的机器,S1、S2、SA1等
Init.MaxTxBuffers 、Init.MaxRxBuffers ,这2个是一对,Rx--收包,Tx--发包
对非dpdk的kvm1.0的机器,把Init.MaxRxBuffers从256改成1024提升收包能力
Init.MaxTxBuffers 默认1024,保持
Init.MaxRxBuffers 默认256,调1024
运行ncpa.cpl打开本地连接属性 → 配置 → 高级页签里找到 Init.MaxRxBuffers 默认256,调1024
https://github.com/virtio-win/kvm-guest-drivers-windows/commit/2198f591763d6b329d310eb7862c8319dcf9b11c
非dpdk的kvm1.0低代次机器比如S1实例,Init.MaxRxBuffers从256调1024,这里的256、1024的单位是什么?是virtio 设备单个队列的长度,单个队列长度由母机xml内的参数控制,一个队列最多可以瞬间发送1024个包,母机侧默认已经是1024了,子机内默认256一般够用,但是,非dpdk的kvm1.0低代次机器的性能所限,高并发业务场景,Init.MaxRxBuffers默认256可能不够用,需要调到1024,有时候即便调了,对业务的改善也不大,毕竟低代次,最好是能升级到SA2、S5、C5、M5,当然如果不差钱,升级S6、C6、M6最好了,SA3目前不建议,AMD驱动层面有些兼容性问题。
改这个网络会瞬断几秒,改了对网络会有改善,但kvm1.0机型(S1、S2、SA1等)网络处理能力本来就差,调了这个会有改善,但改善空间有限,根本上还是要换网络处理能力更好的新机型。
对于基础网络的kvm1.0机型,建议先切换到VPC,然后再调整配置,调整成S5机型的。
早年基础网络机器切换vpc的时候可能会失败,建议切换之前先看这篇文档 https://cloud.tencent.com/developer/article/1933413