博客
关于我
jitsi性能测试结果
阅读量:257 次
发布时间:2019-03-01

本文共 339 字,大约阅读时间需要 1 分钟。

环境:基于官网搭建的Jitsi,包括Jitsi Videobridge、JicoFO、Nginx、Tigase(原版为Prosody,现更换为Tigase)。服务器配置为8核32G。

测试一:多个客户端进入同一房间。每个客户端既向上发送数据,也向下接收数据,接收时接收多条流。测试结果显示客户端能够稳定接收多个流媒体数据。

测试二:客户端进入不同房间。每个客户端同时发送数据并接收多条流。测试发现不同房间的客户端间数据传输表现一致。

测试三:客户端进入不同房间。每个客户端仅发送或接收单条流。测试结果与官网测试数据差异不大。

综上所述,本次测试验证了Jitsi在多客户端场景下的稳定性和性能。尽管与官网测试结果相近,但仍有优化空间,建议根据实际需求调整配置参数或优化客户端性能。

转载地址:http://avex.baihongyu.com/

你可能感兴趣的文章
OJ中处理超大数据的方法
查看>>
OJ中常见的一种presentation error解决方法
查看>>
OK335xS UART device registe hacking
查看>>
ok6410内存初始化
查看>>
OkDeepLink 使用教程
查看>>
OKHTTP
查看>>
Okhttp3添加拦截器后,报错,java.io.IOException: unexpected end of stream on okhttp3.Address
查看>>
Okhttp拦截器
查看>>
OkHttp源码解析(构建者模式、责任链模式、主线流程)
查看>>
OkHttp透明压缩,收获性能10倍,外加故障一枚
查看>>
OKR为什么到今天才突然火了?
查看>>
ol3 Demo2 ----地图搜索功能
查看>>
OLAP、OLTP的介绍和比较
查看>>
OLAP在大数据时代的挑战
查看>>
Vue.js 学习总结(12)—— 微前端实践思考与总结
查看>>
oldboy.16课
查看>>
OLEDB IMEX行数限制的问题
查看>>
ollama 如何删除本地模型文件?
查看>>
ollama-python-Python快速部署Llama 3等大型语言模型最简单方法
查看>>
Ollama怎么启动.gguf 大模型
查看>>