韩 伟
- 注册于: 2024-12-10
- 最后登录: 2025-04-29
问题
项目
- 解决方案集成测试 (开发人员, 报告人员, 2024-12-10)
- eMBB2.0 BBIT (开发人员, 报告人员, 2024-12-10)
- 研发产品测试 (开发人员, 报告人员, 2024-12-10)
- 2.0基站产品化测试 (开发人员, 报告人员, 2024-12-10)
- 3.0基站产品测试 (开发人员, 报告人员, 2024-12-10)
活动
2025-04-29
- 18:01 3.0基站产品测试 错误 #3209 (进行中): [3.0产品测试]3.0.1pre1_T3,下行UDP灌包超过200M,DU窗口打印window stalled,终端掉线
- 此问题出现在星思CPE终端,且出现频次很高,其他厂家CPE终端未发现此种情况。
针对该问题,通过log分析,发现星思CPE环境存在两个主要问题:1.环境空口很差,RLC重传包太多;2.该CPE存在上报错误的状态报告,目前发现上报有3... - 17:53 3.0基站产品测试 错误 #3237 (进行中): 下行udp灌1472字节包长,mcs骤降误码升高。
- 此问题,灌包包场超过MTU,会出现ip层分片,出现大小包混合传输的业务模型,这可能会对调度情况有所影响,mcs骤降,误码升高需要幸幸分析下这种业务模型下是否会影响到。
- 17:45 3.0基站产品测试 错误 #3261: [3.0产品测试]3.0.1pre1_T4 终端停止灌包后异常掉线,DU异常打印buffer is full
- 这个问题存在两个现象:1、停止大业务灌包时ue掉线了,2、界面出现了buffer队列满的打印。目前分析ue异常释放过程中,下行灌包缓存的包会持续进入队列,但是已经不能出队列,这可能会出现队列满的情况,因此需要排查下ue异常释放的问题,...
2025-04-11
- 09:48 3.0基站产品测试 错误 #2784 (转测试): [3.0产品测试]3.0.0pre1_T2大下行上下行单用户udp并行业务,du打印压力测试出现buffer is full 告警
- 该问题在DU做了特殊消息优先级提升修改处理后,多版本持续跑超过一月时间,目前未再出现,问题先转测试。
- 09:45 3.0基站产品测试 错误 #2730 (转测试): 上行双流、在1D3U子帧配比下,当前最高速率只能到387M左右
- 目前该问题再3.0后续版本已优化修改。
- 09:39 2.0基站产品化测试 错误 #3110 (转测试): 【17P_Pre1T2】DU调度算法为PFS,128用户接入后上下行UDP灌包18小时后下行断流
- 本问题测试场景为基站调度算法配置为PFS算法,128终端同时进行udp业务,会出现部分终端无流量,内存很快占用满,此现象在调度RR算法配置下前期多次测试无此问题。
通过配置PFS算法,多次复现log定位分析为PFS算法存在调度不公平... - 09:29 2.0基站产品化测试 错误 #2264 (转测试): 【15p_pre1_T4升级验证】持续灌上行udp业务时 终端掉线,du界面会打印buffer is full 告警,Buffer(rlcUlMsgQ) is full
- 本问题目前没有复现,先关闭处理,后续可继续基于最新版本测试。
- 09:28 2.0基站产品化测试 错误 #2920 (转测试): du2phy挂死,phy连续打印DU2PHY_api_error_check_use_empty_channels字段20次导致phy被拉死,主要原因为du内存分配失败问题导致
- 基于F1口下行的内存监控功能验证合入。
2025-04-01
- 13:58 2.0基站产品化测试 错误 #2920: du2phy挂死,phy连续打印DU2PHY_api_error_check_use_empty_channels字段20次导致phy被拉死,主要原因为du内存分配失败问题导致
- 在DU侧已做内存监控,当du相关两个内存块占用到一定门限,会在F1口进行丢包,给DU预留一定量的内存块供使用,防止对内存块的使用量太大,影响其他点申请内存,以防du2phy跑死。代码已合入。
2025-03-20
- 10:35 3.0基站产品测试 错误 #2732: 3.0基站上行ftp业务速率不到峰值且不稳定
- 基于目前19号在空口环境246环境测试情况看,上行双流配置下FTP上传流量还未达到目标,主要问题集中在双流配置下上行mcs不能抬升,只能自适应到16-17,导致1D3U场景下FTP上传流量限制到350mbps;7D2U场景下FTP上传...
导出 Atom