将互动直播部署在边缘计算环境中,可以在网络边缘对直播视频进行转码和传输,通过用户附近的边缘服务器提供低延迟的直播服务.然而,在多边缘服务器、多用户场景下存在着直播用户分配问题,导致直播用户体验质量(quality of experience, Q...将互动直播部署在边缘计算环境中,可以在网络边缘对直播视频进行转码和传输,通过用户附近的边缘服务器提供低延迟的直播服务.然而,在多边缘服务器、多用户场景下存在着直播用户分配问题,导致直播用户体验质量(quality of experience, QoE)无法得到保证.为了提高直播用户QoE,需要根据用户的个性化需求合理地分配服务器资源.首先分析真实数据集,发现大多数用户处于多基站重叠覆盖区域内,并且不同用户的互动需求存在差异;然后根据互动直播的特点提出一种适用于边缘计算场景的用户QoE模型,该模型综合考虑了直播用户的视频质量和互动体验;最后设计一种高效的直播用户分配算法,优化了多边缘服务器重叠覆盖区域内的直播用户QoE.仿真实验表明,所提出的用户分配策略可为用户提供高码率和低延迟的直播视频,同时能有效降低边缘服务器切换次数和码率抖动,使直播用户QoE相较于其他策略提升超过19%.展开更多
使用计算模型对图像进行自动描述属于视觉高层理解,要求模型不仅能够对图像中的目标及场景进行描述,而且能够对目标与目标之间、目标与场景之间的关系进行表达,同时能够生成符合一定语法和结构的自然语言句子.目前基于深度卷积神经网络(...使用计算模型对图像进行自动描述属于视觉高层理解,要求模型不仅能够对图像中的目标及场景进行描述,而且能够对目标与目标之间、目标与场景之间的关系进行表达,同时能够生成符合一定语法和结构的自然语言句子.目前基于深度卷积神经网络(Convolutional neural network,CNN)和长短时记忆网络(Long-short term memory,LSTM)的方法已成为解决该问题的主流,虽然已取得巨大进展,但存在LSTM层次不深,难以优化的问题,导致模型性能难以提升,生成的描述句子质量不高.针对这一问题,受深度学习思想的启发,本文设计了基于逐层优化的多目标优化及多层概率融合的LSTM(Multi-objective layer-wise optimization/multi-layer probability fusion LSTM,MLO/MLPF-LSTM)模型.模型中首先使用浅层LSTM进行训练,收敛之后,保留原LSTM模型中的分类层及目标函数,并添加新的LSTM层及目标函数重新对模型进行训练,对模型原有参数进行微调;在测试时,将多个分类层使用Softmax函数进行变换,得到每层对单词的预测概率分值,然后将多层的概率分值进行加权融合,得到单词的最终预测概率.在MSCOCO和Flickr30K两个数据集上实验结果显示,该模型性能显著,在多个统计指标上均超过了同类其他方法.展开更多
文摘将互动直播部署在边缘计算环境中,可以在网络边缘对直播视频进行转码和传输,通过用户附近的边缘服务器提供低延迟的直播服务.然而,在多边缘服务器、多用户场景下存在着直播用户分配问题,导致直播用户体验质量(quality of experience, QoE)无法得到保证.为了提高直播用户QoE,需要根据用户的个性化需求合理地分配服务器资源.首先分析真实数据集,发现大多数用户处于多基站重叠覆盖区域内,并且不同用户的互动需求存在差异;然后根据互动直播的特点提出一种适用于边缘计算场景的用户QoE模型,该模型综合考虑了直播用户的视频质量和互动体验;最后设计一种高效的直播用户分配算法,优化了多边缘服务器重叠覆盖区域内的直播用户QoE.仿真实验表明,所提出的用户分配策略可为用户提供高码率和低延迟的直播视频,同时能有效降低边缘服务器切换次数和码率抖动,使直播用户QoE相较于其他策略提升超过19%.
文摘使用计算模型对图像进行自动描述属于视觉高层理解,要求模型不仅能够对图像中的目标及场景进行描述,而且能够对目标与目标之间、目标与场景之间的关系进行表达,同时能够生成符合一定语法和结构的自然语言句子.目前基于深度卷积神经网络(Convolutional neural network,CNN)和长短时记忆网络(Long-short term memory,LSTM)的方法已成为解决该问题的主流,虽然已取得巨大进展,但存在LSTM层次不深,难以优化的问题,导致模型性能难以提升,生成的描述句子质量不高.针对这一问题,受深度学习思想的启发,本文设计了基于逐层优化的多目标优化及多层概率融合的LSTM(Multi-objective layer-wise optimization/multi-layer probability fusion LSTM,MLO/MLPF-LSTM)模型.模型中首先使用浅层LSTM进行训练,收敛之后,保留原LSTM模型中的分类层及目标函数,并添加新的LSTM层及目标函数重新对模型进行训练,对模型原有参数进行微调;在测试时,将多个分类层使用Softmax函数进行变换,得到每层对单词的预测概率分值,然后将多层的概率分值进行加权融合,得到单词的最终预测概率.在MSCOCO和Flickr30K两个数据集上实验结果显示,该模型性能显著,在多个统计指标上均超过了同类其他方法.