期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
一种具有检错能力的数据压缩编码方法
1
作者
唐红
《电讯技术》
北大核心
2003年第1期101-105,共5页
本文介绍一种具有检错能力的算术数据压缩编码。它采用改进型的概率模型 ,将每一个信源符号的概率乘以 (1-ε) ,其中 0 <ε <1。在编码时 ,不使用减少的概率部分 ,因此 ,如果在数据传输过程中没有发生误码 ,解码运算将不会落到未...
本文介绍一种具有检错能力的算术数据压缩编码。它采用改进型的概率模型 ,将每一个信源符号的概率乘以 (1-ε) ,其中 0 <ε <1。在编码时 ,不使用减少的概率部分 ,因此 ,如果在数据传输过程中没有发生误码 ,解码运算将不会落到未使用的概率部分。然而 ,如果在数据传输过程中发生了误码 ,则该误码在经过n个符号的解码后被检测出来的概率为 [1- (1-ε) n]。这种编码方法主要有两个优点 ,一是编码后的冗余可以用ε非常方便地进行调节 ,二是当n趋于无穷时 ,误码检测概率趋于 1。计算机模拟结果显示 ,当ε =0 .5 ,即相当于平均每一信源符号的编码增加 1比特冗余时 ,误码在经过 10个符号的解码后被检测出来的概率为 99.9%。
展开更多
关键词
检错能力
算术压缩编码
无损数据
压缩
信源
编码
纠错能力
在线阅读
下载PDF
职称材料
快速神经网络无损压缩方法研究
被引量:
3
2
作者
傅彦
周俊临
吴跃
《电子科技大学学报》
EI
CAS
CSCD
北大核心
2007年第6期1245-1248,共4页
传统的人工神经网络数据编码算法需要离线训练且编码速度慢,因此通常多用于专用有损编码领域如声音、图像编码等,在无损数据编码领域应用较少。针对这种现状,该文详细地研究了最大熵统计模型和神经网络算法各自的特点,提出了一种基于最...
传统的人工神经网络数据编码算法需要离线训练且编码速度慢,因此通常多用于专用有损编码领域如声音、图像编码等,在无损数据编码领域应用较少。针对这种现状,该文详细地研究了最大熵统计模型和神经网络算法各自的特点,提出了一种基于最大熵原理的神经网络概率预测模型并结合自适应算术编码来进行数据压缩,具有精简的网络结构的自适应在线学习算法。试验表明,该算法在压缩率上可以优于目前流行的压缩算法Limpel-Zip(zip,gzip),并且在运行时间和所需空间性能上同PPM和Burrows Wheeler算法相比也是颇具竞争力的。该算法实现为多输入和单输出的两层神经网络,用已编码比特的学习结果作为待编码比特的工作参数,符合数据上下文相关约束的特点,提高了预测精度,并节约了编码时间。
展开更多
关键词
算术
编码
:数据
压缩
最大熵
神经网络
在线阅读
下载PDF
职称材料
题名
一种具有检错能力的数据压缩编码方法
1
作者
唐红
机构
成都电子机械高等专科学校
出处
《电讯技术》
北大核心
2003年第1期101-105,共5页
文摘
本文介绍一种具有检错能力的算术数据压缩编码。它采用改进型的概率模型 ,将每一个信源符号的概率乘以 (1-ε) ,其中 0 <ε <1。在编码时 ,不使用减少的概率部分 ,因此 ,如果在数据传输过程中没有发生误码 ,解码运算将不会落到未使用的概率部分。然而 ,如果在数据传输过程中发生了误码 ,则该误码在经过n个符号的解码后被检测出来的概率为 [1- (1-ε) n]。这种编码方法主要有两个优点 ,一是编码后的冗余可以用ε非常方便地进行调节 ,二是当n趋于无穷时 ,误码检测概率趋于 1。计算机模拟结果显示 ,当ε =0 .5 ,即相当于平均每一信源符号的编码增加 1比特冗余时 ,误码在经过 10个符号的解码后被检测出来的概率为 99.9%。
关键词
检错能力
算术压缩编码
无损数据
压缩
信源
编码
纠错能力
Keywords
Arithmetic coding
Lossless data compression
Error detection and error correction
分类号
TN911.21 [电子电信—通信与信息系统]
在线阅读
下载PDF
职称材料
题名
快速神经网络无损压缩方法研究
被引量:
3
2
作者
傅彦
周俊临
吴跃
机构
电子科技大学计算机科学与工程学院
出处
《电子科技大学学报》
EI
CAS
CSCD
北大核心
2007年第6期1245-1248,共4页
基金
国家自然科学基金项目(10476006)
国家863项目(2006AAD1Z414)
文摘
传统的人工神经网络数据编码算法需要离线训练且编码速度慢,因此通常多用于专用有损编码领域如声音、图像编码等,在无损数据编码领域应用较少。针对这种现状,该文详细地研究了最大熵统计模型和神经网络算法各自的特点,提出了一种基于最大熵原理的神经网络概率预测模型并结合自适应算术编码来进行数据压缩,具有精简的网络结构的自适应在线学习算法。试验表明,该算法在压缩率上可以优于目前流行的压缩算法Limpel-Zip(zip,gzip),并且在运行时间和所需空间性能上同PPM和Burrows Wheeler算法相比也是颇具竞争力的。该算法实现为多输入和单输出的两层神经网络,用已编码比特的学习结果作为待编码比特的工作参数,符合数据上下文相关约束的特点,提高了预测精度,并节约了编码时间。
关键词
算术
编码
:数据
压缩
最大熵
神经网络
Keywords
arithmetic encoding
data compression
maximum entropy
neural network
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
一种具有检错能力的数据压缩编码方法
唐红
《电讯技术》
北大核心
2003
0
在线阅读
下载PDF
职称材料
2
快速神经网络无损压缩方法研究
傅彦
周俊临
吴跃
《电子科技大学学报》
EI
CAS
CSCD
北大核心
2007
3
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部