期刊文献+
共找到190篇文章
< 1 2 10 >
每页显示 20 50 100
基于一类新型激活函数的递归神经网络的多稳定性分析 被引量:1
1
作者 闫维昕 刘洋 王震 《山东科技大学学报(自然科学版)》 CAS 北大核心 2024年第2期90-101,共12页
本研究基于一类新型连续锯齿型激活函数研究了递归神经网络(Hopfield神经网络)的多稳定性。首先,通过区间剖分法、Brouwer不动点定理证明了基于该激活函数的n维神经网络模型至少具有7n个平衡点,并运用对角占优矩阵理论、局部稳定性判定... 本研究基于一类新型连续锯齿型激活函数研究了递归神经网络(Hopfield神经网络)的多稳定性。首先,通过区间剖分法、Brouwer不动点定理证明了基于该激活函数的n维神经网络模型至少具有7n个平衡点,并运用对角占优矩阵理论、局部稳定性判定定理等方法证明了其中4n个平衡点是局部指数稳定的,剩余的平衡点是不稳定的。其次,通过增加锯齿型激活函数的峰值点将激活函数推广到更一般的情况,得到了n维神经网络在含有k个峰值点的连续锯齿型激活函数中至少具有(2k+1)n个平衡点,其中(k+1)n个平衡点为局部稳定的。本研究设计的激活函数相较于现有的一些激活函数会产生更多的稳定平衡点,并且在增加峰值点的过程中不会增加神经网络的计算复杂度。最后,通过两个具体的数值算例验证了本研究结果的有效性。 展开更多
关键词 HOPFIELD神经网络 多稳定性 平衡点 连续锯齿型激活函数
在线阅读 下载PDF
用于图像分类的卷积神经网络中激活函数的设计 被引量:60
2
作者 王红霞 周家奇 +1 位作者 辜承昊 林泓 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2019年第7期1363-1373,共11页
为了提高图像分类效果,针对卷积神经网络中常用激活函数relu在x负半轴的导数恒为零,导致训练过程中容易造成神经元"坏死"以及现有组合激活函数relu-softplus在模型收敛情况下学习率过小导致收敛速度慢的问题,提出新的组合激... 为了提高图像分类效果,针对卷积神经网络中常用激活函数relu在x负半轴的导数恒为零,导致训练过程中容易造成神经元"坏死"以及现有组合激活函数relu-softplus在模型收敛情况下学习率过小导致收敛速度慢的问题,提出新的组合激活函数relu-softsign.分析激活函数在训练过程中的作用,给出激活函数在设计时需要考虑的要点;根据这些要点,将relu和softsign函数于x轴正、负半轴进行分段组合,使其x负半轴导数不再恒为零;分别在MNIST、PI100、CIFAR-100和Caltech256数据集上,与单一的激活函数和relu-softplus组合激活函数进行对比实验.实验结果表明,使用relu-softsign组合激活函数提高了模型分类准确率,简单有效地缓解了神经元不可逆"坏死"现象;加快了模型的收敛速度,在复杂数据集上该组合函数的收敛性能更好. 展开更多
关键词 图像分类 卷积神经网络 激活函数 relu 神经元坏死 组合激活函数
在线阅读 下载PDF
混合激活函数对BP算法收敛速度的影响 被引量:5
3
作者 周玲 孙军 +1 位作者 袁宇波 丁晓群 《河海大学学报(自然科学版)》 CAS CSCD 1999年第5期107-108,共2页
研究了不同激活函数选取对BP 网络收敛速度的影响,得出了采用组合激活函数可改善BP网络的收敛性的结论.以电力变压器的人工神经网络故障诊断为例所选取的TTS(T表示为双曲正切函数,S表示为Sigmoid 函数) 的组合激... 研究了不同激活函数选取对BP 网络收敛速度的影响,得出了采用组合激活函数可改善BP网络的收敛性的结论.以电力变压器的人工神经网络故障诊断为例所选取的TTS(T表示为双曲正切函数,S表示为Sigmoid 函数) 的组合激活函数方式,具有快速收敛性和较高的故障诊断精度. 展开更多
关键词 BP算法 收敛速度 激活函数 变压器
在线阅读 下载PDF
基于激活函数四参可调的BP神经网络改进算法 被引量:11
4
作者 李恩玉 杨平先 孙兴波 《微电子学与计算机》 CSCD 北大核心 2008年第11期89-93,共5页
为改善BP神经网络的性能,以标准Sigmoidal函数为基础,提出了一种四参数可调的激活函数模型.在学习过程中,它能同时对激活函数的陡度、位置及映射范围进行调节,具有更强的非线性映射能力.并推导出其在BP神经网络中的学习算法.仿真结果显... 为改善BP神经网络的性能,以标准Sigmoidal函数为基础,提出了一种四参数可调的激活函数模型.在学习过程中,它能同时对激活函数的陡度、位置及映射范围进行调节,具有更强的非线性映射能力.并推导出其在BP神经网络中的学习算法.仿真结果显示,改进后的激活函数与传统的标准Sigmoidal函数相比,收敛速度能提高10倍以上,收敛精度误差可减小到传统误差的0.4%以下,而且可以有效地减少隐层的结点数,学习能力可得到较大的提高. 展开更多
关键词 神经网络 BP算法 激活函数 可调参数
在线阅读 下载PDF
面向存算一体架构中Tanh激活函数的绝对值电路设计 被引量:4
5
作者 顾晓峰 管其冬 虞致国 《电子与信息学报》 EI CSCD 北大核心 2023年第9期3350-3358,共9页
基于存算一体(CIM)架构的激活函数模拟实现方式使得神经网络变得更加接近非线性模型,针对其中Tanh函数负值难处理的问题,该文提出一种高速、高精度绝对值运算电路。该电路将输入电压经过比较器结果判断选择是否输出,利用反相比例取反电... 基于存算一体(CIM)架构的激活函数模拟实现方式使得神经网络变得更加接近非线性模型,针对其中Tanh函数负值难处理的问题,该文提出一种高速、高精度绝对值运算电路。该电路将输入电压经过比较器结果判断选择是否输出,利用反相比例取反电路控制负压输入并转换为正压通过开关输出,实现了离散输出功能的绝对值运算处理。与传统利用二极管全波整流绝对值电路相比,该电路有效避免了二极管难集成的问题,且速度快、功耗低、整体面积小。基于55 nm CMOS工艺进行设计,结果表明,在50 ns工作时钟周期下,经过绝对值电路转化后的输出电压与输入电压误差控制在1%以内,比较器的输出延时为5 ns,零点区域放大电压误差小于400μV。在1.2 V电源电压下,功耗为670μW,版图面积为4447μm^(2)。 展开更多
关键词 存算一体架构 绝对值电路 Tanh激活函数 神经网络
在线阅读 下载PDF
基于BP激活函数灵敏度分析的径流组合预报模型 被引量:1
6
作者 张新明 王丽萍 +1 位作者 李继伟 喻山 《中国农村水利水电》 北大核心 2013年第12期22-26,共5页
BP网络模型因其自身固有属性而常被选作中长期径流组合预报模型元素之一。选取BP网络结构中重要因素——激活函数进行分析研究。引入预报精度和预报稳定性两个评价指,并采用客观熵权法和主观G1法确定两指标相对重要性;利用方差协方差法... BP网络模型因其自身固有属性而常被选作中长期径流组合预报模型元素之一。选取BP网络结构中重要因素——激活函数进行分析研究。引入预报精度和预报稳定性两个评价指,并采用客观熵权法和主观G1法确定两指标相对重要性;利用方差协方差法确定各单一模型指标权重,最终得出各单一模型组合预报权重值。在此基础上,设计混合水平全排列组合试验方案,采用极差分析法对激活函数进行灵敏度分析。通过实例模拟仿真可知,组合预报模型中BP网络不同层激活函数的组合工况对预报模型的收敛速度、收敛精度及泛化推广能力具有重要影响,并给出合理的基于BP网络组合预报模型建议。 展开更多
关键词 BP网络 激活函数 灵敏度 组合预报模型
在线阅读 下载PDF
可调激活函数神经元参数选取方法研究 被引量:2
7
作者 黄敬频 周永权 《工程数学学报》 CSCD 北大核心 2005年第6期995-1000,共6页
隐层神经元采用相同的Sigmoid激活函数会限制神经网络的非线性能力,对Sigmoid函数引入两个参数可改善其响应特性,增强其非线性逼近能力。本文给出了一种可调Sigmoid激活函数,分析了可调激活函数中参数所表示的几何意义;给出提升网络维... 隐层神经元采用相同的Sigmoid激活函数会限制神经网络的非线性能力,对Sigmoid函数引入两个参数可改善其响应特性,增强其非线性逼近能力。本文给出了一种可调Sigmoid激活函数,分析了可调激活函数中参数所表示的几何意义;给出提升网络维数的可调激活函数中参数的快速选取方法和理论基础。这为人们在采用可调Sigmoid激活函数解决实际问题时,如何快速选取激活函数中的参数提供了一种可行方法。 展开更多
关键词 可调Sigmoid激活函数 隐层神经元 前向神经网络 矩阵
在线阅读 下载PDF
具有任意激活函数的时延神经元方程的Hopf分岔 被引量:1
8
作者 周尚波 廖晓峰 虞厥邦 《电子与信息学报》 EI CSCD 北大核心 2002年第9期1209-1217,共9页
该文研究了一个带时延的神经元方程,分析相应的线性化方程的超越特征方程,研究了这个模型的线性稳定性,对于神经元来自过去状态的抑制影响,作者发现当这个影响值变化并通过一个临界序列时,这个模型会出现Hopf分岔,利用规范形式理论和中... 该文研究了一个带时延的神经元方程,分析相应的线性化方程的超越特征方程,研究了这个模型的线性稳定性,对于神经元来自过去状态的抑制影响,作者发现当这个影响值变化并通过一个临界序列时,这个模型会出现Hopf分岔,利用规范形式理论和中心流形定理,解析确定了周期解的稳定性与Hopf分岔方向,数值例子也证实了所得结论。 展开更多
关键词 任意激活函数 时延神经元方程 神经元 离散时延 稳定性 HOPF分岔 周期解
在线阅读 下载PDF
基于混合激活函数的改进卷积神经网络算法 被引量:3
9
作者 刘国柱 赵鹏程 +1 位作者 于超 王晓甜 《青岛科技大学学报(自然科学版)》 CAS 2021年第1期114-118,共5页
激活函数是人工神经网络的重要组成部分,对提高人工神经网络的准确性具有重要影响。为了研究使用混合激活函数的卷积神经网络在图像分类任务中的识别精度和收敛速度表现,本工作以LeNet-5卷积神经网络为基本结构,构造了一个使用Sinusoid-... 激活函数是人工神经网络的重要组成部分,对提高人工神经网络的准确性具有重要影响。为了研究使用混合激活函数的卷积神经网络在图像分类任务中的识别精度和收敛速度表现,本工作以LeNet-5卷积神经网络为基本结构,构造了一个使用Sinusoid-Sinusoid-Ramp(S-S-R)混合激活函数的卷积神经网络,以及4个使用单一激活函数(Sinusoid、Ramp、Sigmoid、Tanh)的卷积神经网络在CIFAR-10数据集上进行了图像分类实验,并在MNIST数据集上将本工作新模型同其他分类算法的效果进行了对比。结果表明,使用S-S-R混合激活函数的卷积神经网络具有更快的收敛速度和更高的识别精度。 展开更多
关键词 混合激活函数 卷积神经网络 图像识别 准确率
在线阅读 下载PDF
前馈网络构造性设计中基于GP实现神经元激活函数类型优化
10
作者 李建 刘红星 王仲宇 《东南大学学报(自然科学版)》 EI CAS CSCD 北大核心 2004年第6期746-750,共5页
讨论了在前馈网络构造性设计中如何基于遗传编程 (GP)实现神经元激活函数类型自动优化的问题 .首先 ,提出了典型前馈网络的一种构造性设计方法框架 ,将整个网络的设计分解为单个神经元的逐个设计 ;然后 ,在此框架下提出了基于GP的单个... 讨论了在前馈网络构造性设计中如何基于遗传编程 (GP)实现神经元激活函数类型自动优化的问题 .首先 ,提出了典型前馈网络的一种构造性设计方法框架 ,将整个网络的设计分解为单个神经元的逐个设计 ;然后 ,在此框架下提出了基于GP的单个神经元的设计方法 ,该方法可实现对激活函数类型的优化 .仿真实验显示 ,本文的前馈网络构造性设计方案是可行的 ,与其他几种不优化激活函数类型的网络设计方法相比 ,本方法更有效 ,能用较小的网络规模获得更满意的泛化特性 . 展开更多
关键词 神经网络 构造性设计 遗传编程 神经元激活函数
在线阅读 下载PDF
一种新型的神经元激活函数及其导数的可编程发生器
11
作者 卢纯 石秉学 《固体电子学研究与进展》 CAS CSCD 北大核心 2002年第1期64-67,共4页
在神经网络的片上学习中 ,需要将神经元激活函数及其导数都映射为硬件。为满足这种需求 ,利用前向差分的原理 ,提出了一种新型的神经元激活函数及其导数的可编程发生器。该发生器采用模拟电路 ,具有结构简单、速度快、功耗小的优点。它... 在神经网络的片上学习中 ,需要将神经元激活函数及其导数都映射为硬件。为满足这种需求 ,利用前向差分的原理 ,提出了一种新型的神经元激活函数及其导数的可编程发生器。该发生器采用模拟电路 ,具有结构简单、速度快、功耗小的优点。它产生的函数不仅与理想函数的拟合程度很好 ,而且可对阈值和增益因子进行编程 ,从而克服了一般模拟电路可编程性差、适用范围窄的缺点。采用标准 1 .2μm CMOS工艺的第 47级模型 ,对电路进行的 展开更多
关键词 神经网络 可编程发生器 激活函数 导数
在线阅读 下载PDF
面向CNN模型图像分类任务的高效激活函数设计 被引量:13
12
作者 杜圣杰 贾晓芬 +2 位作者 黄友锐 郭永存 赵佰亭 《红外与激光工程》 EI CSCD 北大核心 2022年第3期483-491,共9页
激活函数(Activation Functions,AF)对于卷积神经网络学习、拟合复杂函数模型来说具有十分重要的作用,为了使神经网络能更好更快的完成各类学习任务,设计了一种新型高效激活函数EReLU。EReLU通过引入自然对数函数有效缓解了神经元“坏... 激活函数(Activation Functions,AF)对于卷积神经网络学习、拟合复杂函数模型来说具有十分重要的作用,为了使神经网络能更好更快的完成各类学习任务,设计了一种新型高效激活函数EReLU。EReLU通过引入自然对数函数有效缓解了神经元“坏死”和梯度弥散问题,通过分析激活函数及其导函数在前馈和反馈过程中的作用对EReLU函数的数学模型探索设计,经测试确定EReLU函数的具体设计方案,最终实现了提升精度和加速训练的效果;随后在不同网络和数据集上对EReLU进行测试,结果显示EReLU相较于ReLU及其改进函数精度提升0.12%~6.61%,训练效率提升1.02%~6.52%,这有力地证明了EReLU函数在加速训练和提升精度方面的优越性。 展开更多
关键词 图像分类 高效激活函数 神经元“坏死” 卷积神经网络
在线阅读 下载PDF
激活函数的发展综述及其性质分析 被引量:53
13
作者 张焕 张庆 于纪言 《西华大学学报(自然科学版)》 CAS 2021年第4期1-10,共10页
为深入研究激活函数的作用机制,探讨优良激活函数应具备的性质,以提高卷积神经网络模型的泛化能力,文章综述了激活函数的发展,分析得到优良激活函数应具备的性质。激活函数大体可分为“S型”激活函数、“ReLU型”激活函数、组合型激活... 为深入研究激活函数的作用机制,探讨优良激活函数应具备的性质,以提高卷积神经网络模型的泛化能力,文章综述了激活函数的发展,分析得到优良激活函数应具备的性质。激活函数大体可分为“S型”激活函数、“ReLU型”激活函数、组合型激活函数、其他类型激活函数。在深度学习发展初期,“S型”激活函数得到了广泛应用。随着网络模型的加深,“S型”激活函数出现了“梯度消失”问题。ReLU激活函数的出现缓解了这一问题,但ReLU负半轴“置0”则引入了“神经元坏死”的问题。随后出现的改进激活函数大多基于ReLU负半轴进行改动,以缓减“神经元坏死”。文章最后以多层感知机为例,推导了优良激活函数在前向、反向传播中的作用,并得出其应该具备的性质。 展开更多
关键词 深度学习 卷积神经网络 激活函数 反向传播 ReLU
在线阅读 下载PDF
激活函数的对比测试与分析 被引量:21
14
作者 王攀杰 郭绍忠 +2 位作者 侯明 郝江伟 许瑾晨 《信息工程大学学报》 2021年第5期551-557,共7页
随着人工智能的发展、含有激活函数库开源框架的增加,针对激活函数库的对比与分析越来越重要。在Intel x86架构上进行实验,从函数性能、稳定性、精度3个方面测试并分析了PyTorch和TensorFlow两种主流人工智能框架中的常用激活函数。实... 随着人工智能的发展、含有激活函数库开源框架的增加,针对激活函数库的对比与分析越来越重要。在Intel x86架构上进行实验,从函数性能、稳定性、精度3个方面测试并分析了PyTorch和TensorFlow两种主流人工智能框架中的常用激活函数。实验结果表明,PyTorch的整体稳定性要高于TensorFlow,且Sigmoid、Hardsigmoid、SeLU、ReLU、ReLU6、Tanh函数的性能皆优于TensorFlow;在精度方面,TensorFlow中除SeLU函数与LeakyReLU函数稍差些,其余函数与PyTorch表现相当。 展开更多
关键词 激活函数 PyTorch TensorFlow
在线阅读 下载PDF
多斜率自适应卷积神经网络激活函数 被引量:1
15
作者 刘海 刘波 胡瑜 《空间控制技术与应用》 CSCD 北大核心 2020年第3期28-35,共8页
针对卷积神经网络中激活函数无法有效为处于不同激活程度的像素点提供特定梯度响应的问题,设计了一种由多个分段线性函数组成的自适应激活函数.首先依据像素激活值的取值范围,自适应地生成多个独立的激活域,各个激活域的并集包含激活图... 针对卷积神经网络中激活函数无法有效为处于不同激活程度的像素点提供特定梯度响应的问题,设计了一种由多个分段线性函数组成的自适应激活函数.首先依据像素激活值的取值范围,自适应地生成多个独立的激活域,各个激活域的并集包含激活图中全体像素点的激活值;随后在每个激活域中学习一个特定的线性函数,为处于该激活域中的像素点提供特定的梯度响应;最后以NIN网络和ResNet18网络为例,在CIFAR-10和CIFAR-100数据集上,验证所提激活函数的性能.实验结果表明,与现有激活函数相比,本文提出的激活函数,由于能够更好地为处于不同激活程度的像素点提供适当的梯度响应,使分类准确率在NIN网络上分别达到87.96%和69.01%,在ResNet18网络上分别达到88.56%和73.54%. 展开更多
关键词 激活函数 卷积神经网络 图像分类
在线阅读 下载PDF
具有非可微激活函数的神经网络性能分析 被引量:1
16
作者 穆文全 廖晓峰 虞厥邦 《电子科技大学学报》 EI CAS CSCD 北大核心 1996年第4期377-380,共4页
神经网络已广泛应用于各类问题,然而BP算法要求有连续且可微的激活函数,文中提出一种用于训练非可微激活函数的神经网络学习算法。同时,利用相对熵误差测度,算法被完整地导出。实验结果表明,在解决异或问题、编码/解码问题及其... 神经网络已广泛应用于各类问题,然而BP算法要求有连续且可微的激活函数,文中提出一种用于训练非可微激活函数的神经网络学习算法。同时,利用相对熵误差测度,算法被完整地导出。实验结果表明,在解决异或问题、编码/解码问题及其补问题时,算法收敛速度非常快,收敛结果也令人满意。 展开更多
关键词 神经网络 非可微激活函数 相对熵误差测度
在线阅读 下载PDF
Swish激活函数在中小规模数据集上的性能表现 被引量:8
17
作者 米硕 田丰收 +2 位作者 孙瑞彬 葛敏 赵汝程 《科技创新与应用》 2018年第1期4-5,共2页
Swish激活函数是一种新的激活函数,其形式为:f(x)=x*sigmod(x),Swish-β激活函数的形式则为f(x)=x*sigmod(b*x),其拥有不饱和,光滑且非单调性的特征,而测试表明Swish以及Swish-β激活函数拥有极佳的性能,尤其是与局部响应归一化配合,以... Swish激活函数是一种新的激活函数,其形式为:f(x)=x*sigmod(x),Swish-β激活函数的形式则为f(x)=x*sigmod(b*x),其拥有不饱和,光滑且非单调性的特征,而测试表明Swish以及Swish-β激活函数拥有极佳的性能,尤其是与局部响应归一化配合,以及较深的深度神经网络上,表现出了对目前大多数激活函数的性能优势。 展开更多
关键词 Swish激活函数 深度学习 神经网络
在线阅读 下载PDF
深度学习算法的激活函数研究 被引量:29
18
作者 张有健 陈晨 王再见 《无线电通信技术》 2021年第1期115-120,共6页
作为深度学习算法中重要的环节,激活函数可以为神经网络引入非线性因素。大量学者通过提出或改进激活函数的方法在一定程度上提高了算法的优化及泛化能力。研究了现阶段的激活函数,将激活函数大致分为S系激活函数和ReLU系激活函数,从不... 作为深度学习算法中重要的环节,激活函数可以为神经网络引入非线性因素。大量学者通过提出或改进激活函数的方法在一定程度上提高了算法的优化及泛化能力。研究了现阶段的激活函数,将激活函数大致分为S系激活函数和ReLU系激活函数,从不同激活函数的功能特点和存在的饱和性、零点对称和梯度消失及梯度爆炸的现象进行研究分析,针对Sigmoid,Tanh,ReL,P-ReLU,L-ReLU等典型激活函数分别应用在卷积神经网络(Covolutional Neural Network,CNN)和循环神经网络(Recurrent Neural Network,RNN)中测试。在CNN中使用MNIST,CIFAR-10经典数据集测试不同激活函数,并在RNN中使用大豆粮油数据集对大豆的产值进行预警,通过结果得到S系激活函数比ReLU系激活函数收敛更快,而ReLU系激活函数则在精度上优于S系激活函数,其中P-ReLU在大豆产值预测中达到93%的最高精度。 展开更多
关键词 激活函数 卷积神经网络 循环神经网络 深度学习
在线阅读 下载PDF
卷积神经网络中ReLU激活函数优化设计 被引量:34
19
作者 王双印 滕国文 《信息通信》 2018年第1期42-43,共2页
卷积神经网络中的激活函数的作用是激活神经元的特征然后保留并映射出来,这是神经网络能模拟人脑机制,解决非线性问题的关键。ReLU函数更是其中的佼佼者,但同时其自身也存在不足之处。文章从两个方面对ReLU函数进行了优化设计。对使用... 卷积神经网络中的激活函数的作用是激活神经元的特征然后保留并映射出来,这是神经网络能模拟人脑机制,解决非线性问题的关键。ReLU函数更是其中的佼佼者,但同时其自身也存在不足之处。文章从两个方面对ReLU函数进行了优化设计。对使用梯度下降法的激活函数的学习率进行讨论研究并提出可行的学习率改进方法。提出一种新型校正激活函数,称其为e-ln函数,经过Mnist数据集仿真实验证明某些情况下其性能要优于ReLU。 展开更多
关键词 卷积神经网络 激活函数 ReLU 优化设计
在线阅读 下载PDF
基于残差预测修正的可调激活函数极限学习机 被引量:1
20
作者 王改堂 王红辉 +1 位作者 赵金磊 白艳放 《弹箭与制导学报》 CSCD 北大核心 2017年第6期129-132,共4页
针对极限学习机算法采用固定激活函数以及残差无法修正等缺陷,提出了基于残差预测修正的可调激活函数极限学习机算法(RV-ELM)。在学习过程中,采用粒子群优化算法选择陡度、位置和映射范围等参数,并使用ARMA模型对可调激活函数极限学习机... 针对极限学习机算法采用固定激活函数以及残差无法修正等缺陷,提出了基于残差预测修正的可调激活函数极限学习机算法(RV-ELM)。在学习过程中,采用粒子群优化算法选择陡度、位置和映射范围等参数,并使用ARMA模型对可调激活函数极限学习机(V-ELM)的预测值与实际值之间构成的残差序列进行建模、修正V-ELM的预测值。通过基准数据集仿真实验,验证了方法的有效性和可行性;并将其应用于地空导弹生存能力预测中,获得了满意的结果。 展开更多
关键词 极限学习机 激活函数 ARMA模型 残差修正 地空导弹 生存能力
在线阅读 下载PDF
上一页 1 2 10 下一页 到第
使用帮助 返回顶部