针对现有迁移学习中源域和目标域具有分布不一致数据的问题,通过采用一种选择性最大均值偏差度量方法,将源域中部分相关数据子集用于构建迁移知识,提出选择性的直推式迁移学习方法 (selective transductive transfer learning,STTL)。...针对现有迁移学习中源域和目标域具有分布不一致数据的问题,通过采用一种选择性最大均值偏差度量方法,将源域中部分相关数据子集用于构建迁移知识,提出选择性的直推式迁移学习方法 (selective transductive transfer learning,STTL)。选出与目标域分布相似的数据用于迁移学习,避免使用不相关源域数据带来的负迁移效应,实现标签数据不足情况下目标域数据的有效建模。实验结果表明,所提方法在模拟和真实数据集上的实验精度优于其它方法。展开更多
深度域适应作为迁移学习最常见的问题之一,已经在许多机器学习应用中获得了优异的性能。然而,现有的深度域适应方法在减小域偏差时单一适配完全连接层,忽视了卷积层的空间信息和语义上下文信息,造成在知识迁移过程中丢失重要信息。为此...深度域适应作为迁移学习最常见的问题之一,已经在许多机器学习应用中获得了优异的性能。然而,现有的深度域适应方法在减小域偏差时单一适配完全连接层,忽视了卷积层的空间信息和语义上下文信息,造成在知识迁移过程中丢失重要信息。为此,文中将基于实例的域适应与基于特征的域适应相结合,提出了基于PE散度实例过滤的深度域适应方法(Domain Adaptation Based on PE Divergence Instance Filtering,DAPEIF)。其基本思想是首先利用PE散度计算源域样本的相对权值,删除易造成负迁移的源域样本,选择相对权值较高的训练数据作为新的源域样本,从而降低源域与目标域之间的差异性;然后基于AlexNet模型,使用最大均值差异(Maximum Mean Discrepancy,MMD)准则,将其作为正则化项纳入神经网络的学习中。与以往只关注完全连接层的域适应方法不同,文中联合匹配卷积层和完全连接层的边缘概率分布以解决欠适配问题,同时引入权值正则项,通过梯度下降法学习网络参数,进一步提高了域适应过程中模型的泛化性能。所提算法能同时对神经网络的卷积层和完全连接层的参数赋予领域自适应能力,在域适应公开数据集Office-Caltech上的实验结果表明,域适应对卷积层是有效的,更重要的是卷积层的自适应可以进一步提高传统域适应的性能,与主流的域适应算法DDC和DAN相比,所提算法在精度上有所提高,平均精度达到84.46%。展开更多
文摘针对现有迁移学习中源域和目标域具有分布不一致数据的问题,通过采用一种选择性最大均值偏差度量方法,将源域中部分相关数据子集用于构建迁移知识,提出选择性的直推式迁移学习方法 (selective transductive transfer learning,STTL)。选出与目标域分布相似的数据用于迁移学习,避免使用不相关源域数据带来的负迁移效应,实现标签数据不足情况下目标域数据的有效建模。实验结果表明,所提方法在模拟和真实数据集上的实验精度优于其它方法。
文摘深度域适应作为迁移学习最常见的问题之一,已经在许多机器学习应用中获得了优异的性能。然而,现有的深度域适应方法在减小域偏差时单一适配完全连接层,忽视了卷积层的空间信息和语义上下文信息,造成在知识迁移过程中丢失重要信息。为此,文中将基于实例的域适应与基于特征的域适应相结合,提出了基于PE散度实例过滤的深度域适应方法(Domain Adaptation Based on PE Divergence Instance Filtering,DAPEIF)。其基本思想是首先利用PE散度计算源域样本的相对权值,删除易造成负迁移的源域样本,选择相对权值较高的训练数据作为新的源域样本,从而降低源域与目标域之间的差异性;然后基于AlexNet模型,使用最大均值差异(Maximum Mean Discrepancy,MMD)准则,将其作为正则化项纳入神经网络的学习中。与以往只关注完全连接层的域适应方法不同,文中联合匹配卷积层和完全连接层的边缘概率分布以解决欠适配问题,同时引入权值正则项,通过梯度下降法学习网络参数,进一步提高了域适应过程中模型的泛化性能。所提算法能同时对神经网络的卷积层和完全连接层的参数赋予领域自适应能力,在域适应公开数据集Office-Caltech上的实验结果表明,域适应对卷积层是有效的,更重要的是卷积层的自适应可以进一步提高传统域适应的性能,与主流的域适应算法DDC和DAN相比,所提算法在精度上有所提高,平均精度达到84.46%。