线纹尖塘鳢(Oxyeleotris lineolata)具有典型性别生长二态性,雄鱼生长优势显著,doublesex and mab-3 related transcription factor(DMRT)家族是一个与性别决定相关的转录因子家族。基于线纹尖塘鳢性腺转录组数据,共获得2个dmrt基因的c...线纹尖塘鳢(Oxyeleotris lineolata)具有典型性别生长二态性,雄鱼生长优势显著,doublesex and mab-3 related transcription factor(DMRT)家族是一个与性别决定相关的转录因子家族。基于线纹尖塘鳢性腺转录组数据,共获得2个dmrt基因的cDNA序列,分别命名为Oxldmrt1和Oxldmrt3,并采用PCR技术扩增验证2个基因的cDNA序列。运用生物信息学方法分析2个基因序列结构特征,结果显示,Oxldmrt1和Oxldmrt3开放阅读框分别为903 bp和1363 bp,分别编码300个氨基酸和453个氨基酸;OxlDMRT1属于碱性蛋白,而OxlDMRT3属于酸性蛋白;2个基因均含有高度保守的DM结构域,OxlDMRT3还存在DMA结构域。氨基酸聚类分析显示,脊椎动物不同DMRT家族都是独立聚类,OxlDMRT1属于DMRT1家族,OxlDMRT3属于DMRT3家族,DMRT1家族最先聚类,再和DMRT3家族聚类。利用实时荧光定量PCR技术(real-time quantitative PCR,RT-qPCR)分析2个dmrt基因在雌鱼和雄鱼8个组织的表达水平,结果显示,2个基因在精巢中的表达量均显著高于其他组织(P<0.01),Oxldmrt3在脑中也有少量表达;利用RT-qPCR分析2个dmrt基因在早期不同发育时期的表达谱,显示2个基因在受精卵中的表达量均最高,Oxldmrt1在眼囊期的表达量最低,而Oxldmrt3在出膜7 d时的表达量最低。利用荧光原位杂交(fluorescencein situhybridization,FISH)对2个基因在精巢中的表达进行定位,显示2个基因在精巢中表达部位一致,均在精原细胞中有较强的表达信号。综上所述,Oxldmrt1和Oxldmrt3均在线纹尖塘鳢性腺胚胎发育阶段和精巢发育过程中起调节作用,而Oxldmrt1还可能参与胚胎后期性别决定和性别分化调控过程,Oxldmrt3还可能参与神经系统发育。本研究为线纹尖塘鳢性别决定与性别分化相关的分子机制研究提供了参考。展开更多
人脸特征蕴含诸多信息,在面部属性和情感分析任务中具有重要价值,而面部特征的多样性和复杂性使人脸分析任务变得困难。针对上述难题,从面部细粒度特征角度出发,提出基于上下文通道注意力机制的人脸属性估计和表情识别(FAER)模型。首先...人脸特征蕴含诸多信息,在面部属性和情感分析任务中具有重要价值,而面部特征的多样性和复杂性使人脸分析任务变得困难。针对上述难题,从面部细粒度特征角度出发,提出基于上下文通道注意力机制的人脸属性估计和表情识别(FAER)模型。首先,构建基于ConvNext的局部特征编码骨干网络,并运用骨干网络编码局部特征的有效性来充分表征人脸局部特征之间的差异性;其次,提出上下文通道注意力(CC Attention)机制,通过动态自适应调整特征通道上的权重信息,表征深度特征的全局和局部特征,从而弥补骨干网络编码全局特征能力的不足;最后,设计不同分类策略,针对人脸属性估计(FAE)和面部表情识别(FER)任务,分别采用不同损失函数组合,以促使模型学习更多的面部细粒度特征。实验结果表明,所提FAER模型在人脸属性数据集CelebA(CelebFaces Attributes)上取得了91.87%的平均准确率,相较于次优模型SwinFace(Swin transformer for Face)高出0.55个百分点;在面部表情数据集RAF-DB和AffectNet上分别取得了91.75%和66.66%的准确率,相较于次优模型TransFER(Transformers for Facial Expression Recognition)分别高出0.84和0.43个百分点。展开更多
文摘人脸特征蕴含诸多信息,在面部属性和情感分析任务中具有重要价值,而面部特征的多样性和复杂性使人脸分析任务变得困难。针对上述难题,从面部细粒度特征角度出发,提出基于上下文通道注意力机制的人脸属性估计和表情识别(FAER)模型。首先,构建基于ConvNext的局部特征编码骨干网络,并运用骨干网络编码局部特征的有效性来充分表征人脸局部特征之间的差异性;其次,提出上下文通道注意力(CC Attention)机制,通过动态自适应调整特征通道上的权重信息,表征深度特征的全局和局部特征,从而弥补骨干网络编码全局特征能力的不足;最后,设计不同分类策略,针对人脸属性估计(FAE)和面部表情识别(FER)任务,分别采用不同损失函数组合,以促使模型学习更多的面部细粒度特征。实验结果表明,所提FAER模型在人脸属性数据集CelebA(CelebFaces Attributes)上取得了91.87%的平均准确率,相较于次优模型SwinFace(Swin transformer for Face)高出0.55个百分点;在面部表情数据集RAF-DB和AffectNet上分别取得了91.75%和66.66%的准确率,相较于次优模型TransFER(Transformers for Facial Expression Recognition)分别高出0.84和0.43个百分点。