Neural Processing Letters(神经处理学报)
- transfer learning(迁移学习):把已学训练好的模型参数迁移到新的模型来帮助新模型训练,要求两个模型要有相似的地方。比如会自行车可以电动车,但汽车不行,跨度不能太大。
-
文章要求:所有被接受的文章都有望解决或部分解决迁移学习中的一个开放问题,或者激发新的想法,以帮助进一步推进迁移学习。
-
迁移深度学习算法和模型
-
大规模迁移学习算法设计
-
处理缺失值和噪声样本的迁移学习方法
-
迁移学习新理论
-
迁移学习新策略迁移学习及其在医学信息学、计算机视觉、自然语言处理等方面的应用
-
与多视图学习、多任务学习、集成学习的关系
-
新的高质量迁移学习数据集
-
大数据和 covid-19 数据建模的迁移学习
- 交稿时间
- 投稿截止日期:2021年12月31日
- 第一次通知:2022年3月10日
- 第二次通知:2022年6月30日
- 最终决定:2022年7月30日
- 投稿要求
- 至少有30%的新内容
- 迁移学习
- 迁移学习(Transfer learning) 顾名思义就是把已学训练好的模型参数迁移到新的模型来帮助新模型训练。考虑到大部分数据或任务是存在相关性的,所以通过迁移学习我们可以将已经学到的模型参数(也可理解为模型学到的知识)通过某种方式来分享给新模型从而加快并优化模型的学习效率不用像大多数网络那样从零学习。
温馨提示: 遵纪守法, 友善评论!