知识蒸馏(Knowledge Distillation, KD)是什么? 知识蒸馏(Knowledge Distillation, KD)是一种模型压缩技术,主要用于深度学习领域。 生活百科# KD# 学生模型# 教师模型 7个月前910
学界 | Geoffrey Hinton最新论文:层归一化 归一化选自 arXiv.org作者:Jimmy Lei Ba、Jamie Ryan Kiros、Geoffrey E 生活百科# GeoffreyHinton# 学界# 层归一化 7个月前910
最新「注意力机制Attention」大综述论文,66页pdf569篇文献 摘要:在人类中,注意力是所有感知和认知操作的核心属性。考虑到我们处理竞争性信息来源的能力有限,注意力机制选择 生活百科# 注意力机制# 深度学习# 神经网络 7个月前910
这7个深度学习框架,你必须要知道! 如今,深度学习技术遍地开花,许多行业都在尝试将其应用到产品与服务之中。那么,作为一名AI工程师,哪些深度学习框架是必须要精通的呢?下面就为大家介绍7个重要的深度学习框架。 生活百科# Keras# PyTorch# TensorFlow 7个月前900
【WWW2021】对抗对比变分自编码器的序列推荐 序列推荐作为一个新兴的课题,由于其重要的现实意义而受到越来越多的关注。基于深度学习和注意力机制的模型在序列推 生活百科# 变分自编码器# 对抗训练# 对比损失 7个月前880
层归一化与批量归一化区别 层归一化(LN)和批量归一化(BN)是深度学习中两种常用的归一化技术,虽然都旨在通过标准化数据分布提升模型训练稳定性,但它们的设计思路、适用场景和工作机制有本质区别。 生活百科# 内部协变量偏移# 层归一化# 归一化技术 7个月前860