知识蒸馏(Knowledge Distillation, KD)是什么? 知识蒸馏(Knowledge Distillation, KD)是一种模型压缩技术,主要用于深度学习领域。 生活百科# KD# 学生模型# 教师模型 7个月前940
科研成果快报第181期:改进的长短期记忆网络用于长江上游干支流径流预测 长短期记忆网络An improved Long Short- 生活百科# 异方差高斯过程# 改进的长短期记忆网络# 水文模型 7个月前810
什么是批量归一化(BatchNorm) 一句话总结批量归一化(Batch Normalization,简称BatchNorm)是一种在神经网络训练过程中,将每一层的输入数据进行标准化处理的方法 生活百科# BatchNorm# 标准化# 正则化 7个月前810
机器学习篇——理论与实战并行的学习法 人工智能的核心是让计算机具备“学习”的能力,而机器学习正是赋予这种能力的关键技术。对于大学人工智能专业的学生来说,机器学习是必须系统掌握的核心课程——它不仅是深度学习的基础 生活百科# 人工智能# 学习路线# 工程应用 7个月前870
ICML 2025 | 如何在合成文本数据时避免模型崩溃? 随着生成式人工智能技术的飞速发展,合成数据正日益成为大模型训练的重要组成部分。未来的 GPT 系列语言模型不可避免地将依赖于由人工数据和合成数据混合构成的大规模语料。 生活百科# ICML2025# Token-LevelEditing# 合成数据 7个月前850
让量化交易更可量化 近日,中国基金业协会、中国证券业协会分别向部分量化私募基金管理人、券商下发通知,要求其开展量化交易数据信息报送工作,量化私募需在11月15日前完成首期信息报送 生活百科# 市场流动性# 数据报送# 监管 7个月前860
学界 | 机器理解中的迁移学习,斯坦福联合微软提出SynNet网络 近日,斯坦福大学、微软联合发表了一篇论文,提出了一种在机器理解(MC)中使用 2-阶段合成网络(SynNet) 进行迁移学习的技术。 生活百科# SynNet网络# 微软# 斯坦福 7个月前880
把指纹焊死在频率上:抗微调神经网络指纹的硬核方案来了 论文第一作者唐灵,张拳石老师课题组的博二学生。今天要聊的是个硬核技术 —— 如何给神经网络刻上抹不掉的 "身份证"。现在大模型抄袭纠纷不断,这事儿特别应景。 生活百科# 抗微调# 指纹技术# 模型溯源 7个月前800