什么是批量归一化(BatchNorm)
一句话总结批量归一化(Batch Normalization,简称BatchNorm)是一种在神经网络训练过程中,将每一层的输入数据进行标准化处理的方法
机器学习篇——理论与实战并行的学习法
人工智能的核心是让计算机具备“学习”的能力,而机器学习正是赋予这种能力的关键技术。对于大学人工智能专业的学生来说,机器学习是必须系统掌握的核心课程——它不仅是深度学习的基础
ICML 2025 | 如何在合成文本数据时避免模型崩溃?
随着生成式人工智能技术的飞速发展,合成数据正日益成为大模型训练的重要组成部分。未来的 GPT 系列语言模型不可避免地将依赖于由人工数据和合成数据混合构成的大规模语料。
损失函数综述
一文带你掌握损失函数。
让量化交易更可量化
近日,中国基金业协会、中国证券业协会分别向部分量化私募基金管理人、券商下发通知,要求其开展量化交易数据信息报送工作,量化私募需在11月15日前完成首期信息报送
为什么匹配logits是模型蒸馏的一个特例?
在温度极高的情况下,蒸馏过程退化成了简单的匹配logits。
学界 | 机器理解中的迁移学习,斯坦福联合微软提出SynNet网络
近日,斯坦福大学、微软联合发表了一篇论文,提出了一种在机器理解(MC)中使用 2-阶段合成网络(SynNet) 进行迁移学习的技术。
把指纹焊死在频率上:抗微调神经网络指纹的硬核方案来了
论文第一作者唐灵,张拳石老师课题组的博二学生。今天要聊的是个硬核技术 —— 如何给神经网络刻上抹不掉的 "身份证"。现在大模型抄袭纠纷不断,这事儿特别应景。
智造出海新机遇,2021跨境智能选品大会宁波站进入倒计时
去年,海外消费市场不断涌现出爆款级智能产品,也为智能家居领域带来不少新商机
OpenAI前首席科学家伊利亚:数据没有增长,预训练将终结
预训练OpenAI前首席科学家、 安全超级智能(Safe Superintelligence,SSI)公司联合创始人伊利亚·苏茨克维(Ilya Sutskever)日前罕见地公开露面