谷歌最新开源软件库, 5 行代码构建无限宽度网络集成模型
2020/4/16 5:02:26
本文主要是介绍谷歌最新开源软件库, 5 行代码构建无限宽度网络集成模型,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
技术编辑:王治治丨发自 思否疗养院
SegmentFault 思否报道丨公众号:SegmentFault
近日,谷歌开源了一个用 JAX 编写的软件库 Neural Tangents,这是一个用于高性能机器学习研究的系统,只在帮助同时构建宽度可变的 AI 模型。
最厉害的是,它让数据科学家们只需使用五行代码就可以一次性构建和训练无限宽网络的集成模型。谷歌表示,这可以让人们对模型的行为有“前所未有的 洞察力,并帮助打开机器学习的黑匣子”。
正如谷歌高级研究科学家 Samuel S. Schoenholz 和研究工程师 Roman Novak 在一篇文章中所解释的那样,使人工智能研究取得进展的关键洞察力之一是,增加模型的宽度会导致更多的行为规律性,并使其更容易理解。
通过重复实验,所有的神经网络模型都包含以相互连接的层级排列的神经元(数学函数),它们从输入数据中传输信号,并缓慢调整每个连接的突触强度(权重)。这就是它们如何提取特征并学习进行预测的方式。
而允许无限宽的机器学习模型倾向于收敛到另一类更简单的模型,称为高斯过程。
在这个极限中,复杂的现象归结为简单的线性代数方程,可以作为研究人工智能的透镜。但是,推导出无限宽极限的有限模型需要数学专业知识,必须针对每个架构分别求出。而且,一旦推导出无限宽模型后,要想出一个高效、可扩展的实现,需要工程上的熟练程度,可能需要几个月的时间。
此次谷歌开源的软件库 Neural Tangents,则可以大幅降低操作难度和时间,让数据科学家们只需使用 5 行代码就可以一次性的构建和训练无限宽度网络的集成模型。并且根据谷歌工作人员表示,所构建的模型基本可以应用于任何的常模模型问题。
"我们看到,模仿有限神经网络、无限宽网络的性能遵循类似的层次结构,全连接网络的性能比卷积网络差,而卷积网络的性能又比宽残差网络差,"研究人员写道。"然而,与常规训练不同的是,这些模型的学习动态是完全可牵引的闭合形式,这使得人们可以对其行为有新的洞察力。"
GitHub 地址:
https://github.com/google/neu...
Google Colaboratory 笔记:
https://colab.research.google...
这篇关于谷歌最新开源软件库, 5 行代码构建无限宽度网络集成模型的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-12-22程序员出海做 AI 工具:如何用 similarweb 找到最佳流量渠道?
- 2024-12-20自建AI入门:生成模型介绍——GAN和VAE浅析
- 2024-12-20游戏引擎的进化史——从手工编码到超真实画面和人工智能
- 2024-12-20利用大型语言模型构建文本中的知识图谱:从文本到结构化数据的转换指南
- 2024-12-20揭秘百年人工智能:从深度学习到可解释AI
- 2024-12-20复杂RAG(检索增强生成)的入门介绍
- 2024-12-20基于大型语言模型的积木堆叠任务研究
- 2024-12-20从原型到生产:提升大型语言模型准确性的实战经验
- 2024-12-20啥是大模型1
- 2024-12-20英特尔的 Lunar Lake 计划:一场未竟的承诺