清华“太极-Ⅱ”光芯片面世:成果登 Nature,首创全前向智能光计算训练架构
【蜂耘网 激光光学】8 月 8 日消息,据清华大学官方消息,清华大学电子工程系方璐教授课题组、自动化系戴琼海院士课题组另辟蹊径,首创了全前向智能光计算训练架构,研制了“太极-II”光训练芯片,实现了光计算系统大规模神经网络的高效精准训练。
该研究成果以“光神经网络全前向训练”为题,于北京时间 8 月 7 日晚在线发表于《自然》期刊。
查询获悉,清华大学电子系为论文第一单位,方璐教授、戴琼海教授为论文的通讯作者,清华大学电子系博士生薛智威、博士后周天贶为共同一作,电子系博士生徐智昊、之江实验室虞绍良博士参与了该项工作。该课题受到国家科技部、国家自然科学基金委、北京信息科学与技术国家研究中心、清华大学-之江实验室联合研究中心的支持。
Nature 审稿人在审稿评述中指出“本文中提出的想法非常新颖,此类光学神经网络(ONN)的训练过程是前所未有的。所提出的方法不仅有效,而且容易实现。因此,它有望成为训练光学神经网络和其他光学计算系统的广泛采用的工具。”
据清华大学官方介绍,近年间,具有高算力低功耗特性的智能光计算逐步登上了算力发展的舞台。通用智能光计算芯片“太极”首次将光计算从原理验证推向了大规模实验应用,拥有 160TOPS / W 的系统级能效,但现有的光神经网络训练严重依赖 GPU 进行离线建模并且要求物理系统精准对齐。
据论文第一作者、电子系博士生薛智威介绍,在太极-II 架构下,梯度下降中的反向传播化为了光学系统的前向传播,光学神经网络的训练利用数据-误差两次前向传播即可实现。两次前向传播具备天然的对齐特性,保障了物理梯度的精确计算。由于不需要进行反向传播,太极-II 架构不再依赖电计算进行离线的建模与训练,大规模神经网络的精准高效光训练终于得以实现。
论文研究表明,太极-II 能够对多种不同光学系统进行训练,并在各种任务下均表现出了卓越的性能:
大规模学习领域:突破了计算精度与效率的矛盾,将数百万参数的光网络训练速度提升了 1 个数量级,代表性智能分类任务的准确率提升 40%。
复杂场景智能成像:弱光环境下(每像素光强度仅为亚光子)实现了能量效率为 5.40×10^6 TOPS / W 的全光处理,系统级能效提升 6 个数量级。在非视域场景下实现了千赫兹帧率的智能成像,效率提升 2 个数量级。
拓扑光子学领域:在不依赖任何模型先验下可自动搜索非厄米奇异点,为高效精准解析复杂拓扑系统提供了新思路。
附论文链接: https://www.nature.com/articles/s41586-024-07687-4
(蜂耘激光光学网 责任编辑:行云)
8 月 8 日消息,据清华大学官方消息,清华大学电子工程系方璐教授课题组、自动化系戴琼海院士课题组另辟蹊径,首创了全前向智能光计算训练架构,研制了“太极-II”光训练芯片,实现了光计算系统大规模神经网络的高效精准训练。
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2022-08-25
- 2022-10-13
- 2022-10-24
- 2022-10-18
- 2022-09-30
- 2023-03-29
- 2022-10-25
- 2022-11-17
-
一文了解查理·芒格:为什么他是巴菲特最推崇的人
来源:
①巴菲特写道,“如果没有查理的灵感、智慧和参与,伯克希尔-哈撒韦公司不可能发展到今天的地位”;
②芒格曾表示,“如果世上未曾有过查理·芒格这个人,巴菲特的业绩依然会像现在这么漂亮 ”
③两周前,芒格还公开在节目中维护93岁的老友巴菲特。넶148 2023-11-29 -
面壁者,拉里·佩奇
来源:中欧商业评论
这两年,硅谷钢铁侠埃隆·马斯克在社交媒体上口无遮拦,这为他的公司引来了铺天盖地的负面新闻,然而,他的好友、谷歌联合创始人拉里·佩奇却因为看不到人同样被媒体炮轰多时。他已经在公共视野中消失太久了。넶262 2022-06-15 -
百岁中科院院士文圣常逝世!被誉为我国海浪研究的“点灯人”
来源:南方都市报
3月21日上午,中国海洋大学发布讣告,中国科学院院士、著名物理海洋学家、该校教授文圣常,因病医治无效,于3月20日15时37分在山东青岛逝世,享年101岁。넶301 2022-03-21
-
-
-
南京人工智能大会即将召开!汇聚业界智慧 共探AI无限可能
来源:蜂耘网
南京人工智能大会计划于6月27日在南京举行,大会以“产业变革,抓住机遇”为主题,共同探讨人工智能产业的最新技术、新的应用场景以及未来的发展趋势等问题。넶133 2024-06-18
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21
- 2024-11-21