首页| 论坛| 搜索| 消息
主题:光学处理器学会自我进化,加州大学让光子芯片抛弃数字孪生
爱我中华发表于 2026-01-06 18:41

光计算的游戏规则正在被改写。加州大学洛杉矶分校的研究人员不再试图在计算机里完美模拟光的行为,而是让光学设备像生物一样从真实世界的经验中学习。这套发表在《光:科学与应用》期刊上的新框架,用强化学习直接在硬件上训练衍射光网络,绕开了困扰光计算领域多年的模型误差难题。
传统的光学处理器开发流程像是在纸上造火箭。工程师们先在电脑里建立物理模型,用深度学习算法设计衍射元件的相位分布,然后制造出来测试。问题是,真实世界从来不按理想模型运行。光学元件的制造偏差、环境噪声、器件老化,这些因素都会让精心调优的设计在实验室里大打折扣。
加州大学洛杉矶分校电气与计算机工程系主任教授艾多根·奥兹坎带领团队提出的解决方案简单粗暴:既然模拟不准,干脆不模拟。他们采用近端策略优化算法,这是强化学习领域以稳定性著称的技术,让光学处理器直接从实测数据中摸索规律。
从虚拟仿真到现实摸索

近端策略优化的精妙之处在于它的保守主义。这个算法不会像传统策略梯度方法那样激进地改变参数,而是小步快跑,每次更新都限制在一个安全范围内。它还有个聪明的设计:同一批实验数据可以反复使用多次,大幅降低了对实验样本的需求。
这个特性对光学实验至关重要。每次测量都意味着调整空间光调制器、采集相机数据、处理图像,整个流程耗时且容易引入噪声。如果像传统方法那样需要成千上万次测量才能收敛,训练过程将变得不切实际。近端策略优化把样本需求压缩到可控范围,让现场训练成为可能。

用于光处理器无模型原位训练的近端策略优化(PPO)。图片来源:加州大学洛杉矶分校工程技术促进研究所
研究团队用一系列实验验证了这套方法的威力。第一个测试场景是让光束穿过一个完全随机的漫射介质后聚焦到特定位置。这个任务的难点在于,漫射器的光学特性太复杂,根本无法建立准确模型。近端策略优化算法没有被难住,它通过不断尝试不同的输入光场配置,观察输出结果,逐渐学会了如何操控光的相位分布来抵消漫射效应。实验结果显示,这个方法比标准策略梯度优化快得多,证明了在光学参数空间中的高效探索能力。
全息图生成和像差校正的实验同样令人印象深刻。当光学系统存在未知的像差时,近端策略优化能够自动找到补偿方案,无需事先测量波前畸变。这种自适应能力在天文望远镜、显微成像等领域有巨大应用潜力。
手写数字识别的硬件训练

最引人注目的演示是手写数字分类任务。研究人员把MNIST数据集的图像输入到衍射光学处理器,然后用相机捕捉输出光场的强度分布。在训练初期,不同数字对应的输出模式混乱不堪,难以区分。但随着近端策略优化算法逐步调整衍射层的相位分布,每个数字类别的输出光斑变得越来越清晰,最终形成了可以直接读取的分类结果。
整个过程没有用到任何数字后处理,所有计算都由光的传播和干涉完成。这证明了复杂的机器学习任务可以完全在物理硬件上训练,不依赖数字孪生模型。更重要的是,这种训练方式天然适应了硬件的实际特性,包括所有制造缺陷和环境干扰。
奥兹坎对这项技术的前景充满信心:"我们并没有试图完美地模拟复杂的光学行为,而是让设备从经验或实验中学习。这种方法可以扩展到光子加速器、纳米光子处理器、自适应成像系统和实时光学AI硬件。"
超越光学的普适框架

这套方法的价值不仅限于光学领域。任何可以提供实时反馈并允许参数调整的物理系统,都可以采用类似的无模型训练策略。声学超材料、电磁超表面、量子处理器,这些系统同样面临模型不准确的困扰,强化学习提供了一条绕开这个障碍的新路径。
当然,这项技术也不是没有局限。近端策略优化需要与物理系统频繁交互,对于响应缓慢或无法快速重构的硬件来说,训练时间可能过长。此外,强化学习的收敛性依赖于奖励函数的设计,如何为复杂的光学任务定义合适的奖励信号,仍然需要人类专家的经验和直觉。
但这个方向的潜力是显而易见的。当摩尔定律接近物理极限,电子芯片的功耗和速度遇到瓶颈时,光计算被寄予厚望。衍射光网络可以用光速进行大规模并行运算,能效比传统芯片高出数个数量级。如果这些光学处理器能够像生物神经网络一样自主学习和适应,那么我们可能正在见证计算技术的又一次革命。
加州大学洛杉矶分校的这项研究,本质上是在探索一种让物理系统变得智能的新范式。不是把物理世界装进计算机模型,而是让物理世界自己学会计算。当光子开始思考如何更好地干涉和衍射时,我们距离真正的光学大脑又近了一步。
回帖(6):
6 # hanxiao129
01-07 22:44
楼主分享非常不错的
5 # hanxiao129
01-07 22:43
了解一下内幕
4 # hanxiao129
01-07 22:40
不错的导读,谢谢楼主分享
3 # huwg
01-07 14:47
谢谢分享
2 # huwg
01-07 14:47
了解一下
1 # huwg
01-07 14:47
来看看了

全部回帖(6)»
最新回帖
收藏本帖
发新帖