现在,打造以光代电计算产品的初创公司Lightmatter Inc.又获得了一笔融资,使其估值达到12亿美元。
当地时间11月19日,Lightmatter公司表示,该公司在由GV(谷歌风险投资公司)和维京全球投资公司(Viking Global Investors)牵头的交易中筹集了1.55亿美元。此次融资是5月份C轮融资的延续,当时融资额为1.54亿美元。
迄今为止,这家拥有150名员工的初创公司迄今已融获超过4.2亿美元。
“在快速发展的生成式人工智能领域,对新的计算和芯片通信解决方案的需求是前所未有的。”GV普通合伙人埃里克·诺德兰(Erik Nordlander)说:“Lightmatter正在利用硅光子学的力量来应对这一挑战,打通性能瓶颈,增加带宽,并允许人工智能模型的尺寸和规模不断扩大。”
尼克·哈里斯(Nick Harris)
Lightmatter联合创始人兼首席执行官尼克·哈里斯(Nick Harris)解释说:“Lightmatter的定位是成为下一代计算系统的关键驱动力,这将进一步推动人工智能创新。通过光子技术,Lightmatter正在确保计算性能继续稳步提升,尽管面临着日益严峻的功耗挑战和晶体管扩展进展放缓的问题。”
Lightmatter公司为计算机芯片建立了新颖的相互通信和完成计算的方式。该公司的技术采用硅光子技术和波导技术,其中,波导是一种可以改变光线方向的微小结构。与之相对的,传统芯片使用电线来完成这些工作。
使用光而不是电信号进行计算,这意味着它不会像传统芯片架构那样面临阻力(以及热量)。
在计算中使用光的想法并不新鲜,它可以加快计算进程,同时降低功耗。但长期以来,如何制造出实现这一目标所需的元件一直是个棘手的问题。
该公司提供针对人工智能工作负载的Envise芯片、Passage光子互连以及用于与其硬件协同工作的Idiom软件堆栈。
Passage是晶圆级可编程光子互连,使异构芯片阵列能够进行通信
Envise是一种通用机器学习加速器,结合了光子学和基于晶体管的系统
Idiom与标准深度学习框架和模型交换格式接口,同时提供深度学习模型作者和部署者所需的转换和工具
在赢得投资者青睐的同时,该公司还吸引了一些知名工程师:该公司聘用了谷歌平台基础设施负责人、谷歌定制人工智能芯片系列负责人之一,以及英特尔人工智能数据中心集团工程副总裁。
“未来几年,光子技术将改变生成式人工智能和超级计算,投资者、合作伙伴和客户与Lightmatter的使命不谋而合:即利用光子技术实现计算基础设施的未来。”哈里斯不愿透露个别客户的名字,但表示他们包括一些最大的芯片制造商以及云服务提供商。
Lightmatter将人工智能的最新进展视为一项优势:科技公司在高功率芯片的市场上捉襟见肘,而这些芯片能够满足训练大型语言模型(如支持OpenAI的ChatGPT聊天机器人的模型)等任务所需的计算要求。
公司表示,有了新的资金,它将推动业务增长,以满足人工智能公司对高性能计算日益增长的需求;随着团队规模的扩大,除波士顿办事处外,该公司还计划于2024年在多伦多开设办事处。
长期以来,光子(或光学)计算机一直被认为是信息处理的圣杯,因为它具有高带宽、低功耗的计算潜力。
这些机器的开发需要三十年的技术进步,而Lightmatter目前正在利用这些技术来实现用光进行高能效并行计算的承诺。
20世纪80年代,贝尔实验室的科学家们开始尝试制造光学计算机。这种新型计算机的带宽大大高于电子计算机的数百太赫兹(10^14):高达几千兆赫兹(10^9)。
到20世纪80年代中期,人们对这项技术的期望达到了顶峰。1985年的《纽约时报》曾刊文表示:“到1990年代中期,我们将拥有灵活的可编程计算机。你可能永远不会知道里面有光学器件。你不会看到闪烁的灯光。它看起来会非常沉闷。但它会比其他任何东西都快 电子产品就是跟不上我们的脚步。”
贝尔实验室的光学计算方法依赖于实现电子晶体管的光学版本——一种用于切换(或放大)电信号的设备。
与手机和电脑中的晶体管所使用的电子不同,光束不会直接相互作用。但是,光可以与材料相互作用;通过暂时改变所经过材料的特性,一束光的通过可以被另一束光“感觉”到。
如果将晶体管(中)视为数字(关或开设备),它就是电子版的开关(左);光学晶体管(右图)旨在取代其电子版本
贝尔实验室科学家的预测并未实现。这主要是由于实现“光学晶体管”存在困难。每个光学晶体管都会吸收一些光,使信号在传播过程中越来越弱,从而限制了这种系统所能进行的运算数量。
除此之外,还有一个光学数据存储的问题,这个问题至今仍然极具挑战性。由于20世纪80年代的承诺未能兑现,加上当时的炒作,科学界对光学计算的研究产生了极大的抵触。
就在光晶体管奄奄一息的时候,一种新的光计算方法被发明出来。20世纪90年代中期,由于新的证明表明量子系统可以解决经典计算机难以解决的问题,量子计算领域迅速发展。
当时有许多已知的量子系统实现方法,包括使用光子(单个光粒子)。1994年,迈克尔·雷克(Michael Reck)和合著者希望建立一个光量子处理器,他们描述了一个使用基本光学元件阵列——马赫-曾德尔干涉仪(MZI),来执行重要数学运算(矩阵乘法)的系统。
赫-泽恩德干涉仪的散装光学系统(左)和集成光学系统(右)
当时,光学实验通常使用笨重的光学元件,将其拧入光学台面(即厚重、金属、振动可控的表面,通常称为“面包板”)以获得机械稳定性。
在这种“面包板”(breadboard)平台上,要稳定包含数十个同步跳动光束的光学系统是非常困难的,即使是微小的振动或温度变化也会给系统带来误差。
因此,尽管将小型光路串联起来形成一个更大的光学计算机的想法是革命性的,但实现这一想法的技术尚未跟上理论的步伐。
同一量子传送装置的散装光学(左)和集成光学(右)版本
目前的解决方案是使用带有“集成光子学”元件的计算机芯片,将一米大小的光学元件缩小到几十微米,而且这些元件可以轻松制造和控制。
由于人们对作为当今互联网骨干的光纤网络的相关技术产生了浓厚的兴趣,电信行业一直在积极开发光子芯片。
然而,直到2004年左右,制造具有大量元件的光子集成电路才变得可行。到2012年,光子芯片制造设施开始为硅基光学芯片提供多项目晶圆(MPW)服务。这使得多个学术研究小组能够共享资源,并以更低的成本小批量生产设计产品。
可编程纳米光子处理器的显微照片。该芯片于2013年在新加坡IME A*STAR制造完成
第一批光学计算机就是在这种环境下诞生的,也就是后来的Lightmatter。
2012年,尼古拉斯·哈里斯(Lightmatter公司首席执行官)与合作者利用OpSIS MPW服务实现了“可编程纳米光子处理器”(PNP),这是一种在硅光子学中实现的光学处理器,可对光进行矩阵变换。
实现大规模PNP有两大技术挑战:(1) 紧凑、低损耗和高效的移相器;(2) 多通道控制和读出电路。2012年年底完成了第一块芯片的制作,如上图所示。
作为麻省理工学院德克·恩格伦德(Dirk Englund)教授量子光子实验室的成员,哈里斯在接下来的几年里从头开始设计控制和读出硬件,为软件平台编码,开发PNP校准技术,以及设计和分带出越来越复杂的PNP。
2015年,关于PNP及其在量子信息处理中的应用的首批研究文章被发布到在线预印本服务器arXiv上:一篇文章来自哈里斯和(达柳斯·布南达尔)Darius Bunandar(Lightmatter首席科学家)以及麻省理工学院的合作者,另一篇文章来自雅克·卡罗兰(Jacques Carolan)和英国布里斯托尔大学的合作者。
这些文章最终发表在学术期刊《自然·光子学》和《科学》上。
论文链接:
https://www.nature.com/articles/nphoton.2017.95
https://www.science.org/doi/10.1126/science.aab3642
由于PNP可以实现通用矩阵运算,因此它可以实现广泛的应用,包括经典计算、量子计算、数据路由、安全等。
2017年,哈里斯和麻省理工学院的其他合作者发表了一篇关于深度学习的论文,利用PNP演示了全光神经网络的部分内容(这一概念于1987年在加州理工学院首次报道)。在这项工作中,整个深度神经网络将通过非线性光学元件(光学晶体管的初级版本)被展开成许多拼接在一起的 PNP。
论文链接:
https://www.nature.com/articles/nphoton.2017.93
虽然 2017年文章中的全光学神经网络的实现可能仍然遥不可及,但哈里斯和麻省理工学院量子光子实验室的合作者开发的底层硬件——PNP,已经成为矩阵处理的一个有价值的替代平台。
在光学矩阵处理技术日趋成熟的同时,人工智能处理器领域也发生了大事。2017年,谷歌发布了用于深度学习的矩阵处理器的研究成果。他们将其称为“张量处理单元”。
这一举动令人惊讶,因为众所周知,谷歌是一家软件公司,但其团队却在一年内设计并制造出了一款最先进的芯片,以帮助增强谷歌的软件产品。最先进的人工智能算法(通常是深度神经网络)的核心是矩阵产品序列。因此,为这项任务构建矩阵处理器非常有意义。
谷歌TPU的发布是机器学习芯片大爆炸的一部分,因为投资者、企业和创业者都意识到了构建特定应用芯片以加速人工智能任务的商业机会。这种认识催生了许多科技公司的内部研究工作和新一波硬件初创企业,它们都致力于打造加速人工智能应用的芯片。
与其他可编程光学处理器一样,Lightmatter芯片使用光而不是电子作为处理基础。这不仅规避了与电子晶体管相关的计算速度限制,而且只消耗了一小部分能量。
然而,Lightmatter芯片并非通用处理器。相反,它的硅光子电路仅用于执行矩阵乘法——深度学习应用所使用的关键计算。
Lightmatter采用不同的方法来处理深度神经网络,但与TPU采用的2D MAC阵列有许多相似之处。公司方法基于PNP架构,依靠硅光子工艺制造的二维马赫-曾德尔干涉仪(MZI)阵列。
要实现N乘N的矩阵乘积,Lightmatter的方法需要N2个MZI——与系统MAC阵列使用的计算元件数量相同。在数学上,每个MZI执行2乘2的矩阵-矢量乘积。整个MZI网格将N乘N矩阵与N元素向量相乘。计算发生在光从MZI阵列的输入到输出的过程中,光信号的飞行时间约为100皮秒,小于计算机的一个时钟周期!
由于Lightmatter的系统在光波长下工作,MZI的理论带宽接近200太赫兹(以接近这一速度驱动MZI是一项挑战),而电子具的带宽仅为几千兆赫兹。与最新电子芯片相比,Lightmatter的MZI每次计算所需的能量要少得多。
正是由于光子系统的这些特殊性能,Lightmatter能够实现比电子人工智能加速器更快、更节能的矩阵运算处理器。
现在,随着计算领域越来越深入地应用人工智能解决方案,光学计算带来了独特的可能性。
事实证明,集成光子学(即在微芯片上集成光子器件)正是人工智能系统(AI)、机器学习(ML)和深度学习神经网络计算所需的大规模并行处理的理想之选,它能提供更快的速度和更高的计算效率,而耗电量却远低于电子。
Lightmatter公司开发的Envise光子芯片,专门用于人工智能。哈里斯解释说:“这不是运行操作系统或视频游戏的计算类型,它用于运行神经网络。很多时候,你所做的计算是线性代数,大量的加法和乘法。”
“我们能够利用集成光子元件完成这些加法和乘法运算。作为一种非常广泛的数学工具,线性代数被用于对从火箭发射到金融交易等各种现实世界现象进行建模,它也是深度学习算法的核心。这些算法依赖于一种称为矩阵乘法的线性代数运算,而矩阵乘法非常适合光子学的模拟线性运算。”
“人工智能是我们追逐的第一个市场,因为这是一个非常令人兴奋的市场,它对人类有着巨大的影响。”
然而,光子计算并不是一个完全无限的领域:光子计算存在一些固有的限制。例如,由于Envise等光子芯片执行的计算是模拟而非数字的,因此其精确度可能略低于传统晶体管,而且系统噪声也可能是一个问题。
此外,MZI等光子器件往往体积较大,还不能像传统电子元件那样密集地封装在芯片上。
Lightmatter光子计算机架
尽管设计人员正在努力克服这些障碍,但不可能在短期内让所有计算机都完全采用光子技术。
——这就是为什么今年的两次C轮融资是极大的利好消息:它们是推出商业产品所需资金的一部分。
Lightmatter要想在竞争中脱颖而出,还有很长的路要走,更不用说超越人工智能巨头英伟达了。
哈里斯说:“它不会出现在你的手机中。他预测,光计算将首先成为金融机构、零售企业、军队和自动驾驶汽车制造商使用的高性能人工智能加速器。”
随着人工智能系统不断追求更强大的计算机能力,光子计算技术提供了一种绕过摩尔定律不可避免的技术限制的方法。
尼古拉斯·哈里斯(Nicholas Harris)在Lightmatter网站上开了一个内部玩笑:“(挑战)摩尔定律?没问题”(Moore's law? No problem.)。
参考链接(上下滑动查看更多):
[1]https://www.bloomberg.com/news/articles/2023-12-19/gv-co-leads-funding-round-for-photonic-computing-startup-lightmatter
[2]https://siliconangle.com/2023/12/19/lightmatter-raises-155m-photonic-computing-1-2b-valuation/
[3]https://www.businesswire.com/news/home/20231219681989/en/Lightmatter-Accelerates-Growth-and-Expands-Photonic-Chip-Deployments-With-155M-in-New-Funding-Now-Valued-at-1.2B
[4]https://insidehpc.com/2023/06/photonics-compute-and-interconnect-startup-lightmatter-raises-154m-series-c-funding-targets-hpc-and-ai-workloads/
[5]https://www.datacenterdynamics.com/en/news/photonic-computing-company-lightmatter-raises-154m/
[6]https://spie.org/news/photonics-focus/marapr-2022/harnessing-light-for-photonic-computing?SSO=1
[7]https://www.azooptics.com/Article.aspx?ArticleID=2371
[8]https://medium.com/lightmatter/the-story-behind-lightmatters-tech-e9fa0facca30
[9]https://www.top500.org/news/photonic-computing-company-takes-aim-at-artificial-intelligence/
[10]https://www.wired.com/story/chip-ai-works-using-light-not-electrons/
[11]https://lightmatter.co/products/idiom/
[12]https://www.tomshardware.com/news/lightmatter-photonics-chiplet-bridge