本报讯(记者 易蓉)从一句话生成一张图,到几秒钟生成一段视频,生成式人工智能正在走向更复杂的真实世界应用。模型越大、分辨率越高、生成内容越丰富,对算力与能耗的需求就越惊人,后摩尔定律时代,面向未来的研究焦点转向光电计算等“下一代算力芯片”。近日,上海交通大学集成电路学院陈一彤课题组在新一代算力光芯片方向取得重大突破,首次实现了支持大规模语义视觉生成模型的全光计算芯片LightGen。相关研究在国际顶级学术期刊《科学》发表。
单片上百万级光学神经元集成、全光维度转换,不依赖真值的光学生成模型训练算法,LightGen在单枚芯片上同时突破了三项关键瓶颈,使得面向大规模生成任务的全光端到端实现成为可能。输入图像进入芯片后,系统能够提取与表征语义信息,并在语义操控下生成全新的媒体数据,实现让光“理解”和“认知”语义,“输入—理解—语义操控—生成”闭环不用电辅助。论文实验验证,LightGen可完成高分辨率(≥512×512)图像语义生成、3D生成(NeRF)、高清视频生成及语义调控,同时支持去噪、局部与全局特征迁移等多项大规模生成式任务。
在性能评估上,实测表明,即便采用较滞后性能的输入设备,LightGen仍可取得相比顶尖数字芯片2个数量级的算力和能效提升;而如果采用前沿设备使得信号输入频率不是瓶颈的情况下,LightGen理论可实现算力提升7个数量级、能效提升8个数量级的性能跃升。
论文同步被《科学》杂志官方选为高光论文重点报道。文中提到,生成式AI正加速融入生产生活,要让“下一代算力芯片”在现代人工智能社会中真正实用,势在必行的是研发能够直接执行真实世界所需前沿任务的芯片——尤其是大规模生成模型这类端到端时延与能耗极高的任务。面向这一目标,LightGen为新一代算力芯片真正助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向。
上一篇:普陀 房票来了
下一篇:梁某滢不具有自首情节