
毫米波与太赫兹集成电路及芯片有望成为未来无线网络与高分辨率传感技术的核心支撑。然而,这些集成电路与芯片的设计过程极为复杂,不仅需要多年专业经验、精心定制手工设计的电路拓扑结构,还需采用参数化预选电磁结构模板进行协同设计。这些电磁结构(辐射/非辐射型、单端口/多端口)通常需通过特定方法与参数扫描进行优化。这种基于预选规则拓扑结构的自下而上设计方法,也从根本上限制了设计空间的拓展。本文提出一种通用逆向设计方法,可实现具有定制化辐射与散射特性的任意形状复杂多端口电磁结构,并与有源电路协同设计。为实现该通用化目标,我们采用基于深度学习的模型,通过多个复杂毫米波无源结构实例与端到端集成毫米波宽带电路的设计验证了该方法的有效性。所提出的逆向设计方法可在数分钟内生成设计方案,有望开辟前所未有的设计空间,具有革命性意义。

近年来,深度学习在计算机视觉、自然语言处理等领域取得突破性进展,其核心依赖于大规模参数神经网络与高性能电子计算硬件。然而,传统电子芯片在能耗、带宽与时延方面逐渐逼近物理与工程极限,促使学术界和产业界积极探索“计算加速”的新范式。超材料与超表面技术的发展,使得在亚波长尺度上对波前、相位、振幅、偏振与光谱响应进行精细调控成为可能。传统基于全波仿真与人工扫描的设计流程,在高维参数空间、多目标约束和宽带/多偏振等设计需求下,面临计算量巨大、迭代周期长、可制造性难以保证等问题。基于深度学习的逆向设计方法可以在“结构–响应”数据驱动的基础上,快速给出满足目标指标的候选结构,大幅缩短设计周期,并为复杂器件(如波导交叉、波前整形超表面、量子光学集成器件等)的自动化设计提供新思路。
在上述技术背景下,光学神经网络、衍射神经网络、MZI 光网络以及基于深度学习的超表面/硅光器件逆向设计,正在成为光电子领域的研究热点与前沿方向。但从教学与人才培养角度看,传统课程往往将“现代光学”“电磁场与数值计算”“机器学习/深度学习”等内容割裂开来,缺乏系统性的交叉训练,导致学生难以将光学物理、数值仿真与深度学习框架有机结合起来,完成从物理建模 → 数值仿真 → 数据驱动 → 器件设计的完整闭环。
2025三大热门专题
专题一:深度学习光学设计专题
专题二:COMSOL光学超表面专题
专题三:深度学习集成电路仿真与设计专题
专题一:深度学习光学设计专题
学习目标:
1.掌握光网络与深度学习的统一建模视角。使学生系统理解衍射神经网络、MZI 光网络、硅光拓扑优化等典型光学神经网络架构,掌握其与传统深度学习模型(全连接层、卷积层、线性算子)的数学对应关系,形成从“光学系统 = 可学习算子”的统一认知。
2.具备基于 Python / PyTorch 的深度学习实现能力。熟练使用 Python 与 PyTorch 搭建并训练基础神经网络模型(MLP、CNN、简单序列模型),掌握数据准备、损失设计、训练调参与结果可视化的基本流程,为后续光学场景下的网络建模打下编程基础。
3.掌握超材料与超表面的数值仿真与结果分析方法。能够利用 COMSOL 等多物理场仿真软件,对典型光子晶体与超表面单元进行建模与仿真,理解能带结构、透射/反射谱、场分布等物理量的含义,并具备对仿真结果进行数据后处理和物理解释的能力。
4.形成跨平台数据处理与工具协同能力。了解 MATLAB、COMSOL 与 Python 之间的基本数据交互方式,能够使用 Python 对仿真导出数据进行读取、整理和建模,为构建“仿真–深度学习–优化设计”一体化流程提供工具层支撑。
5.具备构建与训练光学神经网络数值模型的能力。能够在数值层面实现衍射神经网络、MZI 光网络等光学网络结构,将光传播、相移阵列等物理过程嵌入深度学习框架,完成简单任务(如分类、矩阵运算拟合)的端到端训练与验证。
6.理解并掌握基于深度学习的光学逆向设计范式。掌握利用深度学习对“结构参数 → 光学响应”进行建模的基本方法,能够基于仿真数据库训练回归/生成模型,结合简单搜索或全局优化策略,实现对超表面元件、波导器件等的快速逆向设计。
7.具备面向前沿应用的综合拓展能力。在完成课程核心内容的基础上,初步具备将所学方法迁移至光学加速计算、快速成像系统、智能传感与量子光学器件设计等前沿研究方向的能力,为后续科研工作和交叉学科探索奠定技术和思维基础。
讲师介绍
深度学习光学设计主讲老师:毕业于国家“985 工程”“211 工程”重点高校。目前在国外光学顶尖高校课题组,擅长深度学习、大模型与几何光学、波动光学、电磁建模与计算光学成像的交叉研究领域。近年来发表SCI论文15篇包括:TCI, TMM, TCSVT, TETCI, ICLR等,授权三项发明专利。研究方向包括:深度学习方法、大语言模型、深度光学设计、几何光学、波动光学、图像处理与计算机视觉、物理驱动的光学成像、跨模态成像研究等。担任TCSVT、TCI、SIVP等多个国际期刊审稿人
专题二:COMSOL超表面设计专题
学习目标:
本课程旨在系统讲解天线、超表面的物理原理、功能实现机制以及利用有限元法(Finite Element Method, FEM)进行建模与仿真设计的完整流程。通过理论讲授与仿真实践相结合的方式,帮助学员掌握从结构建模、物理场设置、网格划分、参数扫描到仿真后处理与优化设计的全过程,并最终能够独立搭建可用于科研发表级别的仿真模型。
1.理解超表面物理机制与仿真需求
掌握超表面的基本工作原理(如相位调控、谐振模式、空间色散),了解其在光场调控中的核心功能。明确仿真过程中对周期性边界、亚波长结构和高精度求解的需求。
2.掌握 COMSOL 中天线设计、超表面建模流程
学习在 COMSOL 中构建超表面单元结构,包括几何建模、材料设定、边界条件(如周期性边界、端口激励)的应用。熟悉频域仿真流程与仿真精度控制手段(如网格收敛与PML设置)。
3.完成典型超表面器件的仿真实践
动手仿真多个超表面功能器件,包括偏振转换器、相位延迟器、扇形透镜、OAM光束生成器等,分析其电磁响应(透射相位、反射率、聚焦效果等)。
4.掌握超表面参数扫描与结构优化技巧
学习利用参数扫描与函数控制,实现超表面结构的多参响应提取。掌握集成 MATLAB 或 COMSOL Application Builder 的优化流程,用于相位库提取与波前合成设计。
5.具备独立设计与仿真超表面器件的能力
能够根据科研或工程需求,独立建立高精度的超表面仿真模型,分析仿真数据并评估器件性能,为后续论文发表或项目设计提供支持。
讲师介绍
Comsol光学超表面专题:主讲老师团队来自全国重点大学、国家“985工程”物理与信息交叉学科专业,有多年的光学仿真和科研经历!研究方向涉及光场调控、拓扑光学等领域,通过设计人工微纳结构,揭示并实现多种新奇拓扑物态;借鉴拓扑物态独特性质,开发新型功能化光电器件。同时参与国家重点研发计划和国自然重点项目,发表包括Physical Review Letters , Nature Communications,Advance Science,ACS photonics等期刊在内的10余篇高水平论文!
专题三:深度学习集成电路仿真与设计专题
学习目标:
通过系统的讲授与动手实践,学员将全面掌握从AI算法理论到硬件实现的完整设计流程,具体包括:
1.理解数字电路与AI模型的融合逻辑:掌握组合逻辑、时序逻辑及状态机设计方法,理解神经网络算法在硬件层的结构映射原理。
2.掌握VHDL与Verilog设计语言建模流程:学习如何在Verilog中构建复杂逻辑电路(如译码器、计数器、复用器),在VHDL中实现行为级与结构级描述。
3.完成AI算法建模与仿真实践:掌握深度学习中感知器、卷积网络、反向传播算法的实现思路,结合MATLAB/COMSOL实现模型验证。
4.掌握电路综合与优化方法:学习参数化设计、时钟分频、电平与脉冲转换等技巧,掌握Spyglass等工具的RTL规范优化流程。
5.具备独立设计与AI硬件建模能力:能够将AI算法转化为可综合的数字逻辑系统,完成从仿真验证到硬件部署的闭环开发。
讲师介绍
深度学习集成电路仿真与设计主讲老师:主讲老师团队来自国内知名大学、国家“985工程”。主讲老师——国内知名大学副教授,某省电子学会理事,研究方向涵盖高性能数字/混合信号IC设计、FPGA-SoC协同仿真、微能量收集与抗核加固技术。主持和参与国家级科研项目20余项,发表论文60余篇,授权专利百余项,出版著作5部。具有十余年教学与科研经验,主讲Verilog/VHDL、人工智能、半导体工艺等课程,深受学生好评!
专题大纲
专题一:深度学习光学设计专题
第一天
第一章导论
第一节深度学习与光网络技术综述
介绍衍射神经网络(D2NN)的基本思想及其将空间传播、相位调制等视为可学习线性层的建模方法;概述片上集成光学神经网络及其实现矢量矩阵乘法的基本原理;简要讨论光–电混合架构在计算加速中的优势。
第二节深度学习与超表面逆向设计概述
阐述参数→响应的前向建模与结构→响应→目标函数的逆向设计流程,区分监管回归、生成式模型、拓扑优化等典型方法,并给出若干代表性应用场景。
第三节关键挑战与发展趋势
讨论高维结构参数空间、多目标/多约束优化、数据稀缺与仿真成本、可制造性与鲁棒性等问题,展望物理先验驱动的深度学习、可重构光网络、智能光学芯片等未来方向。
第四节二维相位掩模与衍射场数值计算(Python实操)
使用 Python + Numpy 构建简单二维相位掩模(如随机相位、抛物相位等)。
通过频域角谱近似或离散傅里叶变换(DFT)计算其远场强度分布,并用Matplotlib可视化。
对比“随机相位”和“透镜型相位”对应的光斑分布,直观理解“相位图案 = 线性算子 = 神经网络层”的映射关系


第二章软件基础知识(实操)
第一节科学计算环境与 PyTorch 框架
讲解 Anaconda 环境、虚拟环境的基本概念;说明 Numpy、Matplotlib、Pandas 在科研中的常见用途;介绍 PyTorch(CPU/GPU)安装方案与版本选择要点。
第二节Python 科学计算基础
讲解 ndarray 数组与矩阵运算、广播机制;展示如何读取 CSV/NPY 数据并进行基本统计处理与二维/三维图像可视化。
第三节PyTorch 基础与自动微分
说明张量与计算图的概念;演示简单前向–反向传播过程,检查梯度是否符合解析结果;解释自动微分在后续光学网络和拓扑优化中的作用。
第四节线性回归与梯度验证实践(Python + PyTorch)
使用 Numpy 实现一个 2×2 线性变换,对一批二维点进行映射,并用散点图展示变换前后分布。
使用 PyTorch 实现单层线性回归模型,对简单函数 y = 2x + 1 + 噪声进行拟合,绘制损失曲线和拟合曲线,感受自动微分与优化器的作用。

第三章深度学习模型(python实操)
第一节机器学习基本组件
介绍损失函数(MSE、交叉熵)、常见优化器(SGD、Adam),说明训练集/验证集/测试集划分及过拟合现象。
第二节线性模型与多层感知机(MLP)
回顾线性回归与 Softmax 回归的数学形式;推导并实现 2–3 层 MLP 结构,说明 ReLU 等非线性激活的意义;引入权重衰减和 Dropout 等正则化手段。
第三节卷积神经网络(CNN)
从参数量与感受野角度对比全连接层和卷积层;介绍经典 LeNet 结构,说明卷积、池化层对图像特征抽取的作用。
第四节MLP与简化版LeNet的训练实验 (python + pytorch)
使用 PyTorch 搭建一个 2 层 MLP,对二维人造数据(例如两个高斯簇)进行分类,观察决策边界并绘制训练过程。
搭建简化版 LeNet 网络,对 MNIST 或其子集进行训练,绘制训练与验证精度曲线,并分析过拟合/欠拟合情况。


第二天
第四章基于马赫-增德尔干涉仪的光计算
第一节光计算及光神经网络的简介
1.1光计算的背景介绍
1.2光神经网络的发展与分类
1.3光神经网络的研究现状
第二节基于MZI的光神经网络原理
2.1全连接神经网络原理讲解
2.2MZI级联的相干光矩阵计算原理
2.3N阶酉矩阵分解
2.4基于MZI拓扑级联的酉矩阵通用架构
第三节训练数据集的获取与处理(Python 实操)
3.1Python程序环境安装
3.2Pycharm主要功能介绍
3.3数据集的获取方法
3.4训练数据集的前期处理
第四节酉矩阵通用架构的搭建(Python 实操)
4.1 二阶酉矩阵的搭建
4.2 clement架构的搭建
第五节光神经网络的模型运行(Python 实操)

第三天
第五章超材料与光子晶体(COMSOL实操)
第一节超材料与光子晶体概述
介绍有效介质理论、负折射、人工微结构等概念;用能带图的形式解释光子晶体带隙与局域模态的物理含义。
第二节光子晶体能带计算(COMSOL实操)
演示一维光子晶体模型,并通过简单参数改变观察带隙位置移动;以二维正方晶格光子晶体板为例,计算 TE/TM 模式下的能带结构,说明边界条件与布里渊区路径的设定。
第三节超表面在光场调控中的作用
将超表面功能划分为相位调控、振幅调控、偏振调控和频率调控;介绍通过构建“相位库”来进行宏观波前设计的基本思路。
第四节超表面仿真实例(COMSOL实操)
以频率选择表面(FSS)单元为例,通过改变几何参数观察透射谱变化;以简单超表面光束偏折器为例,展示线性相位梯度如何实现固定偏折角的波前控制。
本章实操:参数扫描与数据导出
提供预配置好的 COMSOL 工程文件:
学员修改一维光子晶体层厚或折射率,重新计算能带并观察禁带变化。
在预设超表面单元模型中修改关键几何参数,计算反射/透射相位与幅度,并将结果导出为数据文件(后续在 Python 中处理)。


第四天
第六章全光衍射神经网络
第一节标量衍射理论基础
1.1 惠更斯-菲涅耳原理
1.2 瑞利-索莫菲衍射公式
1.3 衍射角谱理论
1.4 离散傅里叶变换
第二节光学衍射神经网络(Python 实操)
2.1 人工神经网络结构
2.2 光学衍射神经网络结构
2.3 自由空间光学衍射神经网络
2.4 硅基集成衍射神经网络(Comsol 仿真)

第七章硅光子学平台上矢量矩阵乘法的反向设计(COMSOL实操)
第一节基于密度的拓扑优化
1.1前向传播场
1.2伴随场
1.3折射率插值
第二节有效折射率仿真
第三节向量乘法

第五天
第八章基于深度学习的超表面反设计(COMSOL + python实操)
第一节基于全连接实现全介质超表面的设计
1.1 超表面元的模拟
1.2 超表面元的参数提取
1.3 训练数据集的搭建
1.4 预测模型的训练
第二节长短期记忆神经网络预测纳米鳍超表面极化灵敏度
2.1 长短期记忆神经网络搭建
2.2 超表面仿真
2.3 数据库建立
2.4模型训练
第三节基于深度学习的混合全局优化设计超低损耗波导交叉
3.1 直接二分查找算法建立数据集
3.2 基于物理的生成对抗神经网络
3.3 模型训练与预测

专题二:COMSOL光学超表面专题
第一天:周期性结构与波导系统
第一章:周期性结构能带仿真
1.基础理论
1.1能带理论(Floquet-Bloch定理)
1.2BIC物理机制(对称性保护 vs. 参数调控)
2.核心案例
2.1案例1.1:一维光子晶体
2.2案例1.2:二维光子晶体板
2.3案例1.3:光学中的连续谱束缚态(BIC) ----(根据发表在Phys Rev Lett上的论文)
2.4案例1.4:魔角Moiré光子晶体----(根据发表在Nature nanotechnology上的论文)
2.5案例1.5:频率选择表面(互补开口谐振环透射谱)
2.6案例1.6:超表面光束偏折器

第二章:波导模型仿真
1.关键技术
1.1二维等效三维方法(模式匹配原理)
2.核心案例
2.1案例2.1:矩形波导模态分析
2.2案例2.2:波导耦合器
2.3案例2.3:光纤波导
2.4案例2.4:环形谐振腔
第二天:非线性场与天线系统
第三章:非线性场仿真
1.耦合机制
1.1非线性极化率设置(χ⁽²⁾张量定义)
2.核心案例
2.1案例3.1:频域二次谐波产生
第四章:天线设计
1.天线关键技术
1.1传输线理论
2.核心案例
2.1案例4.1: 同轴电缆微带线模型
2.2案例4.2: 平行导线微带线模型
2.3案例4.3: 同轴电缆与电路耦合
2.4案例4.3: 接地共面波导上的SMA连接器
2.5案例4.4: Wilkinsong功分器
2.6案例4.5: Wilkinsong功分器传输线模块
2.7案例4.6:微带贴片天线(谐振频率调整)
2.8案例4.7:相控阵天线(波束扫描相位控制)
2.9案例4.8:抛物面天线(远场方向图计算)

第三天:拓扑超表面与常用理论
第五章:拓扑超表面
1. 拓扑光学研究介绍
2. 光学拓扑边界态
3. 光学拓扑边界态的频域仿真
4. comsol时域仿真
5. comsol数学模块使用
6. 光学拓扑边界态的时域仿真
第六章:超表面体系中的常用理论
1. 有效哈密顿量法
2. 时域耦合模理论
3. BIC的多极解释
第四天:时域超表面与局域化效应
第七章:时域超表面
1. 时变材料背景介绍
2. 时间界面与时间包层的comsol仿真
3. 时间光子晶体
4. 时域超表面理论
5. 时域超表面
第八章:安德森局域化
1. 安德森局域化背景介绍
2. comsol with matlab教学
3. 安德森局域化的comsol仿真
第九章:石墨烯超表面
1. 石墨烯光学性质介绍
2. 石墨烯纳米带全反射仿真
第五天:优化设计实战
第十章:形状优化
1.参数化扫描策略
1.1几何变量约束条件设置
2.核心案例
2.1案例10.1:用于多路分解的光子晶体的优化
2.2案例10.2:用于信号滤波的光子晶体的优化
2.3案例10.3:多波长超表面----(根据发表在OPTICS EXPRESS上的论文)
2.4案例10.4:超表面波长解复用----(根据发表在OPTICS EXPRESS上的论文)

第十一章:拓扑优化
1.反设计流程
灵敏度分析 + 梯度优化算法
2.核心案例
2.1案例11.1:超透镜设计
2.2案例11.2:多层超表面优化----(根据发表在PHYSICAL REVIEW APPLIED上的论文)
2.3案例11.3:宽带消色差透镜的优化(根据发表在OPTICS EXPRESS上的论文)
2.4案例11.4:模式转换器----(根据发表在ACS Photonics上的论文)1.基础理论

专题三:深度学习集成电路仿真与设计专题
第一日:数字逻辑基础与硬件建模理论
课程概述:第一天将系统介绍数字电路的逻辑结构、组合与时序逻辑原理、Verilog/VHDL语言的基本语法与建模思路。结合仿真软件 Modelsim / COMSOL,完成数字逻辑模块(译码器、计数器、复用器等)的行为级建模与仿真验证。同时引入AI建模基础思想,从逻辑电路向神经网络的结构映射过渡,帮助学员建立“电路结构 + 智能算法”融合的认知,为后续AI建模实战奠定基础。
1.1 数字逻辑与电路结构
1.1.1 逻辑门与布尔代数原理【理论】

1.1.2 组合逻辑与时序逻辑区别与应用【理论】
1.1.3 常见电路结构:译码器、复用器、加法器、寄存器【理论】
1.1.4 逻辑电路层级化设计与结构优化【理论】
1.2 Verilog建模基础
1.2.1 Verilog语言结构与模块化设计【理论】
1.2.2 Verilog组合逻辑描述与assign语句应用【理论】
1.2.3 时序逻辑建模与always块使用规则【理论】
1.2.4 案例实践1:4-16译码器设计与仿真验证【实操】

1.2.5 案例实践2:带同步清零端的模10计数器设计【实操】

1.3 VHDL基础与结构描述
1.3.1 VHDL程序结构与数据类型介绍【理论】
1.3.2 实体(Entity)、结构体(Architecture)与进程(Process)【理论】
1.3.3 案例实践3:十进制计数器的VHDL实现与波形分析【实操】
1.3.4 案例实践4:4位移位寄存器的行为级建模与测试【实操】

1.4 电路仿真与结果分析
1.4.1 RTL视图分析与逻辑波形验证
1.4.2 COMSOL信号时域与频域分析结合示例
第二日:硬件描述语言高级应用与AI逻辑建模
课程概述:第二天深入介绍Verilog与VHDL高级特性,包括参数化设计、状态机建模、三态总线、模块实例化及多时钟域设计。同时结合AI算法的逻辑建模思想,通过结构类比理解神经网络的层级关系,使用Python和TensorFlow初步建立数字逻辑与神经网络之间的映射关系。
2.1 参数化与模块化设计
2.1.1 parameter参数与可配置设计方法【理论】
2.1.2 generate语句与模块复用【理论】
2.1.3 案例实践5:可配置多路时钟分频器设计与验证【实操】

2.2 状态机设计与控制逻辑
2.2.1 FSM三种描述方式(Moore/Mealy/混合型)【理论】
2.2.2 案例实践6:异步复位序列检测器设计【实操】
2.2.3 案例实践7:同步清零模10计数器状态图分析【实操】
2.3 AI逻辑建模初步
2.3.1 神经元与逻辑门的功能对应关系【理论】
2.3.2 感知器模型(Perceptron)与门电路类比【理论】
2.3.3 案例实践8:使用Python模拟逻辑感知器实现“与/或/非”运算【实操】
第三日:AI算法建模与硬件协同实现
课程概述:第三天系统介绍AI算法(MLP、CNN)的基本结构与数学原理,讲解如何将模型映射至硬件层。重点包括神经网络的数据流结构、反向传播机制及参数存储逻辑。通过案例掌握从算法代码到硬件架构的对应转换。
3.1 深度学习原理
3.1.1 感知器与线性单元原理【理论】
3.1.2 梯度下降与反向传播机制【理论】
3.1.3 案例实践9:手写数字识别(MNIST)模型训练【实操】
3.2 网络结构与逻辑映射
3.2.1 全连接层的加权求和逻辑【理论】
3.2.2 卷积层的局部连接与权值共享【理论】

3.2.3 案例实践10:CNN模型卷积核硬件实现仿真【实操】
3.3 模型综合与硬件实现
3.3.1 数据流硬件化设计原则【理论】
3.3.2 模型存储与参数量化策略【理论】
3.3.3 案例实践11:模型导出与 FPGA 实现【实操】

第四日:AI模型与电路协同优化设计
课程概述:第四天围绕AI模型在电路端的高效实现展开,介绍权值稀疏化、低功耗优化与时钟同步设计方法。通过Verilog与Python联合仿真实现硬件中AI模型的性能调优,理解算力分配与带宽优化机制。
4.1 模型压缩与加速
4.1.1 权值剪枝与参数共享【理论】
4.1.2 低比特量化与硬件友好型激活函数【理论】
4.1.3 案例实践12:低精度神经网络的FPGA部署【实操】

4.2 电路系统优化
4.2.1 时钟域划分与同步策略【理论】
4.2.2 存储访问优化与流水线调度【理论】
4.2.3 案例实践13:基于流水线结构的AI推理加速器设计【实操】

第五日:综合项目与前沿应用
课程概述:第五天将通过完整项目整合前四天知识,完成“AI逻辑推理系统”综合设计与仿真验证。学员将独立完成从模型设计、逻辑实现、波形分析到硬件映射的全流程。课程最后展望AI芯片设计前沿与AI硬件协同计算趋势。
5.1 综合项目实战
5.1.1 项目任务说明与系统框架设计【理论+实操】
5.1.2 案例实践14:AI逻辑推理电路系统建模与仿真【实操】
5.1.3 案例实践15:综合系统验证与结果分析【实操】

5.2 前沿研究与应用展望
5.2.1 AI芯片与边缘计算趋势分析【理论】
5.2.2 模型压缩与算力协同优化未来方向【理论】