CN112949197A - 一种基于深度学习的平凸透镜曲率半径在线测量方法 - Google Patents
一种基于深度学习的平凸透镜曲率半径在线测量方法 Download PDFInfo
- Publication number
- CN112949197A CN112949197A CN202110264981.0A CN202110264981A CN112949197A CN 112949197 A CN112949197 A CN 112949197A CN 202110264981 A CN202110264981 A CN 202110264981A CN 112949197 A CN112949197 A CN 112949197A
- Authority
- CN
- China
- Prior art keywords
- curvature radius
- lens
- plano
- convex lens
- curvature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 238000000691 measurement method Methods 0.000 title abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 68
- 238000003384 imaging method Methods 0.000 claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 claims abstract description 11
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 22
- 230000004075 alteration Effects 0.000 claims description 20
- 210000001747 pupil Anatomy 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 210000002569 neuron Anatomy 0.000 claims description 2
- 238000004088 simulation Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 18
- 238000001514 detection method Methods 0.000 abstract description 5
- 238000011084 recovery Methods 0.000 abstract description 5
- 230000001066 destructive effect Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000007547 defect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000227 grinding Methods 0.000 description 2
- 238000005305 interferometry Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000005498 polishing Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000005299 abrasion Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006748 scratching Methods 0.000 description 1
- 230000002393 scratching effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Testing Of Optical Devices Or Fibers (AREA)
Abstract
本发明涉及一种基于深度学习的平凸透镜曲率半径在线测量方法,属于光电测量技术领域。针对传统曲率半径检测方法具有损伤性、易受环境影响、装置调整复杂、价格昂贵等缺点,本方法基于相位恢复原理,建立了单平凸透镜成像系统,揭示了透镜曲率半径与系统焦面、离焦面PSF两幅图像的关系。采用深度学习方法构建平凸透镜PSF图像与曲率半径误差之间的非线性映射,实现透镜曲率半径的测量。使用标准透镜标定焦面、离焦面的方法,使待测透镜在标定面上产生数据集输入神经网络,提高了探测精度。本方法无损伤性,对软硬件环境要求不高,操作简单,成本低、速度快,且精度高。
Description
技术领域
本发明涉及一种平凸透镜曲率半径测量方法,属于光电测量技术领域。
背景技术
曲率半径是光学透镜最重要的参数之一。特别是在高性能光学系统(如空间相机等)中,其测量精度将直接影响镜头的焦距、像差等光学参量,进而影响光学系统的成像质量。在透镜的整个加工过程中,粗磨、精磨、抛光以及最终的成品阶段,均需要对曲率半径进行检测。因此,对于曲率半径的在线测量,已成为提高透镜加工效率的迫切要求。
目前,常见的曲率半径测量方法主要分为接触式和非接触式两种。前者主要包括球径仪法、牛顿样板法、三坐标机测量法等,后者包括自准直法、干涉法、差动共焦技术等。如图1所示,球径仪法是通过测量球面某部分的矢高和对应弦半径来计算曲率半径。矢高h是利用高精度的线性测量系统,通过机械式接触测量得到的。如图2所示,牛顿样板法是用待测透镜与平面玻璃接触,经光源照射,产生干涉条纹,通过两级条纹得到直径和级数,运用几何关系计算出曲率半径。如图3所示,三坐标机测量法是通过获取被测透镜表面若干个采样点的坐标值后,利用拟合算法拟合被测件表面方程,最佳球面拟合半径即为被测镜的曲率半径。如图4所示,自准直法是对球面曲率半径中心和表面实现两次精准调焦,自准直显微镜两次移动的距离即为待测面的曲率半径。如图5所示,干涉法是通过波前判定两个位置,从而测定球心和顶点的距离,两次位置移动距离即为曲率半径。如图6所示,共焦技术已成为曲率半径测量的有效方法,首先通过差动共焦响应曲线过零点时被测透镜顶点和球心位置的特性精确定焦,采用干涉测长技术获取两焦点间的距离,同时通过光瞳滤波技术提高曲率半径测量灵敏度。
但是,现行的曲率半径测量方法在不同的应用条件下都有一定的局限性。比如,环形球径仪法接触球面具有损伤性并且要求仪器制造精度高。牛顿样板法的测量精度受样板面形、观察者角度、目视判读精度影响。三坐标机测量法,以LEITZ公司PMM型三坐标机为例,易划伤被测件表面使精度受损,同时易受环境影响。自准直法都需要先对镜头进行抛光处理。干涉测量常用仪器有平面干涉仪和激光干涉仪,前者测量过程繁琐,测量精度受样板面形误差影响较大,后者仪器制造要求精度高,操作复杂,效率低,国内尚未普及。共焦测量法,相对而言其精度是几种方法中最高的,但其测长光腔易受环境干扰,测量过程繁琐,价格昂贵。
总体而言,接触式测量法需要对被测表面进行抛光处理,并且在测量过程中因磨损或挤压会产生测量误差,对使用环境及维护条件要求高,存在定量困难或灵敏度不足的缺点,非接触式测量法虽然有很高的测量精度,但设备价格昂贵、调整较为复杂,易受环境影响,微小的气流扰动,温度变化,环境振动都会引起测量误差。
发明内容
本发明的目的是为了克服现有技术的缺陷,针对传统曲率半径检测方法具有损伤性、易受环境影响、装置调整复杂、价格昂贵等缺点,为了解决平凸透镜曲率半径在线测量的技术问题,提出一种基于深度学习的平凸透镜曲率半径在线测量方法。
本方法依据相位恢复原理,包括数据构建和数据处理两部分。
首先,利用已知曲率半径的标准平凸透镜标定焦面、离焦面位置。
然后,基于MATLAB与ZEMAX平台,针对不同曲率半径的待测平凸透镜,获取在前述标定位置处的相应焦面、离焦面PSF图像,以两幅PSF图像为输入,以曲率半径误差,即待测镜与标准镜的曲率半径差值为输出,构建卷积神经网络数据集;同时,分析波前相位随曲率半径变化的规律。
最后,进行CNN训练,通过不断地调整参数进行图像特征提取,回归预测待测镜的曲率半径,直至精度满足要求。
本方法的创新点在于:
1.基于相位恢复原理,建立了单平凸透镜成像系统,揭示了透镜曲率半径与系统焦面、离焦面PSF两幅图像的关系。
2.创新性采用深度学习的方法构建平凸透镜PSF图像与曲率半径误差之间的非线性映射,实现透镜曲率半径的测量。
3.由于透镜曲率半径变化必然引起焦距变化,导致透镜焦面定位不准确,故提出了使用标准透镜标定焦面、离焦面的方法,使待测透镜在标定面上产生数据集输入神经网络,提高了探测精度。
有益效果
本发明方法与现有技术相比,具有如下优点:
本方法依据相位恢复原理,利用单平凸透镜成像系统中焦面、离焦面PSF图像与透镜曲率半径变化之间的非线性关系,采用深度学习方法学习图像中深层次的具有物理意义的高级图像特征,实现曲率半径的在线测量,充分发挥了深度学习在回归预测方面的强大功能,具有以下优点:
1.无损伤性,环境要求不高。深度学习方法是对采集的PSF图像进行处理,不直接接触镜头,因此无损伤性。该方法只需要一束测试光照射待测镜,不会受气流、温度、振动等环境的影响。
2.操作简单,成本低。本发明的工作步骤主要分为数据产生和处理两大模块,操作简单,实际应用时也仅需光源、CCD等少量器件,无需附加其余检测仪器,成本较低。
3.速度快,精度较高。本发明是基于相位恢复的深度学习方法处理图像与曲率半径之间的关系,与传统的非接触式检测方法相比,无需进行复杂的设备调整,而代之以神经网络的训练及回归预测,若辅之以高性能的计算机,则测量速度更快。精度上,相对误差极小,除略低于共焦技术测量法外,均高于其余传统测量方法,具有工程可行性。
附图说明
图1是球径仪法示意图。
图2是牛顿样板法示意图。
图3是三坐标机测量法示意图。
图4是自准直法示意图。
图5是干涉法示意图。
图6是共焦技术测量法示意图。
图7是本发明方法的示意图。
图8是本发明单透镜成像系统结构。
图9是Zenike多项式系数变化示意。
图10是待测平凸透镜成像系统波前图及对应的焦面、离焦面PSF图。
图11是本发明采用的CNN网络结构示意图。
图12是曲率半径预测结果图。
具体实施方式
下面结合附图和实施例对本发明方法做进一步详细说明。
实施例
如图7所示,一种基于深度学习的平凸透镜曲率半径在线测量方法,包括以下步骤:
步骤1:建立并标定单个平凸透镜成像系统。
具体如下:
根据透镜成像公式(1),当平凸透镜曲率半径变化时,焦距也随之改变,导致透镜焦面、离焦面定位不准确,因此,需要一个已知参数的透镜标定焦面位置:
其中,f为透镜焦距,R1、R2分别为透镜前、后表面的曲率半径,d为透镜两表面之间的间隔,n为透镜的折射率。
以现有平凸透镜(本实施例中,采用大恒光电平凸透镜,通光口径25.4mm,曲率半径77.5249mm)作为标准镜,将其设计参数值输入ZEMAX仿真平台,得到如图8所示的单透镜成像系统结构。考虑实际中可能存在系统像差,且像差通常以Zernike多项式的线性组合表示,因此,在单透镜前表面插入Zernike标准相位面,引入4至11阶共8项Zernike像差项系数本实施例中,单透镜成像系统特性参数如表1所示。
表1单个标准平凸透镜成像系统的特性参数
特性参数 | 参数值 |
有效焦距/mm | 150.8631 |
波长/nm | 671 |
视场角/(°) | 0° |
出瞳直径/mm | 6 |
F/# | 25.1 |
为减少像差影响,系统选取中心视场。同时,入瞳直径根据相对孔径进行设定,从而减少透镜边缘对像质的影响,其中,入瞳直径等于相对孔径乘以透镜焦距f。本实施例中,入瞳直径设置为6mm。最终使用边缘光线高度求解焦面位置。
步骤2:研究曲率半径变化对波前相位的影响。
透镜曲率半径的加工误差通常控制为1~5个光圈。利用光圈数与曲率半径公差ΔR的转化公式(2),计算出标准镜的ΔR变化范围,本实施例中为[-0.125mm,0.125mm]:
其中,D为透镜的口径,本实施例中为25.4mm;R为透镜的曲率半径,本实施例中为77.5249mm;λ为光波长,本实施例中为671nm;N为光圈数。
利用MATLAB与ZEMAX之间的DDE(动态数据交换)服务器,编写接口程序,在图8所示的单平凸透镜成像系统中,引入曲率半径误差(本实施例中,其范围设置为[-0.2mm,0.2mm],略大于工程控制范围),并实时获取以Zernike多项式描述的系统波前信息(即对应的Zernike像差系数)。
经分析可知,ΔR变化时,仅Zenike多项式系数中的C1(平移),C4(离焦),C11(三阶球差)发生变化,相应的变化规律如图9所示,由于平移项不影响PSF,而C11微小量级的变化可忽略不计,故透镜曲率半径变化主要引起C4的变化。
如公式(3)至(4)所示,根据傅里叶变换光学基本原理,点扩散函数PSF是广义光瞳函数的的傅里叶变换,则曲率半径变化所导致Zernike像差系数的变化,将必然会间接引起PSF图像的改变。因此,通过深度学习方法,构建两者之间的非线性映射关系,通过输入PSF图像,直接输出曲率半径误差:
步骤3:获取训练神经网络模型所需的数据集,以待测镜的焦面、离焦面PSF图像为样本,曲率半径误差为标签。
在传统相位恢复方法中,最佳离焦变更相位为1λ。根据离焦相位与离焦距离的关系式(5),计算出标准镜的最佳离焦距离,本实施例中为3.31651mm,该位置即为标定的离焦面位置,在相同焦面、离焦位置获取待测镜的PSF图像,本实施例中,所有PSF图像的分辨率均为128*128。
其中,Δφ为离焦相位,设为1λ,F为系统F数,ΔZ为离焦距离。
神经网络模型需要大量数据集作训练。为提高PSF图像获取的速度及准确性,首先通过ZEMAX获取不同曲率半径平凸透镜成像系统的波前,如图10(a)和图10(b)所示,再根据公式(4),利用MATLAB计算广义光瞳函数,进而获取PSF图像,如图10(c)和图10(d)所示,作为神经网路的输入样本,同时保存相应的曲率半径误差值作为神经网络的标签。
步骤4:构建CNN模型,回归预测曲率半径误差值。
在模型训练时,使用带有GPU显卡的计算机搭建环境。本实施例中,相关环境参数如表2所示,使用Keras进行网络模型的构建。
表2计算机软硬件参数
神经网络训练包括两部分:数据预处理和网络模型构建。
首先进行数据预处理。例如,可以将10000组数据进行标准归一化处理后,按照4:1:1的比例划分为训练集、验证集和测试集,其中,测试集仅在训练完成后进行最终性能验证时使用。
然后,进行网络模型构建。由于工程范围内不同曲率半径下的PSF图像间的差异相对较小,同时考虑光瞳函数与PSF之间一次傅里叶变换运算的计算量,因此,需要功能强大并且层次不过深的神经网络进行拟合。采用以Alexnet网络为基础改进的子网络结构,除简单的纹理特性提取外,可以较好地体现不同曲率半径下PSF图像的几何特征。网络模型结构如图11所示,整个架构包含10层,即1层输入层,5层卷积层、2层池化层以及2层全连接层。输入层输入128×128×2大小的样本,2个通道为焦面、离焦面PSF图像。使用Relu函数和最大池化,池化层均选择最大池化,步长均为2,从而避免了深度网络的梯度消失现象及图像模糊问题,卷积层后均设置了批归一化(BN)层,防止梯度消失和梯度爆炸,加快了训练速度。最后一层全连接输出层神经元个数设置为1,回归预测单个曲率半径误差。
网络选择Adam算法作为梯度优化器,权重初始化方法为lecun_uniform,初始学习率为10-4。训练时,采用动态调整方式监控验证集损失值变化,当损失值不再变化,则按10%的比例降低学习率。采用mini-batch方式训练,本实施例中,最大迭代次数Epoch设置为400,每批数量Batch大小设置为128,权重衰减系数(weight_decay)设为0.00005。
CNN学习PSF图像与曲率半径误差之间的非线性映射关系,本质上是通过反向传播不断调整权重和阈值,使误差最小,从而使预测值无限逼近真值而实现的。采用均方误差(MSE)作为损失评价函数(loss)来衡量预测值与真实值的离散程度,表示为公式(6),训练时根据损失值变化调整相应的结构参数:
其中,ΔR_predictons为网络预测值,ΔR_real为实际曲率半径值,m表示数据数量,i表示第i个数据。
步骤5:分析预测结果。
训练过程中,损失评价函数loss的变化曲线如图12(a)所示,可见,loss值在50次迭代训练内很快收敛,说明网络模型的拟合效果好。图12(b)表示不同的曲率半径对应的预测误差各异,整个曲率半径分布范围内,绝对预测误差均在0.0006mm以内。图12(c)是对测试数据进行预测值和真实值的比较,测试数据在[-0.2,0.2]mm曲率半径公差范围内分布较为均匀,预测值与真实值几乎重合,说明预测效果好。图12(d)显示测试数据对应的均方根误差均在0.0005mm以内,进一步说明神经网络预测精度高。
为直观定量表示该方法的精度,本实施例中,以曲率半径77.7249mm对应的预测误差0.0006mm为例,相对误差δ按公式(7)计算为:
其中,ΔR为曲率半径预测误差,即预测值与真实值之差,R为实际曲率半径值。
将该方法与传统方法测量精度相比较,如表3所示,显然,除精度略低于共焦技术外,该方法测量精度均高于其余提及的传统方法。
表3透镜各测量方法精度比较
结果表明,基于深度学习的平凸透镜曲率半径在线测量方法是一种快速准确的非接触式测量方法,操作简单,可视化好,自动化程度较高,成本低,精度较高。
Claims (7)
1.一种基于深度学习的平凸透镜曲率半径在线测量方法,其特征在于,包括以下步骤:
首先,利用已知曲率半径的标准平凸透镜标定焦面、离焦面位置;然后,基于MATLAB与ZEMAX平台,针对不同曲率半径的待测平凸透镜,获取在前述标定位置处的相应焦面、离焦面PSF图像,以两幅PSF图像为输入,以曲率半径误差,即待测镜与标准镜的曲率半径差值为输出,构建卷积神经网络数据集;同时,分析波前相位随曲率半径变化的规律;最后,进行卷积神经网络训练,通过不断调整参数进行图像特征提取,回归预测待测镜的曲率半径,直至精度满足要求。
2.如权利要求1所述的一种基于深度学习的平凸透镜曲率半径在线测量方法,其特征在于,利用已知曲率半径的标准平凸透镜标定焦面、离焦面位置,采用以下方法:
建立并标定单个平凸透镜成像系统:根据透镜成像公式(1),当平凸透镜曲率半径变化时,焦距也随之改变,导致透镜焦面、离焦面定位不准确,因此,需要一个已知参数的透镜标定焦面位置:
其中,f为透镜焦距,R1、R2分别为透镜前、后表面的曲率半径,d为透镜两表面之间的间隔,n为透镜的折射率;
将平凸透镜作为标准镜,将其设计参数值输入ZEMAX仿真平台;在单透镜前表面插入Zernike标准相位面,实时获取以Zernike多项式描述的系统波前信息,即对应的Zernike像差系数;同时,为减少像差影响,选取中心视场,最终使用边缘光线高度求解焦面位置。
3.如权利要求2所述的一种基于深度学习的平凸透镜曲率半径在线测量方法,其特征在于,入瞳直径根据相对孔径进行设定,从而减少透镜边缘对像质的影响;其中,入瞳直径等于相对孔径乘以透镜焦距f。
4.如权利要求1所述的一种基于深度学习的平凸透镜曲率半径在线测量方法,其特征在于,曲率半径误差的获取方法如下:
针对曲率半径变化对波前相位的影响,利用光圈数与曲率半径公差ΔR的转化公式(2),计算标准镜的ΔR变化范围:
其中,D为透镜的口径,R为透镜的曲率半径,λ为光波长,N为光圈数;
利用MATLAB与ZEMAX之间的DDE服务器,编写接口程序,在图10所示的单平凸透镜成像系统中,引入曲率半径误差,并实时获取以Zernike多项式描述的系统波前信息,即对应的Zernike像差系数;当ΔR变化时,仅Zenike多项式系数中的平移、离焦、三阶球差发生变化;
如公式(3)至(4)所示,根据傅里叶变换光学基本原理,点扩散函数PSF是广义光瞳函数的的傅里叶变换,则曲率半径变化所导致Zernike像差系数的变化,将必然会间接引起PSF图像的改变,通过深度学习方法,构建两者之间的非线性映射关系,通过输入PSF图像,直接输出曲率半径误差:
构建卷积神经网络CNN数据集,分析波前相位随曲率半径变化的规律的方法如下:
根据离焦相位与离焦距离的关系式(5),计算出标准镜的最佳离焦距离,该位置即为标定的离焦面位置,在相同焦面、离焦位置获取待测镜的PSF图像:
其中,Δφ为离焦相位,设为1λ,F为系统F数,ΔZ为离焦距离;
首先通过ZEMAX获取不同曲率半径平凸透镜成像系统的波前,再根据公式(4),利用MATLAB计算广义光瞳函数,获取PSF图像作为神经网路的输入样本,同时保存相应的曲率半径误差值作为神经网络的标签;
在模型训练时,使用带有GPU显卡的计算机搭建环境神经网络,训练包括两部分:数据预处理和网络模型构建;首先进行数据预处理,将待处理数据进行标准归一化处理后,按照设定比例划分为训练集、验证集和测试集,其中,测试集仅在训练完成后进行最终性能验证时使用;
然后,进行网络模型构建;采用以Alexnet网络为基础改进的子网络结构,整个结构架构包含10层,即1层输入层,5层卷积层、2层池化层以及2层全连接层;输入层输入128×128×2大小的样本,2个通道为焦面、离焦面PSF图像;使用Relu函数和最大池化,池化层均选择最大池化,步长均为2;卷积层后均设置批归一化层,最后一层全连接输出层神经元个数设置为1,回归预测单个曲率半径误差;
选择Adam算法作为梯度优化器,权重初始化方法为lecun_uniform,初始学习率为10-4;训练时,采用动态调整方式监控验证集损失值变化,当损失值不再变化,按10%的比例降低学习率;采用mini-batch方式训练;
采用均方误差MSE作为损失评价函数loss来衡量预测值与真实值的离散程度,表示为公式(6),训练时根据损失值变化调整相应的结构参数:
其中,ΔR_predictons为网络预测值,ΔR_real为实际曲率半径值,m表示数据数量,i表示第i个数据。
5.如权利要求4所述的一种基于深度学习的平凸透镜曲率半径在线测量方法,其特征在于,待测镜的PSF图像分辨率均为128*128。
6.如权利要求4所述的一种基于深度学习的平凸透镜曲率半径在线测量方法,其特征在于,将数据进行标准归一化处理后,按照4:1:1的比例划分为训练集、验证集和测试集。
7.如权利要求4所述的一种基于深度学习的平凸透镜曲率半径在线测量方法,其特征在于,采用mini-batch方式训练时,最大迭代次数Epoch设置为400,每批数量Batch大小设置为128,权重衰减系数weight_decay设为0.00005。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110264981.0A CN112949197B (zh) | 2021-03-08 | 2021-03-08 | 一种基于深度学习的平凸透镜曲率半径在线测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110264981.0A CN112949197B (zh) | 2021-03-08 | 2021-03-08 | 一种基于深度学习的平凸透镜曲率半径在线测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112949197A true CN112949197A (zh) | 2021-06-11 |
CN112949197B CN112949197B (zh) | 2022-09-09 |
Family
ID=76228925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110264981.0A Active CN112949197B (zh) | 2021-03-08 | 2021-03-08 | 一种基于深度学习的平凸透镜曲率半径在线测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112949197B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118736024A (zh) * | 2024-09-04 | 2024-10-01 | 浙江省计量科学研究院 | 高反光材质的表面缺陷检测照明光源反射干扰像预测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110050980A1 (en) * | 2009-09-01 | 2011-03-03 | Industrial Technology Research Institute | Imaging systems and optical systems with extended depth of focus |
WO2018021561A1 (ja) * | 2016-07-29 | 2018-02-01 | 株式会社ニデック | 眼科装置、およびiol度数決定プログラム |
JP2018051223A (ja) * | 2016-09-30 | 2018-04-05 | 株式会社ニデック | 眼科装置、およびiol度数決定プログラム |
CN110162175A (zh) * | 2019-05-16 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 基于视觉的触觉测量方法、装置、设备及存储介质 |
CN111209689A (zh) * | 2020-02-14 | 2020-05-29 | 北京理工大学 | 非零干涉非球面测量回程误差去除方法及装置 |
CN111240010A (zh) * | 2020-01-08 | 2020-06-05 | 北京理工大学 | 一种用于自由曲面测量的可变形镜面形设计方法及装置 |
-
2021
- 2021-03-08 CN CN202110264981.0A patent/CN112949197B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110050980A1 (en) * | 2009-09-01 | 2011-03-03 | Industrial Technology Research Institute | Imaging systems and optical systems with extended depth of focus |
WO2018021561A1 (ja) * | 2016-07-29 | 2018-02-01 | 株式会社ニデック | 眼科装置、およびiol度数決定プログラム |
JP2018051223A (ja) * | 2016-09-30 | 2018-04-05 | 株式会社ニデック | 眼科装置、およびiol度数決定プログラム |
CN110162175A (zh) * | 2019-05-16 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 基于视觉的触觉测量方法、装置、设备及存储介质 |
WO2020228489A1 (zh) * | 2019-05-16 | 2020-11-19 | 腾讯科技(深圳)有限公司 | 基于视觉的触觉测量方法、装置、芯片及存储介质 |
CN111240010A (zh) * | 2020-01-08 | 2020-06-05 | 北京理工大学 | 一种用于自由曲面测量的可变形镜面形设计方法及装置 |
CN111209689A (zh) * | 2020-02-14 | 2020-05-29 | 北京理工大学 | 非零干涉非球面测量回程误差去除方法及装置 |
Non-Patent Citations (2)
Title |
---|
林旭东等: "球面拼接镜的相对曲率半径测量", 《光学精密工程》 * |
胡摇等: "基于部分补偿干涉的非球面顶点曲率半径加工误差测量", 《计量学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118736024A (zh) * | 2024-09-04 | 2024-10-01 | 浙江省计量科学研究院 | 高反光材质的表面缺陷检测照明光源反射干扰像预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112949197B (zh) | 2022-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188321B (zh) | 一种基于神经网络算法的主次镜校准方法 | |
Swojak et al. | Assessment of selected metrological properties of laser triangulation sensors | |
Zhang et al. | A novel method for repeatedly generating speckle patterns used in digital image correlation | |
US20060159332A1 (en) | Image processing apparatus and refractive index distribution measuring apparatus | |
JP6000577B2 (ja) | 非球面計測方法、非球面計測装置、光学素子加工装置および光学素子の製造方法 | |
JP5971965B2 (ja) | 面形状計測方法、面形状計測装置、プログラム、および、光学素子の製造方法 | |
JP5896792B2 (ja) | 非球面計測方法、非球面計測装置および光学素子加工装置 | |
JP5595463B2 (ja) | 波面光学測定装置 | |
CN113888444A (zh) | 一种基于叠层自聚焦实验的图像重建方法及系统 | |
CN112949197B (zh) | 一种基于深度学习的平凸透镜曲率半径在线测量方法 | |
Wu et al. | Precise 3-D microscopic profilometry using diffractive image microscopy and artificial neural network in single-exposure manner | |
JP5226510B2 (ja) | 光学表面の曲率を測定するシステムおよび方法 | |
CN108225187B (zh) | 一种基于波前传感的非球面透镜误差检测方法 | |
JP2005524065A (ja) | 光学検査方法および装置 | |
JP6223368B2 (ja) | 光学要素の幾何学的構造を測定する方法及びツール | |
CN112525071A (zh) | 一种抑制大口径干涉仪中光学材料非均匀性影响的方法 | |
CN108760056B (zh) | 一种基于相干衍射成像的激光复振幅测量方法及系统 | |
JP2021051038A (ja) | 収差推定方法、収差推定装置、プログラムおよび記録媒体 | |
Yuan-yuan et al. | Application of detecting part's size online based on machine vision | |
KR20110089973A (ko) | 3차원 빔측정을 통한 광학계의 파면수차 복원방법 | |
CN113806678B (zh) | 一种基于相关系数匹配的曲率半径测量方法 | |
CN117741965B (zh) | 基于双远心镜头的高精度图像位置对准系统的设计方法 | |
CN104501722B (zh) | 一种非球面光纤细丝测量方法 | |
US9207145B1 (en) | System and method for null-lens wavefront sensing | |
CN110319793B (zh) | 一种透射旋转对称非球面检测系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |