“隔行如隔山”?
传统意义上,机器视觉、人工智能与自动化专业似乎有点“隔行如隔山”的感觉。即使今天机器视觉的应用快速的增长,但对于大部分自动化、电气工程、机电一体化专业出身的工程师而言,机器视觉,尤其是AI功能的机器视觉仍然有一种“不明觉厉”。
但对贝加莱而言,在其机器视觉产品设计的时候,就要打破这一隔阂。首先,其“集成机器视觉”这一理念就将原有的相机、镜头、光源分离的状态给“集于一体”-降低了在硬件意义的难度。其次,在软件的意义,即,工程(Engineering)开发的绝度,也通过“配置”而非“编程”的思想来设计开发过程,以降低工程师的应用复杂性。
AI相机产品
在贝加莱最新的AI相机中,采用了26TOPS的算力。它使得深度学习(Deep Learning)的应用可以被快速的应用于项目中。
图1-AI相机
继承“集成机器视觉”理念,光源、相机、AI图像处理、实时通信集于一体。
设计理念
让普通工程师能用好深度学习相机
深度学习(Deep Learning)是一个在复杂环境中关于图像处理和分析的高级应用方案。机器视觉的复杂性在于被测物体本身的光学特性、光源、频闪等的变化,以及在处理信号中选择合适的训练方法,以及为这些模型训练进行的参数调校。这两个方向都与传统自动化专业的人知识体系相去甚远。
但是,现场的自动化工程师可能在图像和AI方面欠缺训练,但对于整个机器的控制、被测对象的物理特征、以及处理这些缺陷的其它机电动作(如逻辑、伺服系统、机器人等的配合)的整个逻辑是比较了解的。
因此,自动化工程师如果有一个能够比较易用的,仅通过配置即可实现的工具的话,对于整个工程项目的开发,就能“事半功倍”。
而贝加莱就是这样设计系统的—正所谓“工欲善其事,必先利其器”,工具就是效率。
案例
利用AI相机实现缺陷分析的几个步骤
我们以机器视觉中较为复杂的“缺陷检测”为例—如图2,对整个AI相机的应用进行介绍。大的步骤主要是四个步骤,其中第一个步骤分为四个小的细节过程。
图2-整个机器视觉的应用流程
第一步:样本采集与训练
第一步主要是进行系统配置和图像采集与训练。
●配置参数:在mappVISION中对关键的拍照相关参数进行配置,如视距(FOV)、频闪、关注区域的配置;
●拍照:配置参数将通过PLC/PC下载到相机中,进行拍照;
●构建样本库:采集足够多所需的良品/不良品照片;
●模型训练与优化:基于样本特征调整优化算法模型,提升检测准确性。
这个深度训练的过程,可以通过MVTec DLT插件进行,通过对图像的标注、训练、评估。
在这个过程中,工程师针对视觉的各个配置都是可选的,特征、训练、评估,以“指南”性质逐步完成,无需深入的视觉或深度学习知识,即可实现对图像的处理与训练。
图3-MVTec DLT深度学习图片训练
MVTec DLT是一个用户友好的工具,它使得工程师通过预设参数,快速正确使用深度学习模型。而经过训练好的模型,则可以通过导出,直接到Automation Studio中。
第二步:模型部署
●经过深度学习训练的模型,可被导入至Automation Studio中,并被下载至AI相机中。该AI相机内部由HALO的AI加速器,它能26TOPS的算力支持高速的本地快速推理。
第三步:实时在线检测
●在相机的本地,可以直接检测到图片后,依据其学习到的能力,即可直接对产品进行缺陷智能识别,并无需PLC额外处理,并将结果输出给PLC进行处理。
第四步:系统联动控制
贝加莱的机器视觉可以被理解为PLC/PC的一个“传感器”,它也同样通过POWERLINK实时网络,可通过交叉通信的方式实现协作。
●外部协作:它即可以与I/O逻辑配合,也可以与机器人、柔性输送轨道联动控制,例如实现剔除、检出,或通过柔性输送系统送至“NG区”等动作。同时,它可以作为缺陷数据被记录,作为后续根源分析的数字依据。
机器视觉本质就是个传感器—你就把它当个传感器来用而已。
AI相机的应用场景
●机器视觉的缺陷分析
●识别与分类应用
●捡取导引应用
●表面缺陷
●视觉图像定位与套色应用