CN111417976A - 作业支援系统、作业支援方法以及程序 - Google Patents
作业支援系统、作业支援方法以及程序 Download PDFInfo
- Publication number
- CN111417976A CN111417976A CN201880076962.1A CN201880076962A CN111417976A CN 111417976 A CN111417976 A CN 111417976A CN 201880076962 A CN201880076962 A CN 201880076962A CN 111417976 A CN111417976 A CN 111417976A
- Authority
- CN
- China
- Prior art keywords
- work
- sensor
- support system
- area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000001514 detection method Methods 0.000 claims abstract description 162
- 230000008569 process Effects 0.000 claims abstract description 56
- 230000006870 function Effects 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Manufacturing & Machinery (AREA)
- Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- General Factory Administration (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明的课题在于提供一种能够容易地生成作业工序的作业支援系统、作业支援方法以及程序。作业支援系统(1)具备传感器(2)和生成部(3)。传感器(2)对在作业区域内设定的自动检测区域内存在的物体进行检测。生成部(3)基于传感器(2)的输出,生成包括作业区域内的多个作业事件的顺序的作业工序。
Description
技术领域
本发明广泛地涉及作业支援系统、作业支援方法以及程序,更详细而言,涉及生成作业工序的作业支援系统、作业支援方法以及程序。
背景技术
以往,提出了应用于作业区域的作业检测系统(专利文献1)。
专利文献1所记载的作业检测系统具备距离图像传感器、检测装置、报告装置以及设定装置。距离图像传感器输出作业区域的距离图像。检测装置将距离图像中出现的作业主体或者作业主体处理的工件作为检测对象,当根据距离图像检测到作业内容的异常时,输出报告命令。报告装置在被输入报告命令时进行报告动作。设定装置设定在距离图像内检测装置检测是否存在检测对象的多个检测区域以及其检测顺序。
检测装置具备具有设定装置的功能的设定部。设定部例如基于作业者使用输入装置输入的内容,设定在距离图像内检测是否存在检测对象的检测区域及其检测顺序。
在专利文献1所记载的作业检测系统中,设定作业者需要对输入装置进行操作,基于作业工序来设定在各工序中作业者所检测出的检测区域及其检测顺序,作业工序的生成花费时间。
在先技术文献
专利文献
专利文献1:日本特开2013-25478号公报
发明内容
发明要解决的课题
本发明的目的在于提供一种能够容易地生成作业工序的作业支援系统、作业支援方法以及程序。
用于解决课题的手段
本发明所涉及的一方式的作业支援系统具备传感器以及生成部。所述传感器检测在作业区域内设定的自动检测区域内存在的物体。所述生成部基于所述传感器的输出,生成包括所述作业区域内的多个作业事件的顺序在内的作业工序。
本发明所涉及的一方式的作业支援方法基于检测在作业区域内设定的自动检测区域内存在的物体的传感器的输出,生成包括所述作业区域内的多个作业事件的顺序的作业工序。
本发明所涉及的一方式的程序使计算机系统执行如下处理:基于检测在作业区域内设定的自动检测区域内存在的物体的传感器的输出,生成包括所述作业区域内的多个作业事件的顺序在内的作业工序。
附图说明
图1是本发明的一实施方式所涉及的作业支援系统的框图。
图2是用于说明作业者基于由同上的作业支援系统的生成部生成的作业工序进行作业的情况的立体图。
图3是表示在同上的作业支援系统中使用的距离图像的一例的图。
图4是表示在同上的作业支援系统中使用的彩色图像的一例的图。
图5是用于说明在同上的作业支援系统中检测区域的设定方法的概念图。
具体实施方式
(实施方式)
(1)概要
本实施方式所涉及的作业支援系统1是用于对在作业区域11中进行作业的作业者100(参照图2)进行支援的系统。
作业支援系统1具备传感器2和生成部3。在作业支援系统1中,作业者100以预先决定的作业顺序进行作业区域11内的作业,通过传感器2检测在作业区域11内设定的三维检测区域12(参照图2)内存在的物体(作业者100的手、部件等)。在此,检测物体是指检测物体的动作、检测物体是否存在等。生成部3基于传感器2的输出,生成包括作业区域11内的多个作业事件的顺序的作业工序。
(2)结构
(2.1)作业支援系统的整体结构
如图2所示,本实施方式所涉及的作业支援系统1例如是为了对以单元生产方式进行作业的作业者100进行支援而使用的系统。在单元生产方式中,作业者100从作业台15上的多个(四个)部件箱13以预先决定的作业顺序取出部件,组装产品。以下,为了便于说明,有时将四个部件箱13从图的左侧起依次称为部件箱131、部件箱132、部件箱133、部件箱134。在四个部件箱131~134中装入有相互不同的部件。在单元生产方式中,作为一例,通过组装相互不同的四个部件来完成产品。
如图1所示,本实施方式所涉及的作业支援系统1具备传感器2和生成部3。此外,作业支援系统1还具备提示部4、编辑部5、用户接口6、设定部7以及引导信息提示部8。作业支援系统1还具备控制部9和存储部10。控制部9控制生成部3、提示部4、编辑部5、用户接口6、设定部7以及引导信息提示部8。存储部10存储由设定部7设定的三维检测区域12(参照图2),由生成部3生成的作业工序、由引导信息提示部8提示的作业引导信息等相关的信息。
作业支援系统1具有在生成部3中生成作业工序的第1模式、和使用在生成部3中生成的作业工序的第2模式。在此,在作业支援系统1中,在第1模式时由控制部9控制生成部3来生成作业工序。在作业支援系统1中,在第2模式时由控制部9控制引导信息提示部8,引导信息提示部8按照作业工序将用于作业者100的作业引导信息提示给作业区域11(将作业引导信息显示在作业台15的上表面151上)。
传感器2检测在作业区域11内设定的三维检测区域12内存在的物体。生成部3基于传感器2的输出,生成包括作业区域11内的多个作业事件的顺序的作业工序。提示部4提示作业工序。编辑部5基于来自用户接口6的输入信息编辑作业工序。设定部7根据来自用户接口6的输入信息来设定自动检测区域14(参照图4)。在此,自动检测区域14设定在作业区域11内。自动检测区域14是从距离图像或者影像图像的动态图像自动检测出满足规定的检测条件的作业事件的区域。此外,设定部7基于传感器2的输出,设定三维检测区域12。引导信息提示部8按照作业工序依次提示多个作业引导信息。
作业区域11包括作业者100进行作业的作业台15上的区域(三维区域)。作业区域11包括作业台15的上表面151、作业台15上的多个部件箱13等。多个三维检测区域12例如与多个部件箱13一对一地对应。以下,为了便于说明,有时也将四个三维检测区域12从图2的左侧依次称为三维检测区域121、三维检测区域122、三维检测区域123、三维检测区域124。四个三维检测区域121、122、123以及124分别对应于四个部件箱131、132、133以及134。从作业者100观察,四个三维检测区域121、122、123以及124是被设定在四个部件箱131、132、133以及134各自的跟前侧的区域。四个三维检测区域121、122、123以及124与四个部件箱131、132、133以及134各自的一部分重叠地设定,但不限于此,也可以不与四个部件箱131、132、133以及134分别重叠。
传感器2例如配置在作业区域11的上方。传感器2例如通过被设置于作业台15的支承部16支承而配置于作业区域11的上方。传感器2包括距离图像传感器21(参照图1)。距离图像传感器21从上方拍摄作业区域11而输出作业区域11的距离图像。在此,距离图像传感器21连续地生成以从传感器2开始到存在于作业区域11内的物体为止的距离值为像素值的距离图像(距离图像的各像素的像素值是距离值)。由此,传感器2能够检测物体的运动、物体的有无等。距离图像传感器21包括红外光源和红外线相机。距离图像传感器21例如是TOF(Time Of Flight:飞行时间)方式的距离图像传感器。在距离图像传感器21中,从距离图像传感器21开始到存在于作业区域11内的物体为止的距离根据从红外光源对作业区域11照射红外光到被物体反射的红外光入射(到达)到红外线相机为止的时间(飞行时间)来求出。通过从作业台15的上表面151与距离图像传感器21的距离减去物体与距离图像传感器21的距离来计算物体的高度信息。距离图像传感器21并不局限于TOF方式的距离图像传感器,例如也可以是立体照相机方式的距离图像传感器等。
传感器2包括图像传感器22(参照图1)。图像传感器22例如是CMOS(C0mplementaryMOS:互补金属氧化物半导体)彩色图像传感器。图像传感器22从上方拍摄作业区域11而输出作业区域11的彩色的影像图像。在此,图像传感器22连续地生成彩色的影像图像。在传感器2中,在大致相同时刻由距离图像传感器21和图像传感器22分别拍摄到的作业区域11的距离图像与彩色的影像图像一对一地对应。另外,图像传感器22也可以是输出单色的影像图像的传感器。
生成部3、提示部4、编辑部5、用户接口6、设定部7以及控制部9例如由以处理器以及存储器为主要构成的计算机系统构成。换言之,生成部3、提示部4、编辑部5、设定部7以及控制部9通过具有处理器以及存储器的计算机系统(例如,笔记本型个人计算机)实现,通过处理器执行保存在存储器中的程序,计算机系统作为生成部3、提示部4、编辑部5、用户接口6、设定部7、控制部9以及存储部10发挥功能。程序可以预先记录在计算机系统的存储器中,也可以通过电信线路来提供,也可以记录在计算机系统中能够读取的存储卡、光盘、硬盘驱动器(磁盘)等非暂时性的记录介质中来提供。计算机系统的处理器由包括半导体集成电路(IC)或者大规模集成电路(LSI)的1至多个电子电路构成。多个电子电路可以集中在一个芯片,也可以分散设置在多个芯片。多个芯片可以集中于一个装置,也可以分散设置于多个装置。
用户接口6由上述的个人计算机的输入装置(键盘、鼠标等)构成。提示部4由上述的个人计算机的显示器构成,提示用于设定自动检测区域14的设定画面、由生成部3生成的作业工序等。提示部4的提示内容(显示内容)由控制部9控制。关于编辑部5,在对生成部3进行了说明之后进行说明。
设定部7基于传感器2的输出,设定作业区域11内的三维检测区域12。例如,在预先设定的自动检测区域14不具有特定的高度信息的情况下,设定部7通过将物体通过了自动检测区域14时的物体的高度信息包括在自动检测区域14的信息中,自动地设定三维检测区域12。此外,在自动检测区域14具有特定的高度信息的情况下,设定部7基于传感器2的输出,自动地更新三维检测区域12的三维信息,由此能够将三维检测区域12设定为更适当的范围。
生成部3基于传感器2的输出,生成包括作业区域11内的多个作业事件的顺序的作业工序。在生成部3中,在第1模式中,为了预先生成作业工序,基于特定的作业者在工作台15上进行了成为作业工序的对象的一系列的作业(成为标准的一系列的作业)时的传感器2的输出,生成作业工序。使作业支援系统1生成作业工序的用户将特定的作业者在作业台15上进行了一系列的作业时的传感器2的输出(距离图像以及影像图像各自的动态图像)预先录制在记录介质中,在作业支援系统1中,利用录制在记录介质中的动态图像生成作业工序。特定的作业者也可以是与在第2模式时进行作业的作业者100相同的人。
以下,对在作业支援系统1中用于生成作业工序的流程进行说明。
用户利用用户接口6向上述的计算机系统的提示部4提示动态图像。然后,用户利用用户接口6,将构成距离图像的动态图像的多个距离图像中的一个距离图像选择为基准距离图像P0(参照图3)。换言之,从距离图像的动态图像捕捉基准距离图像P0。基准距离图像P0例如是没有映出特定的作业者的手的图像。在基准距离图像P0内,映出作业台15的上表面151以及多个部件箱131~134。
接下来,用户利用用户接口6,使提示部4提示与多个影像图像中的提示部4所提示的基准距离图像P0一对一地对应的一个影像图像作为基准图像P10(参照图4),并对基准图像P10进行自动检测区域14的设定。用户利用用户接口6来设定与多个部件箱13一对一地对应的多个自动检测区域14。例如,用户能够通过鼠标指定基准图像P10上的范围,来设定自动检测区域14。将四个自动检测区域14从图4的左侧依次称为自动检测区域141、自动检测区域142、自动检测区域143、自动检测区域144。自动检测区域14可以是二维区域,也可以是三维区域。自动检测区域14包括例如高度、面积或者体积等信息作为自动检测中的检测条件。此外,作为自动检测中的其他的检测条件,例如是颜色、时间范围、停留时间、动作方向、多个检测区域的同时或者不同顺序的组设定等。在此,时间范围是在执行作业工序的作业时间中作为检测条件使用的指定范围的时间。作业时间例如是从作业工序的开始时间点到结束时间点的时间。时间范围例如是从作业工序的开始时间点起3秒后的时间点与12秒后的时间点之间的范围。此外,在多个检测区域的同时组设定中,例如在多个检测区域包括第1检测区域和第2检测区域时,是仅同时进行第1检测区域的作业事件和第2检测区域的作业事件的情况下进行检测这样的条件。此外,在多个检测区域的不同顺序组设定中,例如是在多个检测区域包括第1检测区域和第2检测区域时,在先进行第1检测区域的作业事件和第2检测区域的作业事件中的哪一个的情况下都进行检测这样的条件。另外,自动检测区域14的设定也可以不使用影像图像,而使用距离图像来设定。
接下来,用户利用用户接口6指示在距离图像的动态图像的再生、三维检测区域12的设定以及自动检测区域14中执行的作业事件的帧的生成。由此,设定部7从距离图像的动态图像自动地设定三维检测区域12。帧是记录有进行特定的作业的内容的处理框。三维检测区域12是在距离图像中与实际空间的自动检测区域14对应的区域。在此,设定部7基于距离图像中与自动检测区域14对应的区域和与进入该区域的物体(特定的作业者的手)有关的信息来设定包括高度方向的距离信息的三维检测区域12。
控制部9在接收到流程生成(作业工序生成)的指示时,使生成部3生成作业工序。
生成部3根据距离图像或者影像图像的动态图像自动生成在自动检测区域14中检测到的作业事件的帧。
图5的横轴是被录制的动态图像的时间轴。在图5所示的例子中,作业工序包括多个(四个)作业事件(步骤)。四个作业事件例如是从部件箱131取出部件的作业事件(以下,也称为作业A),从部件箱132取出部件的作业事件(以下,也称为作业B),从部件箱133取出部件的作业事件(以下,也称为作业C),以及从部件箱134取出部件的作业事件(以下,也称为作业D)。生成部3按照执行各个作业事件的顺序自动生成作业事件的帧。
在图5所示的例子中,作业工序例如是表示进行作业事件的顺序的流程,是“从部件箱131取部件”→“从部件箱132取部件”→“从部件箱134取部件”→“从部件箱133取部件”的顺序的流程。作业工序例如也可以是,“部件箱131”→“部件箱132”→“部件箱134”→“部件箱133”的顺序的流程。各作业事件的内容(“从部件箱131取部件”等)也可以利用用户接口6预先设定于生成部3。在与自动检测区域14对应的作业事件被预先设定于生成部3的情况下,作业支援系统1能够在生成部3中将作业事件的内容自动地与对应的作业事件的帧相关联。
如图5所示,生成部3按照自动检测区域141、自动检测区域142、自动检测区域144、自动检测区域143的顺序自动生成分别对应的作业事件的帧。与自动检测区域141对应的帧与三维检测区域121对应。与自动检测区域142对应的帧与三维检测区域122对应。与自动检测区域144对应的帧与三维检测区域124对应。与自动检测区域143对应的帧与三维检测区域123对应。
这样,生成部3按照基于传感器2的输出检测到检测对象的物体(作业者100的手)的三维检测区域12的顺序生成包括作业区域11内的多个作业事件的顺序的作业工序。更详细而言,生成部3按照对与多个三维检测区域12一对一地对应的多个自动检测区域14检测到检测对象的物体的顺序来生成决定作业事件的顺序的作业工序。
设定部7能够基于从基准距离图像P0(参照图3)的各像素的像素值减去距离图像的各像素的像素值而得到的差分值来检测物体,并且,作为与物体相关的信息之一,能够求出物体的高度。例如,如果上述差分值在阈值以上的像素数为规定数以上,则设定部7判断为存在检测对象的物体,如果上述差分值在阈值以上的像素数小于规定数,则判断为没有检测对象的物体。换句话说,设定部7具有基于从距离图像传感器21输出的距离图像来检测检测对象的物体(作业者100的手、部件等)的功能。设定部7基于检测对象的物体的高度的信息来设定上下方向上的三维检测区域12的范围。设定部7也可以构成为对距离图像、或者基准距离图像P0与该基准距离图像P0以外的距离图像之差分图像实施模式匹配等处理来检测检测对象的物体。
接下来,用户能够利用用户接口6在提示部4所提示的三维检测区域编辑用的画面中进行三维检测区域12的编辑。三维检测区域12的编辑例如通过手动来修正自动设定的三维检测区域12的高度信息。此外,在设定部7中不自动设定三维检测区域12的高度信息的情况下,用户能够利用用户接口6手动设定高度信息。用户例如能够利用用户接口6的鼠标、键盘等来指示三维检测区域12的变更、追加、删除。此外,用户还能够进行三维检测区域12的范围的变更、追加或者删除。
另外,在生成部3中,三维检测区域12的设定和在自动检测区域14中执行的作业事件的帧的生成既可以同时执行,也可以另外执行。
作业支援系统1的用户通过利用用户接口6以及编辑部5,能够向生成部3自动生成的帧输入作业事件的内容。作业事件的内容例如是“从部件箱取部件”等作业内容。此外,用户能够在由生成部3自动生成的帧构成的作业工序中追加作业事件。此外,用户能够从由生成部3自动生成的帧构成的作业工序中删除帧。此外,用户能够将三维检测区域12中的物体的检测条件设定为对应的作业事件的帧。所谓三维检测区域12的检测条件,例如是颜色、时间范围、停留时间、动作方向、多个检测区域的同时或者不同顺序的组设定等。在此,时间范围是在执行作业工序的作业时间中作为检测条件使用的指定范围的时间。作业时间例如是从作业工序的开始时间点到结束时间点的时间。时间范围例如是从作业工序的开始时间点起3秒后的时间点与12秒后的时间点之间的范围。此外,在多个检测区域的同时组设定中,例如,在多个检测区域包括第1检测区域和第2检测区域时,是仅同时进行第1检测区域的作业事件和第2检测区域的作业事件的情况下进行检测这样的条件。此外,在多个检测区域的不同顺序组设定中,例如,在多个检测区域包括第1检测区域和第2检测区域时,是先进行第1检测区域的作业事件和第2检测区域的作业事件中的哪一个的情况下都进行检测这样的条件。
另外,作为三维检测区域12的检测条件的停留时间也可以是在作业工序生成时在自动检测区域14中存在物体的时间(停留时间)。此时,设定部7也可以将自动检测区域14中的物体的停留时间自动地设定为三维检测区域12中的物体的检测条件。此时,对停留时间进行计时的计时部由上述的个人计算机所具备的计时器构成。此外,设定部7也可以使用动态图像的帧速率来计算停留时间。用户例如能够使用文章、描绘、图像、动态图像、符号等来编辑提示部4所提示的作业工序。
另外,与多个作业事件对应的帧也可以相对于时间轴而并列地设定。例如,在同时进行从部件箱131取部件的作业和从部件箱132取部件的作业的情况下,或者,以不同顺序进行的情况下,从与部件箱131、132对应的自动检测区域141、142抽出的帧能够相对于时间轴并列地设定。
作业支援系统1的引导信息提示部8被配置为在作业区域11的上方在上下方向上不与传感器2重叠。引导信息提示部8在上述的第2模式中按照作业工序将作业引导信息依次提示给作业区域11。引导信息提示部8构成为向包括作业台15的上表面151的投影面(显示面)投影映像。
引导信息提示部8例如是投影仪。引导信息提示部8被配置为朝向作业区域11投影作业引导信息(映像)。作业引导信息在作业台15的上表面151中的与取出多个部件箱13中的部件的一个部件箱13的三维检测区域12对应的区域,例如由带有颜色的箭头等图形17(参照图2)提示。因此,在作业支援系统1中,作业者100能够以与作业中同样的姿态观察作业引导信息。作业引导信息不限于图形17,可以是文章(例如,“取部件”等),也可以是图形17和文章两者。图形17不限于箭头,例如也可以是长方形。此外,作业引导信息既可以是箭头或者长方形以外的图形,也可以是动态图像、照片等。引导信息提示部8的动作由控制部9控制。在作业支援系统1中,控制部9控制由引导信息提示部8进行的作业引导信息的提示、非提示的定时。在此,控制部9例如通过在第1模式下制作的作业工序按照预先决定的顺序逐个提示多个作业引导信息。多个作业引导信息中的一个信息分别与多个作业事件中的一个信息相对应。使一个作业引导信息仅提示规定时间开始进行非提示之后,到提示下一个作业引导信息为止的间隔适当设定即可。此外,也可以在三维检测区域12以及检测条件检测到作业者100的动作的结束之后,切换作业引导信息的提示。在作业支援系统1中,传感器2被配置为不妨碍引导信息提示部8向作业区域11提示(投影)作业引导信息。引导信息提示部8被配置为不对传感器2照射投影光。
作业支援系统1在第2模式时,将传感器2的输出利用于作业支援。在作业支援系统1中,在以第2模式进行动作时,控制部9也可以基于传感器2的输出,判断作业有无异常,在有异常的情况下向作业者通知该情况。
作为作业的异常,例如是在进行了与由作业引导信息提示的作业引导信息的作业不同的作业的情况下,从提示作业引导信息起到进行按照该作业引导信息的作业为止的时间超过上述的规定时间的情况等。作为进行了与基于作业引导信息的作业不同的作业的情况,例如,相对于指示从图2中的左端的部件箱131取部件,存在作业者100从图2中的自左数第2个部件箱132取部件的情况。
向作业者100的通知可以通过控制部9控制引导信息提示部8来进行,也可以通过控制部9控制声音发生装置、显示装置等来进行。此外,在作业支援系统1中,也可以在第2模式进行动作时,控制部9基于传感器2的输出,在检测到进行了按照作业引导信息的作业之前,保持提示作业引导信息不变。此外,作业支援系统1例如可以在以第2模式动作时与计测器关联动作,也可以将来自测量器的信号作为触发来提示作业引导信息。
在作业支援系统1中,作业者100在作业区域11中进行作业时能够看到在作业区域11中提示的作业引导信息。在使作业支援系统1在第2模式下动作时,作业者100按照由引导信息提示部8提示的作业引导信息进行作业即可。由此,作业者100能够容易地适应作业工序。能够减小多个作业者100间的生产量的差。此外,作业者100能够容易地适应于针对多品种的每个产品而不同的作业工序。此外,通过利用作业支援系统1,能够实现多个作业者100的作业内容的标准化。
以上说明的实施方式只不过是本发明的各种实施方式之一。实施方式只要能够实现本发明的目的,就能够根据设计等进行各种变更。此外,与作业支援系统1同样的功能也可以通过作业支援方法或者程序(计算机程序)来具体化。
一方式所涉及的作业支援方法基于检测在作业区域11内设定的自动检测区域14内存在的物体的传感器2的输出,生成包括作业区域11内的多个作业事件的顺序的作业工序。
此外,一方式所涉及的程序使计算机系统执行如下处理:基于检测在作业区域11内设定的自动检测区域14内存在的物体的传感器2的输出,生成包括作业区域11内的多个作业事件的顺序的作业工序。
以下,列举上述实施方式的变形例。
传感器2的检测对象不限于作业者100的手,例如也可以是部件、产品等。
此外,传感器2不限于具备距离图像传感器21和图像传感器22这两者的结构,也可以是仅具备距离图像传感器21和图像传感器22中的一方的结构。此外,传感器2不限于具备距离图像传感器21和图像传感器22中的至少一方的结构,例如,也可以是针对多个三维检测区域12的每一个设置的多个跟踪传感器。
此外,在作业区域11中,多个部件箱13中的至少两个部件箱13也可以在上下方向上重叠配置。
此外,引导信息提示部8不限于投影仪,例如也可以是埋入到包括作业台15的上表面151的顶板的显示器。
此外,作业支援系统1除了传感器2以及生成部3之外,还具备提示部4、编辑部5、用户接口6、设定部7、引导信息提示部8、控制部9以及存储部10,但除了传感器2以及生成部3以外,不是必须的结构,而是,适当地可以省略。此外,提示部4、编辑部5、用户接口6、设定部7、引导信息提示部8、控制部9以及存储部10也可以分别分担执行相互的功能。
此外,作业支援系统1可以将由生成部3生成的作业工序发送到智能手机等终端,也可以记录在记录介质中。
在作业支援系统1中设想的作业不限于生产线上的手动组合。例如,作业也可以是生产线上的产品或者部件的良品、不良品的分选作业、捆包作业、调整、清扫等。
此外,作业支援系统1所具备的生成部3的至少一部分的功能例如也可以通过云计算(Cloud Computing)中的服务器装置来实现。
(总结)
由以上说明的实施方式等公开了以下的方式。
第1方式所涉及的作业支援系统1具备传感器2和生成部3。传感器2检测在作业区域11内设定的自动检测区域14内存在的物体。生成部3基于传感器2的输出,生成包括作业区域11内的多个作业事件的顺序的作业工序。
在第1方式所涉及的作业支援系统1中,能够容易地生成作业工序。
第2方式所涉及的作业支援系统1在第1方式中,还具备提示作业工序的提示部4。
在第2方式所涉及的作业支援系统1中,能够提示作业工序,因此用户能够确认作业工序。
第3方式所涉及的作业支援系统1在第1或者2方式中,传感器2包括距离图像传感器21,该距离图像传感器21连续地生成将从传感器2到存在于自动检测区域14的物体的距离值设为像素值的距离图像。
在第3方式所涉及的作业支援系统1中,与使用拣选传感器作为传感器2的情况相比,能够提高作业者的作业性。
第4方式所涉及的作业支援系统1在第1~3方式中的任一个方式中,传感器2包括图像传感器22。
在第4方式所涉及的作业支援系统1中,用户能够一边观察从图像传感器22输出的图像一边设定自动检测区域14。
第5方式所涉及的作业支援系统1在第1~4方式中的任一个方式中,还具备编辑部5,该编辑部5基于来自用户接口6的输入信息来编辑作业工序。
在第5方式所涉及的作业支援系统1中,用户能够利用用户接口进行作业工序的编辑。
第6方式所涉及的作业支援系统1在第1~5方式中的任一个方式中,还具备设定部7,该设定部7根据来自用户接口6的输入信息来设定三维检测区域12。
在第6方式所涉及的作业支援系统1中,能够定制三维检测区域12。
第7方式所涉及的作业支援系统1在第1~6方式中的任一个方式中,具有在生成部3中生成作业工序的第1模式和使用在生成部3中生成的作业工序的第2模式,在第2模式中将传感器2的输出利用于作业支援。
第7方式所涉及的作业支援系统1中,能够在第1模式和第2模式这两者中利用相同的传感器2。
第8方式所涉及的作业支援系统1在第7方式中,还具备引导信息提示部8,该引导信息提示部8在第2模式中按照作业工序依次提示多个作业引导信息。
在第8方式所涉及的作业支援系统1中,通过在第2模式中按照作业工序依次提示多个作业引导信息,能够进行作业支援。
第9方式所涉及的作业支援方法基于检测在作业区域11内设定的自动检测区域14内存在的物体的传感器2的输出,生成包括作业区域11内的多个作业事件的顺序的作业工序。
在第9方式所涉及的作业支援方法中,能够容易地生成作业工序。
第10方式所涉及的程序使计算机系统执行如下处理:基于检测在作业区域11内设定的自动检测区域14内存在的物体的传感器2的输出,生成包括作业区域11内的多个作业事件的顺序的作业工序。
在第10方式所涉及的程序中,能够容易地生成作业工序。
附图标记说明:
1 作业支援系统
2 传感器
3 生成部
4 提示部
5 编辑部
6 用户接口
7 设定部
8 引导信息提示部
9 控制部
11 作业区域
12 三维检测区域
14 自动检测区域
100 作业者。
Claims (10)
1.一种作业支援系统,具备:
传感器,对在作业区域内设定的自动检测区域内存在的物体进行检测;以及
生成部,基于所述传感器的输出,生成包括所述作业区域内的多个作业事件的顺序在内的作业工序。
2.根据权利要求1所述的作业支援系统,其中,
还具备提示所述作业工序的提示部。
3.根据权利要求1或2所述的作业支援系统,其中,
所述传感器包括距离图像传感器,该距离图像传感器连续地生成将从所述传感器开始到存在于所述自动检测区域的物体为止的距离值设为像素值的距离图像。
4.根据权利要求1~3中的任一项所述的作业支援系统,其中,
所述传感器包括图像传感器。
5.根据权利要求1~4中的任一项所述的作业支援系统,其中,
还具备编辑部,所述编辑部基于来自用户接口的输入信息来编辑所述作业工序。
6.根据权利要求1~5中的任一项所述的作业支援系统,其中,
还具备设定部,所述设定部根据来自用户接口的输入信息来设定三维检测区域。
7.根据权利要求1~6中的任一项所述的作业支援系统,其中,
具有在所述生成部中生成所述作业工序的第1模式和使用在所述生成部中生成的所述作业工序的第2模式,在所述第2模式中将所述传感器的输出利用于作业支援。
8.根据权利要求7所述的作业支援系统,其中,
还具备引导信息提示部,所述引导信息提示部在所述第2模式中按照所述作业工序依次提示多个作业引导信息。
9.一种作业支援方法,
基于对在作业区域内设定的自动检测区域内存在的物体进行检测的传感器的输出,生成包括所述作业区域内的多个作业事件的顺序在内的作业工序。
10.一种程序,使计算机系统执行如下处理:
基于对在作业区域内设定的自动检测区域内存在的物体进行检测的传感器的输出,生成包括所述作业区域内的多个作业事件的顺序在内的作业工序。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-229318 | 2017-11-29 | ||
JP2017229318 | 2017-11-29 | ||
PCT/JP2018/038401 WO2019106987A1 (ja) | 2017-11-29 | 2018-10-16 | 作業支援システム、作業支援方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111417976A true CN111417976A (zh) | 2020-07-14 |
Family
ID=66664887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880076962.1A Pending CN111417976A (zh) | 2017-11-29 | 2018-10-16 | 作业支援系统、作业支援方法以及程序 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JPWO2019106987A1 (zh) |
CN (1) | CN111417976A (zh) |
WO (1) | WO2019106987A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118103307A (zh) * | 2021-10-20 | 2024-05-28 | 爱鸥自动化系统有限公司 | 操作辅助装置和非暂时性存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009080759A (ja) * | 2007-09-27 | 2009-04-16 | Park:Kk | セル生産方式工程管理方法 |
JP2011134224A (ja) * | 2009-12-25 | 2011-07-07 | Honda Motor Co Ltd | 組立作業支援システムおよびプログラム |
JP2013025478A (ja) * | 2011-07-19 | 2013-02-04 | Panasonic Corp | 作業検知システム |
CN103869469A (zh) * | 2012-12-13 | 2014-06-18 | 精工爱普生株式会社 | 头戴式显示装置、该装置的控制方法以及作业支援系统 |
CN103994729A (zh) * | 2013-02-19 | 2014-08-20 | 株式会社安川电机 | 物体检测装置、机器人系统及物体检测方法 |
-
2018
- 2018-10-16 CN CN201880076962.1A patent/CN111417976A/zh active Pending
- 2018-10-16 JP JP2019557058A patent/JPWO2019106987A1/ja active Pending
- 2018-10-16 WO PCT/JP2018/038401 patent/WO2019106987A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009080759A (ja) * | 2007-09-27 | 2009-04-16 | Park:Kk | セル生産方式工程管理方法 |
JP2011134224A (ja) * | 2009-12-25 | 2011-07-07 | Honda Motor Co Ltd | 組立作業支援システムおよびプログラム |
JP2013025478A (ja) * | 2011-07-19 | 2013-02-04 | Panasonic Corp | 作業検知システム |
CN103869469A (zh) * | 2012-12-13 | 2014-06-18 | 精工爱普生株式会社 | 头戴式显示装置、该装置的控制方法以及作业支援系统 |
CN103994729A (zh) * | 2013-02-19 | 2014-08-20 | 株式会社安川电机 | 物体检测装置、机器人系统及物体检测方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2019106987A1 (ja) | 2020-11-19 |
WO2019106987A1 (ja) | 2019-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12008915B2 (en) | Weld training systems to synchronize weld data for presentation | |
US10959795B2 (en) | Remote-control manipulator system and method of operating the same | |
EP3268949B1 (en) | Methods and apparatus to provide visual information associated with welding operations | |
US20110316977A1 (en) | Method of cnc profile cutting program manipulation | |
US9535538B2 (en) | System, information processing apparatus, and information processing method | |
US20160253082A1 (en) | Numerical controller for controlling machine tool | |
WO2018066576A1 (ja) | 外観検査方法 | |
US20200047302A1 (en) | Machine system and control method | |
JP2013150265A5 (zh) | ||
WO2010110000A1 (ja) | プログラマブル表示器 | |
US11416978B2 (en) | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor | |
CN115803155A (zh) | 编程装置 | |
US10788434B2 (en) | Method for inspecting an object optically | |
CN111417976A (zh) | 作业支援系统、作业支援方法以及程序 | |
JP2022176190A5 (zh) | ||
CN116297531B (zh) | 机器视觉检测方法、系统、介质及设备 | |
US11830177B2 (en) | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor | |
US20240338886A1 (en) | Recording medium, display data generation apparatus, and display data generation method | |
JP6948294B2 (ja) | 作業異常検知支援装置、作業異常検知支援方法、および作業異常検知支援プログラム | |
JP6987902B2 (ja) | 制御装置、制御方法及びプログラム | |
JP6220514B2 (ja) | ロボット制御システムおよびロボット制御方法 | |
JP2010071687A (ja) | 動画データ解析プログラム | |
WO2020032140A1 (ja) | 投影制御装置、投影制御方法および投影制御システム | |
JP2006235699A (ja) | シミュレーション装置及びシミュレーション方法 | |
KR102536120B1 (ko) | 피쉬아이 카메라를 이용한 감시 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200714 |
|
RJ01 | Rejection of invention patent application after publication |