KR20220040225A - Cooking device and operating method thereof - Google Patents
Cooking device and operating method thereof Download PDFInfo
- Publication number
- KR20220040225A KR20220040225A KR1020200123161A KR20200123161A KR20220040225A KR 20220040225 A KR20220040225 A KR 20220040225A KR 1020200123161 A KR1020200123161 A KR 1020200123161A KR 20200123161 A KR20200123161 A KR 20200123161A KR 20220040225 A KR20220040225 A KR 20220040225A
- Authority
- KR
- South Korea
- Prior art keywords
- cooking
- level
- oil vapor
- food material
- processor
- Prior art date
Links
- 238000010411 cooking Methods 0.000 title claims abstract description 210
- 238000011017 operating method Methods 0.000 title 1
- 235000013305 food Nutrition 0.000 claims abstract description 69
- 238000004140 cleaning Methods 0.000 claims abstract description 62
- 238000011109 contamination Methods 0.000 claims abstract description 49
- 238000010438 heat treatment Methods 0.000 claims abstract description 22
- 239000000463 material Substances 0.000 claims description 45
- 238000000034 method Methods 0.000 claims description 43
- 238000004891 communication Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 5
- 238000012423 maintenance Methods 0.000 claims description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 claims description 3
- 239000007921 spray Substances 0.000 claims description 2
- 235000012041 food component Nutrition 0.000 abstract description 11
- 239000005417 food ingredient Substances 0.000 abstract description 11
- 239000003595 mist Substances 0.000 abstract 2
- 239000003921 oil Substances 0.000 description 74
- 238000012549 training Methods 0.000 description 13
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000004615 ingredient Substances 0.000 description 6
- QGZKDVFQNNGYKY-UHFFFAOYSA-N Ammonia Chemical compound N QGZKDVFQNNGYKY-UHFFFAOYSA-N 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- 235000008429 bread Nutrition 0.000 description 2
- 239000000356 contaminant Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 235000002767 Daucus carota Nutrition 0.000 description 1
- 244000000626 Daucus carota Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 229910021529 ammonia Inorganic materials 0.000 description 1
- 235000015278 beef Nutrition 0.000 description 1
- 235000012970 cakes Nutrition 0.000 description 1
- 230000003749 cleanliness Effects 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 235000021185 dessert Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 244000144977 poultry Species 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004092 self-diagnosis Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47J—KITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
- A47J36/00—Parts, details or accessories of cooking-vessels
- A47J36/32—Time-controlled igniting mechanisms or alarm devices
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47J—KITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
- A47J37/00—Baking; Roasting; Grilling; Frying
- A47J37/06—Roasters; Grills; Sandwich grills
- A47J37/0623—Small-size cooking ovens, i.e. defining an at least partially closed cooking cavity
- A47J37/0664—Accessories
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B08—CLEANING
- B08B—CLEANING IN GENERAL; PREVENTION OF FOULING IN GENERAL
- B08B3/00—Cleaning by methods involving the use or presence of liquid or steam
- B08B3/04—Cleaning involving contact with liquid
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Food Science & Technology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 개시(disclosure)는 영상 인식을 통해 조리실의 오염도를 측정하여, 조리실의 청소를 가이드할 수 있는 조리 기기에 관한 것이다.The present disclosure relates to a cooking appliance capable of guiding cleaning of a cooking compartment by measuring a contamination level of a cooking compartment through image recognition.
오븐과 같은 열을 이용하는 조리 기기는 일상 생활에 있어서 필수적인 가전 제품이다. BACKGROUND ART A cooking appliance using heat, such as an oven, is an essential home appliance in daily life.
조리 기기는 조리실 내부의 요리물을 가열하여 조리를 하게 된다. 조리실 내부는 요리물의 요리에 따라 오염될 수 있어, 조리실의 청소가 때론 필요하다.The cooking device heats the food inside the cooking chamber to cook it. The inside of the cooking compartment may be contaminated depending on the cooking of the food, and it is sometimes necessary to clean the cooking compartment.
대한민국 공개특허 KR2012-0046756A는 자가진단에 의한 청소안내가 가능한 오븐을 제공하고, 오븐 고 내에 오염원으로부터 발생되는 암모니아 가스를 측정하고 기준치 이상일 경우, 오븐의 청소에 대한 알림 및 청소 모드를 동작시키는 내용을 개시하고 있다.Korean Patent Laid-Open Patent KR2012-0046756A provides an oven that can guide cleaning by self-diagnosis, measures ammonia gas generated from a contaminant in the oven cabinet, and when it is above the standard value, notifies about cleaning of the oven and operates the cleaning mode. is starting
그러나, 종래 기술은 오염원의 부폐로 인해 발생되는 암모니아 측정량을 통해 오븐의 청소 유무를 판단한다. 이 경우, 오염물에 의한 유해 가스가 발생하는 수준에서 판단 가능하기 때문에 오염이 이미 진행된 상황일 수 있어, 오븐의 위생/청소에 대한 선제적 가이드가 어려운 문제가 있다.However, in the prior art, it is determined whether the oven is cleaned based on the amount of ammonia generated due to decay of the pollutant. In this case, since it can be determined at the level at which harmful gas is generated due to the contaminants, the contamination may have already progressed, so there is a problem in that it is difficult to preemptively guide the sanitation/cleaning of the oven.
또한, 오븐 고내의 위생 수준 판단 기준을 암모니아 가스 측정량 만으로 일반화 어려운 문제가 있다. In addition, there is a problem in that it is difficult to generalize the standard for determining the hygiene level in the oven only to the amount of ammonia gas measured.
본 개시는 조리 과정에서 발생되는 오염도를 인식하여, 오염도에 맞는 조리실의 청소를 선제적으로 가이드할 수 있는 조리 기기의 제공을 그 목적으로 한다.An object of the present disclosure is to provide a cooking appliance capable of preemptively guiding cleaning of a cooking chamber suitable for a level of pollution by recognizing a degree of pollution generated during a cooking process.
본 개시는 조리 과정에서 발생되는 오염도를 인식하여, 오염도에 맞는 조리실의 청소를 선제적으로 자동 수행할 수 있는 조리 기기의 제공을 그 목적으로 한다.An object of the present disclosure is to provide a cooking appliance capable of preemptively and automatically cleaning a cooking chamber suitable for a level of pollution by recognizing a degree of pollution generated during a cooking process.
본 개시는 조리실의 오염도에 따라 단계 별 청소 관리를 제공할 수 있는 조리 기기의 제공을 그 목적으로 한다.An object of the present disclosure is to provide a cooking appliance capable of providing cleaning management for each stage according to the degree of contamination of the cooking chamber.
본 개시의 실시 예에 따른 조리 기기는 카메라를 통해 촬영된 이미지로부터, 식별된 식재료가 유증기를 발생하는 식품군에 속하는 경우, 상기 식재료의 조리 상태를 나타내는 조리 상태 정보에 기초하여, 상기 조리실의 오염도를 결정하고, 결정된 오염도에 따라 청소 가이드 정보를 상기 디스플레이부를 통해 표시할 수 있다.The cooking appliance according to an embodiment of the present disclosure determines the contamination level of the cooking chamber based on cooking state information indicating the cooking state of the food material when the food material identified from the image captured by the camera belongs to a food group generating oil vapor. It may be determined, and cleaning guide information may be displayed through the display unit according to the determined degree of contamination.
본 개시의 실시 예에 따른 조리 기기는 결정된 오염도에 맞는 청소를 자동 수행하도록 가열부를 제어할 수 있다.The cooking appliance according to an embodiment of the present disclosure may control the heating unit to automatically perform cleaning according to the determined contamination level.
본 개시의 실시 예에 따른 조리 기기는 오염도가 제1 오염 레벨인 경우, 사용자로 하여금 간이 청소를 수행하도록 하는 제1 청소 가이드 정보를 상기 디스플레이부를 통해 표시하고, 상기 오염도가 상기 제1 오염 레벨보다 큰 제2 오염 레벨인 경우, 상기 사용자로 하여금 상기 조리실의 내부에 물을 분사하도록 하고, 제1 청소 모드로 자동 동작함을 나타내는 제2 청소 가이드 정보를 상기 디스플레이부를 통해 표시하고, 상기 오염도가 상기 제2 오염 레벨보다 큰 제3 오염 레벨인 경우, 제2 청소 모드로 자동 동작 함을 나타내는 제3 청소 가이드 정보를 상기 디스플레이부를 통해 표시할 수 있다.The cooking appliance according to an embodiment of the present disclosure displays, through the display unit, first cleaning guide information for allowing a user to perform simple cleaning when the pollution level is the first pollution level, and the pollution level is higher than the first pollution level. In the case of a large second pollution level, the user causes the user to spray water into the cooking chamber, and displays second cleaning guide information indicating automatic operation in the first cleaning mode through the display unit, and the degree of pollution is When the third pollution level is greater than the second pollution level, third cleaning guide information indicating automatic operation in the second cleaning mode may be displayed through the display unit.
본 개시의 실시 예에 따르면, 조리실의 오염도가 심각해 지기 전에, 조리실의 청소를 위한 정보가 가이드 되어, 사용자는 오염도에 적합한 조치를 효율적으로 취할 수 있다.According to an embodiment of the present disclosure, information for cleaning the cooking compartment is guided before the level of contamination of the cooking compartment becomes serious, so that the user can efficiently take measures suitable for the level of contamination.
본 개시의 실시 예에 따르면, 조리실의 오염도가 심각해 지기 전에, 조리실의 청소가 자동으로 수행되어, 조리실의 청결이 유지될 수 있다.According to an embodiment of the present disclosure, before the pollution degree of the cooking compartment becomes serious, cleaning of the cooking compartment may be automatically performed to maintain the cleanliness of the cooking compartment.
본 개시의 실시 예에 따르면, 사용자에게 추정된 조리실의 오염도에 해당되는 위생/청소 단계를 선택적으로 설정 가능하도록 제공하여, 사용자의 기호에 맞는 청소 관리가 행해질 수 있다.According to an embodiment of the present disclosure, by providing the user with a sanitation/cleaning step corresponding to the estimated pollution degree of the cooking room to be selectively set, cleaning management according to the user's preference can be performed.
도 1은 본 개시의 일 실시 예에 따른 조리 기기를 나타낸 블록도이다.
도 2는 본 개시의 일 실시 예에 따른 조리기기의 사시도이다.
도 3은 도 2의 조리기기에서 도어가 열린 상태를 보여주는 사시도이다.
도 4는 본 개시의 일 실시 예에 따른 조리 기기의 동작 방법을 설명하는 흐름도이다.
도 5 및 도 6은 본 개시의 실시 예에 따른 객체 감지 모델의 학습 과정을 설명하는 도면이다.
도 7은 본 개시의 일 실시 예에 따른 객체 식별 모델의 학습 과정을 보여준다.
도 8은 유증기를 발생하는 식품군을 나타내는 도면일 수 있다.
도 9는 본 개시의 일 실시 예에 따른 식재료에 따른 유증기 발생 정도를 나타내는 유증기 발생 추정 테이블을 도시한 도면이다.
도 10은 본 개시의 일 실시 예에 따라 유증기 감지 시점부터, 식재료의 조리 기간에 따라 유증기 발생 추정 레벨을 결정하는 방법을 설명하는 도면이다.
도 11은 본 개시의 실시 예에 따른 유증기 발생 추정 레벨 및 식재료의 조리 횟수에 따라 조리실의 오염도를 결정하는 과정을 설명하는 도면이다.
도 12 내지 도 14는 결정된 오염도에 따라 조리 기기의 디스플레이부를 통해 가이드 정보를 표시하는 예를 설명하는 도면이다.1 is a block diagram illustrating a cooking appliance according to an embodiment of the present disclosure.
2 is a perspective view of a cooking appliance according to an embodiment of the present disclosure;
3 is a perspective view illustrating a state in which a door is opened in the cooking appliance of FIG. 2 .
4 is a flowchart illustrating a method of operating a cooking appliance according to an embodiment of the present disclosure.
5 and 6 are diagrams for explaining a learning process of an object detection model according to an embodiment of the present disclosure.
7 shows a learning process of an object identification model according to an embodiment of the present disclosure.
8 may be a view showing a food group generating oil vapor.
9 is a diagram illustrating an oil vapor generation estimation table indicating a degree of oil vapor generation according to a food material according to an embodiment of the present disclosure.
10 is a view for explaining a method of determining an estimated oil vapor generation level according to a cooking period of a food material from a time point of detecting oil vapor according to an embodiment of the present disclosure;
11 is a view for explaining a process of determining a contamination degree of a cooking room according to an estimated level of oil vapor generation and the number of times of cooking of ingredients according to an embodiment of the present disclosure.
12 to 14 are views for explaining an example of displaying guide information through a display unit of a cooking appliance according to a determined degree of pollution.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 '모듈' 및 '부'는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted. The suffixes 'module' and 'part' for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the present specification is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present disclosure , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.
도 1은 본 개시의 일 실시 예에 따른 조리 기기를 나타낸 블록도이다. 1 is a block diagram illustrating a cooking appliance according to an embodiment of the present disclosure.
도 1을 참조하면, 조리 기기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170), 프로세서(180) 및 가열부(190)를 포함할 수 있다.Referring to FIG. 1 , a
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치나 AI 서버 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.The
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.In this case, the communication technology used by the
통신부(110)는 통신 모뎀(communication modem) 또는 통신 회로(communication circuit)라고도 칭할 수 있다.The
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.The
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.In this case, the
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.The
입력부(120)는 영상 신호 입력을 위한 카메라(Camera, 121), 오디오 신호를 수신하기 위한 마이크로폰(Microphone, 122), 사용자로부터 정보를 입력 받기 위한 사용자 입력부(User Input Unit, 123)를 포함할 수 있다. The
입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어 명령으로 처리될 수 있다.The voice data or image data collected by the
입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 조리 기기(100)는 하나 또는 복수의 카메라(121)들을 구비할 수 있다.The
카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(Display Unit, 151)에 표시되거나 메모리(170)에 저장될 수 있다.The
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 조리 기기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 적용될 수 있다.The microphone 122 processes an external sound signal as electrical voice data. The processed voice data may be utilized in various ways according to a function (or a running application program) being performed by the
사용자 입력부(123)는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 프로세서(180)는 입력된 정보에 대응되도록 조리 기기(100)의 동작을 제어할 수 있다. The
사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예컨대, 조리 기기(100)의 전/후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.The
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.The
이때, 러닝 프로세서(130)는 AI 서버의 러닝 프로세서과 함께 AI 프로세싱을 수행할 수 있다.In this case, the learning
이때, 러닝 프로세서(130)는 조리 기기(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), 조리 기기(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.In this case, the running
센싱부(140)는 다양한 센서들을 이용하여 조리 기기(100) 내부 정보, 조리 기기(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.The
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.At this time, sensors included in the
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. The
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.In this case, the
출력부(150)는 디스플레이부(Display Unit, 151), 음향 출력부(Sound Output Unit, 152), 햅틱 모듈(Haptic Module, 153), 광 출력부(Optical Output Unit, 154) 중 적어도 하나를 포함할 수 있다. The
디스플레이부(151)는 조리 기기(100)에서 처리되는 정보를 표시(출력)한다. 예컨대, 디스플레이부(151)는 조리 기기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. The
디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 조리 기기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. The
음향 출력부(152)는 리시버(receiver), 스피커(speaker), 버저(buzzer) 중 적어도 하나 이상을 포함할 수 있다.The
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다.The
광출력부(154)는 조리 기기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 조리 기기(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.The
메모리(170)는 조리 기기(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.The
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, 조리 기기(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 조리 기기(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.The
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 조리 기기(100)의 구성 요소들을 제어할 수 있다.To this end, the
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.In this case, when the connection of the external device is required to perform the determined operation, the
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.The
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다. In this case, the
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버의 러닝 프로세서에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.At this time, at least one of the STT engine and the NLP engine may be configured as an artificial neural network, at least a part of which is learned according to a machine learning algorithm. And, at least one or more of the STT engine or the NLP engine may be learned by the learning
프로세서(180)는 조리 기기(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 조리 기기(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, 조리 기기(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.The
가열부(190)는 공급되는 에너지를 이용하여 열을 발생시킬 수 있다. The
가열부(190)는 공급되는 전기를 이용하여 열을 발생시키고, 발생시킨 열을 이용하여 조리 기기(100)의 내부를 가열시킬 수 있다. The
가열부(190)는 조리실(12)의 내부에 구비될 수 있다. 가열부(190)는 조리실(12)의 측단 또는 하단에 배치될 수 있다.The
가열부(190)는 전기 에너지를 열 에너지로 변환하는 회로를 포함할 수 있다.The
이하에서, 조리 기기(100)는 인공 지능 조리 기기(100) 또는 인공 지능 오븐(oven)이라 칭할 수도 있다.Hereinafter, the
또한, 조리 기기(100)가 벽에 부착된 형태로 구비되는 경우, 월 오븐(Wall Oven)이라 명명될 수 있다.Also, when the
도 2는 본 개시의 일 실시 예에 따른 조리기기의 사시도이고, 도 3은 도 2의 조리기기에서 도어가 열린 상태를 보여주는 사시도이다.FIG. 2 is a perspective view of a cooking appliance according to an embodiment of the present disclosure, and FIG. 3 is a perspective view illustrating a state in which the door is opened in the cooking appliance of FIG. 2 .
조리 기기(100)는, 내부에 각종 부품을 수용하는 본체(10)를 포함할 수 있다. The
본체(10)는, 조리실(12)을 형성하는 내측 프레임(11)과, 내측 프레임(11)의 외측에서 내측 프레임(11)을 둘러싸는 외측 프레임(14)을 포함할 수 있다. The
내측 프레임(11)의 상단부에는 카메라(121)가 구비될 수 있다. 카메라(121)는 조리실(12)을 촬영할 수 있다. 촬영된 이미지는 조리 중인 식재료를 인식하는데 사용될 수 있다.A
내측 프레임(11)의 전단부에는 본체 패널(16)이 구비될 수 있다. A
본체 패널(16)은 상기 내측 프레임(11)의 전단부에 결합되거나 전단부와 일체로 형성될 수 있다. The
도어(20)는, 본체(10)에 힌지 기구(450)에 의해서 회전 가능하게 연결될 수 있다. The
일 예로 도어(20)의 하단에 힌지 기구(450)가 연결될 수 있다. For example, the
조리실(12)로 공급된 열에 의한 온도 상승을 최소화하기 위하여, 도어(20) 외부의 공기는 도어(20) 내부로 유동할 수 있다. In order to minimize the temperature rise due to the heat supplied to the
따라서, 도어(20)는 도어(20) 내부를 유동한 공기가 배출되는 도어 공기 출구(21)를 포함하고, 상기 본체(10)는 상기 도어 공기 출구(21)를 통해 배출된 공기가 유입되는 본체 공기 입구(17)를 포함할 수 있다. Accordingly, the
본체 공기 입구(17)는 본체 패널(16)에 형성될 수 있다. The
또한, 본체 공기 입구(17)를 통해 본체(10)로 유입된 공기는 상기 본체(10)를 유동한 후에 본체 공기 출구(18)를 통해 본체(10)의 외부로 배출될 수 있다. In addition, the air introduced into the
본체 공기 출구(18)도 본체 패널(16)에 형성될 수 있다. A
도어(20)는 컨트롤 장치(300)를 더 포함할 수 있다. The
컨트롤 장치(300)는 제한적이지는 않으나, 도어(20)에서 상측부에 위치되고, 도어(20)가 닫힌 상태에서 본체 패널(16) 중에서 조리실(12)의 상측에 위치되는 부분과 마주보도록 위치될 수 있다. The
컨트롤 장치(300)는, 디스플레이부(151)와 사용자 입력부(123) 중 하나 이상을 포함할 수 있다. The
디스플레이부(151)는 터치 입력을 수신할 수 있는 터치 스크린의 형태로 구현될 수 있다.The
컨트롤 장치(300)를 통해서 조리 기기(100)의 작동 정보를 표시 및/또는 사용자의 작동 명령을 입력받을 수 있다. Operation information of the
도 4는 본 개시의 일 실시 예에 따른 조리 기기의 동작 방법을 설명하는 흐름도이다.4 is a flowchart illustrating a method of operating a cooking appliance according to an embodiment of the present disclosure.
특히, 도 4는 조리 상태를 인지하여, 조리 기기(100)의 조리실(12)의 청소 또는 위생에 대해 선제적(Proactive)으로 대응할 수 있는 방법을 설명하는 도면이다.In particular, FIG. 4 is a view for explaining a method of preemptively responding to cleaning or hygiene of the
도 4를 참조하면, 조리 기기(100)의 프로세서(180)는 식재료의 조리가 개시된 경우, 카메라(121)를 통해 조리실(12)을 촬영한 이미지를 획득한다(S401). Referring to FIG. 4 , the
프로세서(180)는 사용자 입력부(123) 또는 디스플레이부(151)를 통해 조리 개시 명령을 수신한 경우, 조리 기기(100)에 탑재된 카메라(121)를 통해 조리실(12)의 내부를 촬영하고, 촬영된 이미지를 획득할 수 있다.When receiving a cooking start command through the
프로세서(180)는 식재료의 조리 개시 명령을 수신하고, 조리 개시 명령을 수신한 시점부터, 카메라(121)의 동작을 온 시킬 수 있다.The
프로세서(180)는 영상 인식 모델을 이용하여, 획득된 이미지로부터 하나 이상의 식재료를 식별한다(S403).The
프로세서(180)는 영상 인식 모델를 이용하여, 이미지에 포함된 식재료를 식별할 수 있다.The
영상 인식 모델은 딥 러닝 알고리즘 또는 머신 러닝 알고리즘에 의해 학습된 인공 신경만 기반의 모델일 수 있다.The image recognition model may be a model based only on artificial neurons trained by a deep learning algorithm or a machine learning algorithm.
영상 인식 모델은 이미지 데이터를 기반으로, 이미지 데이터에 포함된 객체가 무엇인지를 추론하는 모델일 수 있다. 객체는 식재료가 될 수 있다.The image recognition model may be a model for inferring what an object included in the image data is based on the image data. An object can be a food ingredient.
영상 인식 모델은 인공 지능 서버에 의해 학습되고, 인공 지능 서버로부터 수신되어 조리 기기(100)의 메모리(170)에 저장된 모델일 수 있다.The image recognition model may be a model learned by the artificial intelligence server, received from the artificial intelligence server, and stored in the
프로세서(180)는 메모리(170)에 저장된 영상 인식 모델을 이용하여, 이미지에 상응하는 이미지 데이터로부터 이미지에 포함된 식재료를 식별할 수 있다.The
또 다른 예로, 프로세서(180)는 촬영된 이미지를 통신부(110)를 통해 인공 지능 서버에 전송할 수 있다. 인공 지능 서버는 영상 인식 모델을 이용하여, 이미지로부터 객체 식별 정보를 추출할 수 있고, 추출된 객체 식별 정보를 조리 기기(100)에 전송할 수 있다.As another example, the
영상 인식 모델은 객체 감지 모델 및 객체 식별 모델을 포함할 수 있다.The image recognition model may include an object detection model and an object identification model.
객체 감지 모델은 이미지 데이터로부터 하나 이상의 객체를 감지하는 모델이고, 객체 식별 모델은 감지된 하나 이상의 객체가 무엇인지를 식별하는 모델일 수 있다.The object detection model may be a model for detecting one or more objects from image data, and the object identification model may be a model for identifying which one or more detected objects are.
객체 감지 모델을 이용하여, 영상으로부터, 복수의 객체들을 감지하고, 객체 식별 모델을 이용하여, 감지된 객체를 식별하는 과정을 설명한다.A process of detecting a plurality of objects from an image using the object detection model and identifying the detected object using the object identification model will be described.
도 5 및 도 6은 본 개시의 실시 예에 따른 객체 감지 모델의 학습 과정을 설명하는 도면이다.5 and 6 are diagrams for explaining a learning process of an object detection model according to an embodiment of the present disclosure.
도 5를 참조하면, 객체 감지 모델(510)은 복수의 영상 데이터들을 포함하는 학습용 영상 데이터 세트(500)를 이용하여, 각 학습용 영상 데이터로부터, 복수의 객체들을 포함하는 객체 경계 박스 세트를 획득할 수 있다.Referring to FIG. 5 , the
객체 경계 박스 세트는 객체를 포함하는 경계 박스들의 집합일 수 있다.The object bounding box set may be a set of bounding boxes including an object.
객체 감지 모델(510)은 SSD(Single Shot multibox Detector) MobilenetV2, Faster R-CNN Inception, YOLO(You Only Look Once) 알고리즘을 이용하여, 영상 데이터로부터, 복수의 객체들을 감지할 수 있다.The
YOLO(You Only Look Once) 알고리즘은 복수의 CNN들로 구성될 수 있다.The You Only Look Once (YOLO) algorithm may consist of a plurality of CNNs.
YOLO(You Only Look Once) 알고리즘은 그리드 분할 과정, 예측 과정, 신뢰도 계산 과정, 객체 선정 과정을 포함할 수 있다.The You Only Look Once (YOLO) algorithm may include a grid segmentation process, a prediction process, a reliability calculation process, and an object selection process.
그리드 분할 과정은 이미지 데이터를 복수의 그리드들로 나누는 과정일 수 있다. 복수의 그리드들 각각의 크기는 동일할 수 있다.The grid division process may be a process of dividing image data into a plurality of grids. Each of the plurality of grids may have the same size.
예측 과정은 각 그리드에 대해 그리드 중앙을 중심으로, 미리 정의된 형태(predefined shape)로 지정된 경계 박스의 개수를 예측하는 과정일 수 있다. The prediction process may be a process of predicting the number of bounding boxes designated in a predefined shape with a grid center as a center for each grid.
미리 정의된 형태(predefined shape)로 지정된 경계 박스는 K-평균 알고리즘에 의한 데이터로부터 생성될 수 있고, 객체의 크기 및 형태에 대한 사전 정보를 담고 있을 수 있다.A bounding box designated as a predefined shape may be generated from data by a K-means algorithm, and may contain prior information about the size and shape of an object.
각 경계 박스는 각기 다른 크기 및 형태의 객체를 감지하도록 설계될 수 있다.Each bounding box may be designed to detect objects of different sizes and shapes.
각 경계 박스는 객체의 형태 또는 경계를 나타낼 수도 있다.Each bounding box may indicate the shape or boundary of an object.
신뢰도 계산 과정은 예측 과정에서, 얻어진 경계 박스들 각각에 객체가 포함되어 있는지, 배경만 단독으로 있는지 여부에 따라, 경계 박스의 신뢰도를 계산하는 과정일 수 있다.The reliability calculation process may be a process of calculating the reliability of the bounding box according to whether an object is included in each of the bounding boxes obtained in the prediction process or whether there is only a background alone.
객체 판단 과정은 신뢰도 계산 과정에 따라 기 설정된 값 이상의 신뢰도를 갖는 경계 박스에 객체가 존재하는 것으로 판단하는 과정일 수 있다.The object determination process may be a process of determining that an object exists in a bounding box having a reliability greater than or equal to a preset value according to a reliability calculation process.
객체 판단 과정을 통해 이미지 데이터(600)에 포함된 복수의 경계 박스들(601 내지 607)이 추출될 수 있다.A plurality of bounding
프로세서(180)는 객체 감지 모델(510)을 통해 추출된 복수의 경계 박스들로부터, 각 객체의 식별 정보를 획득할 수 있다.The
프로세서(180)는 객체 식별 모델을 이용하여, 각 경계 박스에 해당하는 이미지 데이터로부터, 경계 박스 내에 존재하는 객체를 식별할 수 있다.The
객체 식별 모델은 딥 러닝 알고리즘 또는 머신 러닝 알고리즘을 이용하여, 학습된 인공 신경망 기반의 모델일 수 있다.The object identification model may be an artificial neural network-based model trained using a deep learning algorithm or a machine learning algorithm.
객체 식별 모델은 지도 학습을 통해 학습된 모델일 수 있다.The object identification model may be a model learned through supervised learning.
객체 식별 모델은 이미지 데이터로부터, 객체의 식별 정보를 추론하는 모델일 수 있다. 객체의 식별 정보는 객체의 명칭, 객체의 식별자 등 객체를 식별하는 정보일 수 있다.The object identification model may be a model for inferring object identification information from image data. The object identification information may be information identifying the object, such as the name of the object and the identifier of the object.
객체 식별 모델은 학습용 이미지 데이터 및 학습용 이미지 데이터에 레이블된 레이블링 데이터를 포함하는 트레이닝 데이터 세트를 입력 데이터로 하여, 객체의 식별 정보를 출력하는 모델일 수 있다.The object identification model may be a model that outputs identification information of an object using, as input data, a training data set including image data for training and labeling data labeled on the image data for training.
도 7은 본 개시의 일 실시 예에 따른 객체 식별 모델의 학습 과정을 보여준다.7 shows a learning process of an object identification model according to an embodiment of the present disclosure.
도 7을 참조하면, 객체 식별 모델(700)은 학습용 이미지 데이터 및 이에 레이블된 레이블링 데이터를 포함하는 트레이닝 데이터 세트를 이용하여, 객체 식별 정보를 추론할 수 있다.Referring to FIG. 7 , the
레이블링 데이터는 정답 데이터로, 객체 식별 정보일 수 있다.The labeling data is correct answer data and may be object identification information.
객체 식별 모델(700)은 레이블링 데이터와 객체 식별 정보 간의 차이에 상응하는 비용 함수를 최소화하도록 학습될 수 있다.The
객체 식별 모델(700)의 비용 함수는 각 이미지 데이터에 상응하는 객체 식별 정보에 대한 라벨과, 각 이미지 데이터로부터 추론된 객체 식별 정보 간의 차이의 제곱 평균으로 표현될 수 있다.The cost function of the
학습용 이미지 데이터에서 입력 특징 벡터가 추출되어, 입력되면, 객체의 식별 결과가 대상 특징 벡터로서 출력되고, 객체 식별 모델(700)은 출력된 대상 특징 벡터와 라벨링된 객체 식별 정보의 차이에 상응하는 손실 함수를 최소화하도록 학습되는 것일 수 있다.When an input feature vector is extracted from the training image data and input, an object identification result is output as a target feature vector, and the
객체 식별 모델(700)은 조리 기기(100)의 러닝 프로세서(130) 또는 AI 서버의 러닝 프로세서에 의해 학습되어, 조리 기기(100)에 탑재될 수 있다.The
객체 식별 모델(700)은 도 6에 도시된, 제1 경계 박스(601)에 해당되는 제1 이미지 데이터로부터, 제1 객체 식별 정보를 결정할 수 있다. 예를 들어, 제1 객체 식별 정보는 스테이크일 수 있다.The
객체 식별 모델(700)은 제2 경계 박스(603)에 해당되는 제2 이미지 데이터로부터, 제2 객체 식별 정보를 결정할 수 있다. 예를 들어, 제2 객체 식별 정보는 당근일 수 있다.The
이와 같이, 객체 식별 모델(1700)을 통해, 이미지 데이터로부터, 객체가 어떤 식품인지가 식별될 수 있다.In this way, through the object identification model 1700, from the image data, it can be identified what kind of food the object is.
다시, 도 4를 설명한다.Again, FIG. 4 will be described.
프로세서(180)는 식별된 식재료가 유증기를 발생하는 식품군에 속하는지를 판단한다(S405).The
프로세서(180)는 유증기 발생 식품군은 유증기를 발생할 수 있는 복수의 식품들을 포함할 수 있다. 유중기 발생 식품군에 대한 정보는 메모리(170)에 저장되어 있을 수 있다.The
도 8은 유증기를 발생하는 식품군을 나타내는 도면일 수 있다.8 may be a view showing a food group generating oil vapor.
유증기 발생 식품군(800)은 육류(810), 생선(830) 및 빵(850)을 포함할 수 있다.The oil vapor generating
조리 기기(100)의 메모리(170)는 유증기 발생 식품군(800)에 속하는 식품들의 명칭을 포함할 수 있다.The
프로세서(180)는 식별된 식재료가 유증기 발생 식품군(800)에 속하는지를 판단하고, 판단 결과를 출력할 수 있다.The
다시, 도 4를 설명한다.Again, FIG. 4 will be described.
프로세서(180)는 식별된 식재료가 유증기를 발생하는 식품군으로 판단된 경우, 식재료의 조리 상태를 나타내는 조리 상태 정보를 획득한다(S407).When it is determined that the identified food material is a food group generating oil vapor, the
조리 상태 정보는 식재료의 조리 시간, 조리 온도, 유증기 발생 정도 중 하나 이상을 포함할 수 있다.The cooking state information may include one or more of a cooking time, a cooking temperature, and an oil vapor generation level of the food material.
조리 시간은 식재료의 조리 시작 시점부터 조리 종료 시점까지의 시간일 수 있다.The cooking time may be a time from the start time of the cooking of the ingredients to the time at which the cooking ends.
조리 온도는 식재료의 조리 시, 설정된 온도일 수 있다.The cooking temperature may be a set temperature when cooking the food.
유증기 발생 정도는 조리 시간 동안 발생된 유증기의 추정량에 대응될 수 있다. The degree of oil vapor generation may correspond to an estimated amount of oil vapor generated during the cooking time.
조리 기기(100)의 센싱부(140)는 가스 센서(미도시)를 포할 수 있다. 가스 센서는 조리실(12)의 내부에 구비될 수 있다.The
프로세서(180)는 조리 시간 동안, 가스 센서를 통해 유증기의 발생 유무를 감지하고, 유증기가 발생된 경우, 유증기의 발생 정도를 예측할 수 있다.During the cooking time, the
프로세서(180)는 식재료에 따른 유증기 발생 정도를 나타내는 유증기 발생 추정 테이블을 이용하여, 유증기 발생 정도를 획득할 수 있다.The
이에 대해서는, 도 9를 참조하여 설명한다.This will be described with reference to FIG. 9 .
도 9는 본 개시의 일 실시 예에 따른 식재료에 따른 유증기 발생 정도를 나타내는 유증기 발생 추정 테이블을 도시한 도면이다.9 is a diagram illustrating an oil vapor generation estimation table indicating a degree of oil vapor generation according to a food material according to an embodiment of the present disclosure.
도 9의 유증기 발생 추정 테이블(900)은 메모리(170)에 저장되어 있을 수 있다.The oil vapor generation estimation table 900 of FIG. 9 may be stored in the
도 9를 참조하면, 유증기 발생 추정 테이블(900)은 영상 인식 기반을 통해 얻어진 식재료의 식별 정보(카테고리)에 대응하는 유증기 발생 추정 레벨이 매칭되어 있다.Referring to FIG. 9 , in the oil vapor generation estimation table 900, the oil vapor generation estimation level corresponding to identification information (category) of the food material obtained through the image recognition basis is matched.
유증기 발생 추정 레벨은 대/중/소 3개의 레벨로 구별될 수 있으나, 이는 예시에 불과하다. 유증기 발생 추정량이 0~100의 범위를 갖는 경우, 대 레벨은 70이상 100 이하, 중 레벨은 30 이상 70미만, 소 레벨은 0 이상 30 미만의 값에 대응될 수 있다.The estimated level of oil vapor generation may be divided into three levels of large/medium/small, but this is only an example. When the oil vapor generation estimator has a range of 0 to 100, the large level may correspond to a value of 70 or more and 100 or less, the medium level may correspond to a value of 30 or more and less than 70, and the small level may correspond to a value of 0 or more and less than 30.
예를 들어, 식별된 식재료가 Beef, Por, Poultry, fish인 경우, 유증기 발생 추정 레벨은 대 레벨이 될 수 있다.For example, when the identified food material is Beef, Por, Poultry, or fish, the estimated level of oil vapor generation may be a large level.
식별된 식재료가 Pizza인 경우, 유증기 발생 추정 레벨은 중 레벨이 될 수 있다.When the identified ingredient is pizza, the estimated level of oil vapor generation may be a medium level.
식별된 식재료가 Dessert(예를 들어, 빵, 케??, 쿠키 등)인 경우, 유증기 발생 추정 레벨은 소 레벨이 될 수 있다.When the identified food material is a Dessert (eg, bread, cake, cookie, etc.), the estimated level of oil vapor generation may be a small level.
유증기 발생 추정 테이블(900)은 유증기 발생 추정 모델에 의해 학습되어 얻어질 테이블일 수 있다.The oil vapor generation estimation table 900 may be a table to be obtained by learning by the oil steam generation estimation model.
유증기 발생 추정 모델은 식재료에 따라 발생되는 유증기 발생량을 추정하는 인공 신경망 기반의 학습 모델일 수 있다.The oil vapor generation estimation model may be an artificial neural network-based learning model for estimating the amount of oil vapor generated according to food ingredients.
조리 기기(100)의 프로세서(180)는 유증기 발생 추정 테이블(900)을 이용하여, 식별된 식재료에 대응하는 유증기 발생 추정 레벨을 획득할 수 있다.The
다시, 도 4를 설명한다.Again, FIG. 4 will be described.
또 다른 실시 예에 따르면, 프로세서(180)는 유증기가 감지된 시점 및 유증기가 감지된 시점부터, 조리된 기간 동안에 기초하여, 유증기 발생 추정 레벨을 획득할 수 있다.According to another embodiment, the
이에 대해서는, 도 10을 참조하여 설명한다.This will be described with reference to FIG. 10 .
도 10은 본 개시의 일 실시 예에 따라 유증기 감지 시점부터, 식재료의 조리 기간에 따라 유증기 발생 추정 레벨을 결정하는 방법을 설명하는 도면이다.10 is a view for explaining a method of determining an estimated oil vapor generation level according to a cooking period of a food material from a time point of detecting oil vapor according to an embodiment of the present disclosure;
도 10의 그래프의 가로축은 시간이고, 세로축은 온도를 나타낸다.In the graph of FIG. 10 , the horizontal axis represents time, and the vertical axis represents temperature.
프로세서(180)는 조리 개시 후, 조리실(12)에 구비된 가스 센서를 통해 유증기가 감지된 것으로 판단한 경우, 유증기의 발생 시점인 제1 시점(t1)을 획득할 수 있다.When it is determined that oil vapor is detected through a gas sensor provided in the
프로세서(180)는 제1 시점(t1)부터, 제2 시점(t2)이하의 기간까지 유증기의 발생이 유지되는 경우, 유증기 발생 추정 레벨을 소 레벨로 결정할 수 있다.When the generation of oil vapor is maintained from the first time point t1 to a period less than or equal to the second time point t2, the
프로세서(180)는 제1 시점(t1)부터, 제3 시점(t3)이하의 기간까지 유증기의 발생이 유지되는 경우, 유증기 발생 추정 레벨을 중 레벨로 결정할 수 있다.When the generation of oil vapor is maintained from the first time point t1 to a period equal to or less than the third time point t3, the
프로세서(180)는 제1 시점(t1)부터, 제4 시점(t4)을 넘는 기간까지 유증기의 발생이 유지되는 경우, 유증기 발생 추정 레벨을 대 레벨로 결정할 수 있다.When the generation of oil vapor is maintained from the first time point t1 to the period exceeding the fourth time point t4 , the
프로세서(180)는 유증기의 발생 유지 시간이 길어질수록, 유증기 발생 추정 레벨의 값을 증가시킬 수 있다.The
또 다른 예로, 유증기 발생 추정 레벨은 유증기 발생 유지 기간에 온도가 추가적으로 더 고려되어 결정될 수 있다.As another example, the estimated oil vapor generation level may be determined by further considering the temperature during the oil vapor generation and maintenance period.
프로세서(180)는 제1 시점(t1)부터, 제2 시점(t2)이하의 기간까지 유증기의 발생이 유지되고, 조리실(12)의 가열 온도가 일정 온도(K)이상인 경우, 유증기 발생 추정 레벨을 소 레벨로 결정할 수 있다.The
프로세서(180)는 제1 시점(t1)부터, 제3 시점(t3)이하의 기간까지 유증기의 발생이 유지되고, 조리실(12)의 가열 온도가 일정 온도(K)이상인 경우, 유증기 발생 추정 레벨을 중 레벨로 결정할 수 있다.The
프로세서(180)는 제1 시점(t1)부터, 제4 시점(t4)을 넘는 기간까지 유증기의 발생이 유지되고, 조리실(12)의 가열 온도가 일정 온도(K)이상인 경우, 유증기 발생 추정 레벨을 대 레벨로 결정할 수 있다.The
다시, 도 4를 설명한다.Again, FIG. 4 will be described.
프로세서(180)는 식재료의 조리 종료 후, 획득된 조리 상태 정보에 기초하여, 조리실(12)의 오염도를 결정한다(S409).The
조리실(12)의 오염도는 제1 오염 레벨, 제1 오염 레벨보다 큰 제2 오염 레벨, 제2 오염 레벨보다 큰 제3 오염 레벨로 구분될 수 있다.The contamination level of the
일 실시 예에서, 프로세서(180)는 조리 상태 정보에 포함된 유증기 발생 추정 레벨을 이용하여, 조리실(12)의 오염도를 결정할 수 있다.In an embodiment, the
예를 들어, 프로세서(180)는 유증기 발생 추정 레벨이 대 레벨인 경우, 오염도를 제3 오염 레벨로 결정할 수 있다. 프로세서(180)는 유증기 발생 추정 레벨이 중 레벨인 경우, 오염도를 제2 오염 레벨로 결정할 수 있다. 프로세서(180)는 유증기 발생 추정 레벨이 소 레벨인 경우, 오염도를 제1 오염 레벨로 결정할 수 있다.For example, when the estimated level of oil vapor generation is a large level, the
또 다른 실시 예에서, 프로세서(180)는 조리 상태 정보 및 조리 이력 상태 정보에 기초하여, 조리실(12)의 오염도를 결정할 수 있다.In another embodiment, the
조리 이력 상태 정보는 조리실(12)의 마지막 청소 후, 식재료의 조리 횟수를 포함할 수 있다. 여기서, 식재료는 이전 조리에서 사용된 재료와 동일한 식재료일 수 있으나, 이에 한정될 필요는 없다.The cooking history state information may include the number of times the food ingredients are cooked after the last cleaning of the
프로세서(180)는 조리실(12)의 마지막 청소 후, 도어(20)가 1회 개방 및 1회 폐쇄된 경우, 이를 1회의 조리 횟수로 결정할 수 있다.When the
조리 횟수는 조리실(12)의 사용 횟수로 표현될 수도 있다.The number of times of cooking may be expressed as the number of times of use of the
프로세서(180)는 유증기 발생 추정 레벨 및 조리 횟수에 기초하여, 조리실(12)의 오염도를 결정할 수 있다.The
이에 대해서는, 도 11을 참조하여 설명한다.This will be described with reference to FIG. 11 .
도 11은 본 개시의 실시 예에 따른 유증기 발생 추정 레벨 및 식재료의 조리 횟수에 따라 조리실의 오염도를 결정하는 과정을 설명하는 도면이다.11 is a view for explaining a process of determining a degree of contamination of a cooking room according to an estimated level of oil vapor generation and the number of times of cooking of ingredients according to an embodiment of the present disclosure.
도 11의 오염도 결정 테이블(1100)은 조리 기기(100)의 메모리(170)에 미리 저장되어 있을 수 있다.The pollution level determination table 1100 of FIG. 11 may be previously stored in the
예를 들어, 프로세서(180)는 유증기 발생 추정 레벨이 대 레벨 또는 중 레벨이고, 식재료의 조리 횟수가 7회 이상인 경우, 오염도를 제3 오염 레벨로 결정할 수 있다.For example, the
프로세서(180)는 유증기 발생 추정 레벨이 대 레벨 또는 중 레벨이고, 식재료의 조리 횟수가 1회 이상 6회 이하인 경우, 오염도를 제2 오염 레벨로 결정할 수 있다.The
프로세서(180)는 유증기 발생 추정 레벨이 소 레벨이고, 식재료의 조리 횟수가 6회 이상인 경우, 오염도를 제2 오염 레벨로 결정할 수 있다.The
프로세서(180)는 유증기 발생 추정 레벨이 소 레벨이고, 식재료의 조리 횟수가 3회 이상 6회 이하인 경우, 오염도를 제1 오염 레벨로 결정할 수 있다.The
프로세서(180)는 결정된 조리실(12)의 오염도에 기초하여, 조리실(12)의 청소를 가이드하는 가이드 정보를 출력하거나, 조리실(12)의 자동 청소를 개시한다(S411).The
가이드 정보는 결정된 오염도에 적합한 조리실(12)의 청소 방법을 가이드하기 위한 정보일 수 있다. 가이드 정보는 조리실(12)의 청소 방법을 가이드하는 텍스트 또는 이미지 중 하나 이상을 포함할 수 있다.The guide information may be information for guiding a cleaning method of the
프로세서(180)는 디스플레이부(151)를 통해 가이드 정보를 표시할 수 있다.The
프로세서(180)는 가이드 정보를 통신부(110)를 통해 사용자의 이동 단말기에 전송할 수도 있다.The
프로세서(180)는 가이드 정보를 출력하면서, 결정된 오염도에 따라 필요한 경우, 조리실(12)의 자동 청소를 개시할 수 있다.The
예를 들어, 프로세서(180)는 결정된 오염도가 제2 오염 레벨인 경우, 제1 온도로, 일정 시간 동안 조리실(12)을 가열하도록 가열부(190)를 제어할 수 있다.For example, when the determined contamination level is the second contamination level, the
또 다른 예로, 프로세서(180)는 결정된 오염도가 제3 오염 레벨인 경우, 제2 온도 이상으로, 일정 시간 동안, 조리실(12)을 고온 가열하도록 가열부(190)를 제어할 수 있다.As another example, when the determined contamination level is the third contamination level, the
이에 대해서는 도 12 내지 도 14를 참조하여 설명한다.This will be described with reference to FIGS. 12 to 14 .
도 12 내지 도 14는 결정된 오염도에 따라 조리 기기의 디스플레이부를 통해 가이드 정보를 표시하는 예를 설명하는 도면이다.12 to 14 are views for explaining an example of displaying guide information through the display unit of the cooking appliance according to the determined pollution level.
도 12는 결정된 오염도가 제1 오염 레벨인 경우, 표시되는 제1 청소 가이드 정보(1200)를 보여주는 도면이다.12 is a view showing the first
프로세서(180)는 오염도가 제1 오염 레벨로 결정된 경우, 제1 청소 가이드 정보(1200)를 디스플레이부(151)를 통해 표시할 수 있다.When the pollution degree is determined as the first pollution level, the
제1 청소 가이드 정보(1200)는 제1 가이드 텍스트(1210) 및 제1 가이드 이미지(1230)를 포함할 수 있다.The first
제1 가이드 텍스트(1210)는 오염도가 제1 오염 레벨이고, 간이 청소를 수행라는 텍스트를 포함할 수 있다. 간이 청소는 사용자가 수동으로 조리실(12)을 청소하는 것일 수 있다.The
제1 가이드 이미지(1230)는 간이 청소를 수행하는 방법을 나타내는 이미지일 수 있다.The
도 13은 결정된 오염도가 제2 오염 레벨인 경우, 표시되는 제2 청소 가이드 정보(1300)를 보여주는 도면이다.13 is a view showing second
프로세서(180)는 오염도가 제2 오염 레벨로 결정된 경우, 제2 청소 가이드 정보(1300)를 디스플레이부(151)를 통해 표시할 수 있다.When the pollution degree is determined as the second pollution level, the
제2 청소 가이드 정보(1300)는 제2 가이드 텍스트(1310) 및 제2 가이드 이미지(1330)를 포함할 수 있다.The second
제2 가이드 텍스트(1310)는 오염도가 제2 오염 레벨이고, Easy Clean 모드를 자동으로 동작시킴을 나타내고, 조리실(12)의 내부에 물의 분사를 유도하는 텍스트를 포함할 수 있다.The
Easy Clean 모드는 제1 온도로, 일정 시간 동안 조리실(12)을 가열하여, 조리실(12)의 내부를 청소하는 모드일 수 있다. The Easy Clean mode may be a mode in which the interior of the
제2 가이드 이미지(1330)는 조리실(12)의 내부에 물을 분사함을 나타내는 이미지일 수 있다.The
도 14는 결정된 오염도가 제3 오염 레벨인 경우, 표시되는 제3 청소 가이드 정보(1400)를 보여주는 도면이다.14 is a view showing third
프로세서(180)는 오염도가 제3 오염 레벨로 결정된 경우, 제3 청소 가이드 정보(1400)를 디스플레이부(151)를 통해 표시할 수 있다.When the pollution degree is determined as the third pollution level, the
제3 청소 가이드 정보(1400)는 제3 가이드 텍스트(1410)를 포함할 수 있다.The third
제3 가이드 텍스트(1410)는 오염도가 제3 오염 레벨이고, Self-Clean 모드로 자동 동작함을 나타내는 텍스트를 포함할 수 있다.The
Self-Clean 모드는 제1 온도보다 큰 제2 온도로 일정 시간 동안, 조리실(12) 내부를 고온으로 가열하는 청소 모드일 수 있다.The self-clean mode may be a cleaning mode in which the inside of the
이와 같이, 본 개시의 실시 예에 따르면, 조리실(12)의 오염 정도가 자동으로 측정되어, 사용자에게 오염 정도에 최적화된 조리실(12)의 청소 가이드가 제공될 수 있다.As such, according to an embodiment of the present disclosure, the degree of contamination of the
또한, 조리실(12)의 상태를 파악하여, 청소/위생을 위한 가이드 및 청소 모드로 동작을 통해, 조리실(12)의 오염에 선제적으로 대응할 수 있는 효과가 있다.In addition, there is an effect of preemptively responding to contamination of the
한편, 본 개시의 또 다른 실시 예에 따르면, 오염 레벨은 사용자의 설정에 따라 달라질 수 있다. 오염 레벨이 달라짐에 따라 그에 상응하는 청소 가이드 정보 또한 달라질 수 있다. Meanwhile, according to another embodiment of the present disclosure, the pollution level may vary according to a user's setting. As the level of contamination changes, the corresponding cleaning guide information may also vary.
즉, 사용자의 기호에 따라 오염 레벨이 달라질 수 있어, 개인화된 청소 가이드가 제공될 수 있다.That is, the level of contamination may vary according to the user's preference, and thus a personalized cleaning guide may be provided.
본 개시의 일 실시 예에 따르면, 전술한 방법은 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.According to an embodiment of the present disclosure, the above-described method may be implemented as computer-readable code on a medium in which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this.
Claims (14)
디스플레이부;
조리실;
상기 조리실의 내부를 가열하는 가열부;
상기 조리실을 촬영하는 카메라; 및
상기 카메라를 통해 촬영된 이미지로부터, 식재료를 식별하고, 식별된 식재료가 유증기를 발생하는 식품군에 속하는지를 판단하고, 상기 식별된 식재료가 유증기를 발생하는 식품군에 속하는 경우, 상기 식재료의 조리 상태를 나타내는 조리 상태 정보를 획득하고, 획득된 조리 상태 정보에 기초하여, 상기 조리실의 오염도를 결정하고, 결정된 오염도에 따라 청소 가이드 정보를 상기 디스플레이부를 통해 표시하거나, 상기 조리실의 청소 모드를 동작시키도록 상기 가열부를 제어하는 프로세서를 포함하는
조리 기기.In the cooking appliance,
display unit;
cuisine;
a heating unit for heating the inside of the cooking chamber;
a camera for photographing the cooking room; and
From the image captured by the camera, the food material is identified, whether the identified food material belongs to a food group generating oil vapor, and when the identified food material belongs to a food group generating oil vapor, the cooking state of the food material is displayed Obtaining cooking state information, determining the contamination level of the cooking compartment based on the obtained cooking state information, displaying cleaning guide information through the display unit according to the determined contamination level, or operating the cleaning mode of the cooking compartment comprising a processor for controlling wealth
cooking appliance.
상기 프로세서는
상기 오염도가 제1 오염 레벨인 경우, 사용자로 하여금 간이 청소를 수행하도록 하는 제1 청소 가이드 정보를 상기 디스플레이부를 통해 표시하고,
상기 오염도가 상기 제1 오염 레벨보다 큰 제2 오염 레벨인 경우, 상기 사용자로 하여금 상기 조리실의 내부에 물을 분사하도록 하고, 제1 청소 모드로 자동 동작함을 나타내는 제2 청소 가이드 정보를 상기 디스플레이부를 통해 표시하는
조리 기기.According to claim 1,
the processor is
When the pollution level is the first pollution level, first cleaning guide information for allowing a user to perform simple cleaning is displayed through the display unit,
When the pollution level is a second pollution level greater than the first pollution level, the user causes the user to spray water into the cooking chamber and displays second cleaning guide information indicating automatic operation in the first cleaning mode marked through wealth
cooking appliance.
상기 프로세서는
상기 오염도가 상기 제2 오염 레벨보다 큰 제3 오염 레벨인 경우, 제2 청소 모드로 자동 동작 함을 나타내는 제3 청소 가이드 정보를 상기 디스플레이부를 통해 표시하고,
상기 제2 청소 모드 하에서, 상기 가열부의 가열 온도 및 가열 시간 각각은 상기 제1 청소 모드 하에서 상기 가열부의 가열 온도 및 가열 시간 각각보다 큰
조리 기기.3. The method of claim 2,
the processor is
When the contamination level is a third contamination level greater than the second contamination level, third cleaning guide information indicating automatic operation in the second cleaning mode is displayed through the display unit,
Under the second cleaning mode, each of the heating temperature and heating time of the heating unit is greater than each of the heating temperature and heating time of the heating unit under the first cleaning mode
cooking appliance.
상기 조리 상태 정보는
상기 식재료의 유증기 발생 추정 레벨을 포함하고,
상기 조리 기기는 상기 식재료의 식별 정보에 상기 유증기 발생 추정 레벨을 매칭시킨 유증기 발생 추정 테이블을 저장하는 메모리를 더 포함하고,
상기 프로세서는
상기 유증기 발생 추정 테이블을 이용하여, 상기 식별된 식재료에 맞는 상기 유증기 발생 추정 레벨을 획득하고,
획득된 유증기 발생 추정 레벨을 이용하여, 상기 오염도를 결정하는
조리 기기.According to claim 1,
The cooking status information is
Including the estimated level of oil vapor generation of the food material,
The cooking appliance further includes a memory for storing an oil vapor generation estimation table in which the oil steam generation estimation level is matched with the identification information of the food material,
the processor is
using the oil vapor generation estimation table to obtain the oil vapor generation estimation level suitable for the identified food material,
Determining the pollution level using the obtained oil vapor generation estimated level
cooking appliance.
상기 조리 상태 정보는
상기 식재료의 유증기 발생 추정 레벨을 포함하고,
상기 프로세서는
상기 식재료의 조리 중, 유증기의 발생 시점을 획득하고, 상기 발생 시점부터, 상기 유증기의 발생 유지 시간에 기초하여, 상기 유증기 발생 추정 레벨을 결정하고,
결정된 유증기 발생 추정 레벨을 이용하여, 상기 오염도를 결정하는
조리 기기.According to claim 1,
The cooking status information is
Including the estimated level of oil vapor generation of the food material,
the processor is
obtaining a time point of generation of oil vapor during cooking of the food material, and determining the estimated level of oil vapor generation from the time point of generation, based on a generation and maintenance time of the oil vapor;
Determining the pollution level using the determined oil vapor generation estimated level
cooking appliance.
상기 프로세서는
상기 유증기의 발생 유지 시간이 길어질수록, 상기 유증기 발생 추정 레벨의 값을 증가시키는
조리 기기.6. The method of claim 5,
the processor is
As the generation and maintenance time of the oil vapor increases, the value of the estimated oil vapor generation level increases.
cooking appliance.
상기 조리실 내에 배치되며, 상기 유증기의 발생을 감지하는 가스 센서를 더 포함하는
조리 기기.6. The method of claim 5,
It is disposed in the cooking chamber, further comprising a gas sensor for detecting the generation of the oil vapor
cooking appliance.
상기 프로세서는
상기 조리 상태 정보 및 조리 이력 상태 정보에 기초하여, 상기 오염도를 결정하고,
상기 조리 상태 정보는
상기 식재료의 유증기 발생 추정 레벨을 포함하고,
상기 조리 이력 상태 정보는 상기 조리실의 조리 횟수를 포함하는
조리 기기.According to claim 1,
the processor is
determining the contamination level based on the cooking state information and the cooking history state information,
The cooking status information is
Including the estimated level of oil vapor generation of the food material,
The cooking history state information includes the number of times of cooking in the cooking chamber.
cooking appliance.
상기 청소 가이드 정보를 사용자의 이동 단말기에 무선으로 전송하는 통신부를 더 포함하는
조리 기기.According to claim 1,
Further comprising a communication unit for wirelessly transmitting the cleaning guide information to the user's mobile terminal
cooking appliance.
이미지 데이터로부터 식재료를 식별하는 영상 인식 모델을 저장하는 메모리를 더 포함하고,
상기 프로세서는
상기 영상 인식 모델을 이용하여, 상기 촬영된 이미지로부터 상기 식재료를 식별하는
조리 기기.According to claim 1,
Further comprising a memory for storing an image recognition model for identifying the food material from the image data,
the processor is
Using the image recognition model to identify the food material from the photographed image
cooking appliance.
상기 영상 인식 모델은
상기 이미지로부터, 상기 식재료를 포함하는 객체 경계 박스를 획득하는 객체 감지 모델 및
상기 객체 경계 박스로부터, 상기 식재료의 식별 정보를 획득하는 객체 식별 모델을 포함하고,
상기 객체 감지 모델 및 상기 객체 식별 모델 각각은 딥 러닝 알고리즘 또는 머신 러닝 알고리즘을 통해 학습된 인공 신경망 기반의 모델인
조리 기기.11. The method of claim 10,
The image recognition model is
an object detection model for obtaining an object bounding box including the food material from the image; and
From the object bounding box, including an object identification model for obtaining identification information of the food material,
Each of the object detection model and the object identification model is an artificial neural network-based model learned through a deep learning algorithm or a machine learning algorithm.
cooking appliance.
상기 프로세서는
상기 식재료의 조리 개시 명령을 수신하고, 상기 조리 개시 명령을 수신한 시점부터, 상기 카메라의 동작을 온 시키는
조리 기기.According to claim 1,
the processor is
Receives a cooking start command of the food, and turns on the camera from the time the cooking start command is received
cooking appliance.
카메라를 통해 조리실을 촬영하는 단계;
촬영된 이미지로부터, 식재료를 식별하는 단계;
식별된 식재료가 유증기를 발생하는 식품군에 속하는지를 판단하는 단계;
상기 식별된 식재료가 유증기를 발생하는 식품군에 속하는 경우, 상기 식재료의 조리 상태를 나타내는 조리 상태 정보를 획득하는 단계;
획득된 조리 상태 정보에 기초하여, 상기 조리실의 오염도를 결정하는 단계; 및
결정된 오염도에 따라 청소 가이드 정보를 디스플레이부를 통해 표시하는 단계를 포함하는
조리 기기의 동작 방법.A method of operating a cooking appliance, comprising:
photographing the cooking room through a camera;
identifying the food material from the photographed image;
determining whether the identified food material belongs to a food group generating oil vapor;
when the identified food material belongs to a food group generating oil vapor, obtaining cooking state information indicating a cooking state of the food material;
determining a contamination level of the cooking chamber based on the obtained cooking state information; and
Displaying cleaning guide information through a display unit according to the determined contamination level
How cooking appliances work.
상기 동작 방법은
카메라를 통해 조리실을 촬영하는 단계;
촬영된 이미지로부터, 식재료를 식별하는 단계;
식별된 식재료가 유증기를 발생하는 식품군에 속하는지를 판단하는 단계;
상기 식별된 식재료가 유증기를 발생하는 식품군에 속하는 경우, 상기 식재료의 조리 상태를 나타내는 조리 상태 정보를 획득하는 단계;
획득된 조리 상태 정보에 기초하여, 상기 조리실의 오염도를 결정하는 단계; 및
결정된 오염도에 따라 청소 가이드 정보를 디스플레이부를 통해 표시하는 단계를 포함하는
비 활성 기록 매체.In a computer-readable inactive recording medium recording an operation method of a cooking appliance,
The method of operation is
photographing the cooking room through a camera;
identifying the food material from the photographed image;
determining whether the identified food material belongs to a food group generating oil vapor;
when the identified food material belongs to a food group generating oil vapor, obtaining cooking state information indicating a cooking state of the food material;
determining a contamination level of the cooking chamber based on the obtained cooking state information; and
Displaying cleaning guide information through a display unit according to the determined contamination level
Inactive recording media.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200123161A KR20220040225A (en) | 2020-09-23 | 2020-09-23 | Cooking device and operating method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200123161A KR20220040225A (en) | 2020-09-23 | 2020-09-23 | Cooking device and operating method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220040225A true KR20220040225A (en) | 2022-03-30 |
Family
ID=80948403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200123161A KR20220040225A (en) | 2020-09-23 | 2020-09-23 | Cooking device and operating method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220040225A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11544925B1 (en) | 2021-09-01 | 2023-01-03 | GOPIZZA Inc. | Kitchen system with food preparation station |
KR102498429B1 (en) * | 2022-08-23 | 2023-02-10 | 피플즈리그 주식회사 | Meat automatic cooking apparatus and controlling method thereof |
WO2024005298A1 (en) * | 2022-06-27 | 2024-01-04 | 삼성전자주식회사 | Electronic device and control method therefor |
-
2020
- 2020-09-23 KR KR1020200123161A patent/KR20220040225A/en active Search and Examination
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11544925B1 (en) | 2021-09-01 | 2023-01-03 | GOPIZZA Inc. | Kitchen system with food preparation station |
US12100208B2 (en) | 2021-09-01 | 2024-09-24 | GOPIZZA Inc. | Method for pizza preparation |
WO2024005298A1 (en) * | 2022-06-27 | 2024-01-04 | 삼성전자주식회사 | Electronic device and control method therefor |
KR102498429B1 (en) * | 2022-08-23 | 2023-02-10 | 피플즈리그 주식회사 | Meat automatic cooking apparatus and controlling method thereof |
WO2024043624A1 (en) * | 2022-08-23 | 2024-02-29 | 피플즈리그 주식회사 | Automatic meat cooking device and control method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20220040225A (en) | Cooking device and operating method thereof | |
US20210164663A1 (en) | Integrated management method and system for kitchen environment using artificial intelligence | |
CN111148944B (en) | Automatic cooking apparatus and method | |
CN111919070B (en) | Fragrance delivery system | |
US20190355014A1 (en) | Predictive analytics system | |
US12050015B2 (en) | Method and system for sensor maintenance | |
CN110136832B (en) | Cognitive ability assessment system and method based on daily behaviors of old people | |
CN111643017B (en) | Cleaning robot control method and device based on schedule information and cleaning robot | |
JP6400834B2 (en) | RECOMMENDATION DEVICE, RECOMMENDATION DETERMINING METHOD, AND COMPUTER PROGRAM | |
CN110908340A (en) | Smart home control method and device | |
AU2019231258B2 (en) | System and method for preventing false alarms due to display images | |
CN110895934A (en) | Household appliance control method and device | |
US20200072471A1 (en) | Food preparation entity | |
KR102242648B1 (en) | Artificial intelligence cooking system | |
EP4029417A1 (en) | Method for controlling cooker by using artificial intelligence and system therefor | |
EP3670729A1 (en) | Laundry treatment device and method of operating the same | |
CN112426060A (en) | Control method, cooking appliance, server and readable storage medium | |
JPWO2010143361A1 (en) | Work recognition device | |
CN110989430A (en) | Smart home linkage method and system and readable storage medium | |
KR100873373B1 (en) | User Intention Recognizing System and Method thereof | |
US20240335083A1 (en) | Mobile terminal and system | |
CN108131786B (en) | Control method and device of air conditioner | |
KR20220059726A (en) | Cooking device and operating method thereof | |
EP4462026A1 (en) | Cooking device and operating method thereof | |
CN114839901B (en) | Control method and device of intelligent equipment, storage medium and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |