[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20220040225A - Cooking device and operating method thereof - Google Patents

Cooking device and operating method thereof Download PDF

Info

Publication number
KR20220040225A
KR20220040225A KR1020200123161A KR20200123161A KR20220040225A KR 20220040225 A KR20220040225 A KR 20220040225A KR 1020200123161 A KR1020200123161 A KR 1020200123161A KR 20200123161 A KR20200123161 A KR 20200123161A KR 20220040225 A KR20220040225 A KR 20220040225A
Authority
KR
South Korea
Prior art keywords
cooking
level
oil vapor
food material
processor
Prior art date
Application number
KR1020200123161A
Other languages
Korean (ko)
Inventor
박윤식
박현우
남태헌
노경태
송지현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020200123161A priority Critical patent/KR20220040225A/en
Publication of KR20220040225A publication Critical patent/KR20220040225A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J36/00Parts, details or accessories of cooking-vessels
    • A47J36/32Time-controlled igniting mechanisms or alarm devices
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J37/00Baking; Roasting; Grilling; Frying
    • A47J37/06Roasters; Grills; Sandwich grills
    • A47J37/0623Small-size cooking ovens, i.e. defining an at least partially closed cooking cavity
    • A47J37/0664Accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B08CLEANING
    • B08BCLEANING IN GENERAL; PREVENTION OF FOULING IN GENERAL
    • B08B3/00Cleaning by methods involving the use or presence of liquid or steam
    • B08B3/04Cleaning involving contact with liquid
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Food Science & Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

A cooking appliance according to one embodiment of the present invention is configured such that a food ingredient is identified from an image captured by a camera, it is determined whether or not the identified food ingredient belongs to a food group generating oil mist, and when the identified food ingredient belonging to a food group generating oil mist, cooking state information indicating the cooked state of the food ingredient is obtained. Furthermore, the cooking appliance may determine the contamination level of a cooking chamber on the basis of the obtained cooking state information, display cleaning guide information through a display unit according to the determined contamination level, or control a heating unit so as to enable a cleaning mode of the cooking chamber to operate.

Description

조리 기기 및 그의 동작 방법 {COOKING DEVICE AND OPERATING METHOD THEREOF}Cooking device and its operation method {COOKING DEVICE AND OPERATING METHOD THEREOF}

본 개시(disclosure)는 영상 인식을 통해 조리실의 오염도를 측정하여, 조리실의 청소를 가이드할 수 있는 조리 기기에 관한 것이다.The present disclosure relates to a cooking appliance capable of guiding cleaning of a cooking compartment by measuring a contamination level of a cooking compartment through image recognition.

오븐과 같은 열을 이용하는 조리 기기는 일상 생활에 있어서 필수적인 가전 제품이다. BACKGROUND ART A cooking appliance using heat, such as an oven, is an essential home appliance in daily life.

조리 기기는 조리실 내부의 요리물을 가열하여 조리를 하게 된다. 조리실 내부는 요리물의 요리에 따라 오염될 수 있어, 조리실의 청소가 때론 필요하다.The cooking device heats the food inside the cooking chamber to cook it. The inside of the cooking compartment may be contaminated depending on the cooking of the food, and it is sometimes necessary to clean the cooking compartment.

대한민국 공개특허 KR2012-0046756A는 자가진단에 의한 청소안내가 가능한 오븐을 제공하고, 오븐 고 내에 오염원으로부터 발생되는 암모니아 가스를 측정하고 기준치 이상일 경우, 오븐의 청소에 대한 알림 및 청소 모드를 동작시키는 내용을 개시하고 있다.Korean Patent Laid-Open Patent KR2012-0046756A provides an oven that can guide cleaning by self-diagnosis, measures ammonia gas generated from a contaminant in the oven cabinet, and when it is above the standard value, notifies about cleaning of the oven and operates the cleaning mode. is starting

그러나, 종래 기술은 오염원의 부폐로 인해 발생되는 암모니아 측정량을 통해 오븐의 청소 유무를 판단한다. 이 경우, 오염물에 의한 유해 가스가 발생하는 수준에서 판단 가능하기 때문에 오염이 이미 진행된 상황일 수 있어, 오븐의 위생/청소에 대한 선제적 가이드가 어려운 문제가 있다.However, in the prior art, it is determined whether the oven is cleaned based on the amount of ammonia generated due to decay of the pollutant. In this case, since it can be determined at the level at which harmful gas is generated due to the contaminants, the contamination may have already progressed, so there is a problem in that it is difficult to preemptively guide the sanitation/cleaning of the oven.

또한, 오븐 고내의 위생 수준 판단 기준을 암모니아 가스 측정량 만으로 일반화 어려운 문제가 있다. In addition, there is a problem in that it is difficult to generalize the standard for determining the hygiene level in the oven only to the amount of ammonia gas measured.

본 개시는 조리 과정에서 발생되는 오염도를 인식하여, 오염도에 맞는 조리실의 청소를 선제적으로 가이드할 수 있는 조리 기기의 제공을 그 목적으로 한다.An object of the present disclosure is to provide a cooking appliance capable of preemptively guiding cleaning of a cooking chamber suitable for a level of pollution by recognizing a degree of pollution generated during a cooking process.

본 개시는 조리 과정에서 발생되는 오염도를 인식하여, 오염도에 맞는 조리실의 청소를 선제적으로 자동 수행할 수 있는 조리 기기의 제공을 그 목적으로 한다.An object of the present disclosure is to provide a cooking appliance capable of preemptively and automatically cleaning a cooking chamber suitable for a level of pollution by recognizing a degree of pollution generated during a cooking process.

본 개시는 조리실의 오염도에 따라 단계 별 청소 관리를 제공할 수 있는 조리 기기의 제공을 그 목적으로 한다.An object of the present disclosure is to provide a cooking appliance capable of providing cleaning management for each stage according to the degree of contamination of the cooking chamber.

본 개시의 실시 예에 따른 조리 기기는 카메라를 통해 촬영된 이미지로부터, 식별된 식재료가 유증기를 발생하는 식품군에 속하는 경우, 상기 식재료의 조리 상태를 나타내는 조리 상태 정보에 기초하여, 상기 조리실의 오염도를 결정하고, 결정된 오염도에 따라 청소 가이드 정보를 상기 디스플레이부를 통해 표시할 수 있다.The cooking appliance according to an embodiment of the present disclosure determines the contamination level of the cooking chamber based on cooking state information indicating the cooking state of the food material when the food material identified from the image captured by the camera belongs to a food group generating oil vapor. It may be determined, and cleaning guide information may be displayed through the display unit according to the determined degree of contamination.

본 개시의 실시 예에 따른 조리 기기는 결정된 오염도에 맞는 청소를 자동 수행하도록 가열부를 제어할 수 있다.The cooking appliance according to an embodiment of the present disclosure may control the heating unit to automatically perform cleaning according to the determined contamination level.

본 개시의 실시 예에 따른 조리 기기는 오염도가 제1 오염 레벨인 경우, 사용자로 하여금 간이 청소를 수행하도록 하는 제1 청소 가이드 정보를 상기 디스플레이부를 통해 표시하고, 상기 오염도가 상기 제1 오염 레벨보다 큰 제2 오염 레벨인 경우, 상기 사용자로 하여금 상기 조리실의 내부에 물을 분사하도록 하고, 제1 청소 모드로 자동 동작함을 나타내는 제2 청소 가이드 정보를 상기 디스플레이부를 통해 표시하고, 상기 오염도가 상기 제2 오염 레벨보다 큰 제3 오염 레벨인 경우, 제2 청소 모드로 자동 동작 함을 나타내는 제3 청소 가이드 정보를 상기 디스플레이부를 통해 표시할 수 있다.The cooking appliance according to an embodiment of the present disclosure displays, through the display unit, first cleaning guide information for allowing a user to perform simple cleaning when the pollution level is the first pollution level, and the pollution level is higher than the first pollution level. In the case of a large second pollution level, the user causes the user to spray water into the cooking chamber, and displays second cleaning guide information indicating automatic operation in the first cleaning mode through the display unit, and the degree of pollution is When the third pollution level is greater than the second pollution level, third cleaning guide information indicating automatic operation in the second cleaning mode may be displayed through the display unit.

본 개시의 실시 예에 따르면, 조리실의 오염도가 심각해 지기 전에, 조리실의 청소를 위한 정보가 가이드 되어, 사용자는 오염도에 적합한 조치를 효율적으로 취할 수 있다.According to an embodiment of the present disclosure, information for cleaning the cooking compartment is guided before the level of contamination of the cooking compartment becomes serious, so that the user can efficiently take measures suitable for the level of contamination.

본 개시의 실시 예에 따르면, 조리실의 오염도가 심각해 지기 전에, 조리실의 청소가 자동으로 수행되어, 조리실의 청결이 유지될 수 있다.According to an embodiment of the present disclosure, before the pollution degree of the cooking compartment becomes serious, cleaning of the cooking compartment may be automatically performed to maintain the cleanliness of the cooking compartment.

본 개시의 실시 예에 따르면, 사용자에게 추정된 조리실의 오염도에 해당되는 위생/청소 단계를 선택적으로 설정 가능하도록 제공하여, 사용자의 기호에 맞는 청소 관리가 행해질 수 있다.According to an embodiment of the present disclosure, by providing the user with a sanitation/cleaning step corresponding to the estimated pollution degree of the cooking room to be selectively set, cleaning management according to the user's preference can be performed.

도 1은 본 개시의 일 실시 예에 따른 조리 기기를 나타낸 블록도이다.
도 2는 본 개시의 일 실시 예에 따른 조리기기의 사시도이다.
도 3은 도 2의 조리기기에서 도어가 열린 상태를 보여주는 사시도이다.
도 4는 본 개시의 일 실시 예에 따른 조리 기기의 동작 방법을 설명하는 흐름도이다.
도 5 및 도 6은 본 개시의 실시 예에 따른 객체 감지 모델의 학습 과정을 설명하는 도면이다.
도 7은 본 개시의 일 실시 예에 따른 객체 식별 모델의 학습 과정을 보여준다.
도 8은 유증기를 발생하는 식품군을 나타내는 도면일 수 있다.
도 9는 본 개시의 일 실시 예에 따른 식재료에 따른 유증기 발생 정도를 나타내는 유증기 발생 추정 테이블을 도시한 도면이다.
도 10은 본 개시의 일 실시 예에 따라 유증기 감지 시점부터, 식재료의 조리 기간에 따라 유증기 발생 추정 레벨을 결정하는 방법을 설명하는 도면이다.
도 11은 본 개시의 실시 예에 따른 유증기 발생 추정 레벨 및 식재료의 조리 횟수에 따라 조리실의 오염도를 결정하는 과정을 설명하는 도면이다.
도 12 내지 도 14는 결정된 오염도에 따라 조리 기기의 디스플레이부를 통해 가이드 정보를 표시하는 예를 설명하는 도면이다.
1 is a block diagram illustrating a cooking appliance according to an embodiment of the present disclosure.
2 is a perspective view of a cooking appliance according to an embodiment of the present disclosure;
3 is a perspective view illustrating a state in which a door is opened in the cooking appliance of FIG. 2 .
4 is a flowchart illustrating a method of operating a cooking appliance according to an embodiment of the present disclosure.
5 and 6 are diagrams for explaining a learning process of an object detection model according to an embodiment of the present disclosure.
7 shows a learning process of an object identification model according to an embodiment of the present disclosure.
8 may be a view showing a food group generating oil vapor.
9 is a diagram illustrating an oil vapor generation estimation table indicating a degree of oil vapor generation according to a food material according to an embodiment of the present disclosure.
10 is a view for explaining a method of determining an estimated oil vapor generation level according to a cooking period of a food material from a time point of detecting oil vapor according to an embodiment of the present disclosure;
11 is a view for explaining a process of determining a contamination degree of a cooking room according to an estimated level of oil vapor generation and the number of times of cooking of ingredients according to an embodiment of the present disclosure.
12 to 14 are views for explaining an example of displaying guide information through a display unit of a cooking appliance according to a determined degree of pollution.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 '모듈' 및 '부'는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted. The suffixes 'module' and 'part' for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the present specification is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present disclosure , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.

도 1은 본 개시의 일 실시 예에 따른 조리 기기를 나타낸 블록도이다. 1 is a block diagram illustrating a cooking appliance according to an embodiment of the present disclosure.

도 1을 참조하면, 조리 기기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170), 프로세서(180) 및 가열부(190)를 포함할 수 있다.Referring to FIG. 1 , a cooking appliance 100 includes a communication unit 110 , an input unit 120 , a running processor 130 , a sensing unit 140 , an output unit 150 , a memory 170 , a processor 180 and A heating unit 190 may be included.

통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치나 AI 서버 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.The communication unit 110 may transmit/receive data to and from external devices such as another AI device or an AI server using wired/wireless communication technology. For example, the communication unit 110 may transmit and receive sensor information, a user input, a learning model, a control signal, and the like with external devices.

이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.In this case, the communication technology used by the communication unit 110 includes GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), LTE (Long Term Evolution), 5G, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity) ), Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), ZigBee, NFC (Near Field Communication), and the like.

통신부(110)는 통신 모뎀(communication modem) 또는 통신 회로(communication circuit)라고도 칭할 수 있다.The communication unit 110 may also be referred to as a communication modem or a communication circuit.

입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.The input unit 120 may acquire various types of data.

이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.In this case, the input unit 120 may include a camera for inputting an image signal, a microphone for receiving an audio signal, a user input unit for receiving information from a user, and the like. Here, by treating the camera or the microphone as a sensor, a signal obtained from the camera or the microphone may be referred to as sensing data or sensor information.

입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.The input unit 120 may acquire training data for model training and input data to be used when acquiring an output using the training model. The input unit 120 may acquire raw input data, and in this case, the processor 180 or the learning processor 130 may extract an input feature by preprocessing the input data.

입력부(120)는 영상 신호 입력을 위한 카메라(Camera, 121), 오디오 신호를 수신하기 위한 마이크로폰(Microphone, 122), 사용자로부터 정보를 입력 받기 위한 사용자 입력부(User Input Unit, 123)를 포함할 수 있다. The input unit 120 may include a camera 121 for inputting an image signal, a microphone 122 for receiving an audio signal, and a user input unit 123 for receiving information from a user. there is.

입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어 명령으로 처리될 수 있다.The voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.

입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 조리 기기(100)는 하나 또는 복수의 카메라(121)들을 구비할 수 있다.The input unit 120 is for inputting image information (or signal), audio information (or signal), data, or information input from a user. Cameras 121 may be provided.

카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(Display Unit, 151)에 표시되거나 메모리(170)에 저장될 수 있다.The camera 121 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a shooting mode. The processed image frame may be displayed on the display unit 151 or stored in the memory 170 .

마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 조리 기기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 적용될 수 있다.The microphone 122 processes an external sound signal as electrical voice data. The processed voice data may be utilized in various ways according to a function (or a running application program) being performed by the cooking appliance 100 . Meanwhile, various noise removal algorithms for removing noise generated in the process of receiving an external sound signal may be applied to the microphone 122 .

사용자 입력부(123)는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 프로세서(180)는 입력된 정보에 대응되도록 조리 기기(100)의 동작을 제어할 수 있다. The user input unit 123 is for receiving information from a user, and when information is input through the user input unit 123 , the processor 180 may control the operation of the cooking appliance 100 to correspond to the input information. .

사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예컨대, 조리 기기(100)의 전/후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.The user input unit 123 is a mechanical input means (or a mechanical key, for example, a button located on the front/rear or side of the cooking appliance 100 , a dome switch, a jog wheel, a jog switch, etc.) and a touch input means. As an example, the touch input means consists of a virtual key, a soft key, or a visual key displayed on the touch screen through software processing, or a part other than the touch screen. It may be made of a touch key (touch key) disposed on the.

러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.The learning processor 130 may train a model composed of an artificial neural network by using the training data. Here, the learned artificial neural network may be referred to as a learning model. The learning model may be used to infer a result value with respect to new input data other than the training data, and the inferred value may be used as a basis for a decision to perform a certain operation.

이때, 러닝 프로세서(130)는 AI 서버의 러닝 프로세서과 함께 AI 프로세싱을 수행할 수 있다.In this case, the learning processor 130 may perform AI processing together with the running processor of the AI server.

이때, 러닝 프로세서(130)는 조리 기기(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), 조리 기기(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.In this case, the running processor 130 may include a memory integrated or implemented in the cooking appliance 100 . Alternatively, the running processor 130 may be implemented using the memory 170 , an external memory directly coupled to the cooking appliance 100 , or a memory maintained in an external device.

센싱부(140)는 다양한 센서들을 이용하여 조리 기기(100) 내부 정보, 조리 기기(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.The sensing unit 140 may acquire at least one of internal information of the cooking appliance 100 , information on the surrounding environment of the cooking appliance 100 , and user information by using various sensors.

이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.At this time, sensors included in the sensing unit 140 include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and a lidar. , radar, etc.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. The output unit 150 may generate an output related to sight, hearing, or touch.

이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.In this case, the output unit 150 may include a display unit that outputs visual information, a speaker that outputs auditory information, and a haptic module that outputs tactile information.

출력부(150)는 디스플레이부(Display Unit, 151), 음향 출력부(Sound Output Unit, 152), 햅틱 모듈(Haptic Module, 153), 광 출력부(Optical Output Unit, 154) 중 적어도 하나를 포함할 수 있다. The output unit 150 includes at least one of a display unit (Display Unit, 151), a sound output unit (Sound Output Unit, 152), a haptic module (Haptic Module, 153), and an optical output unit (Optical Output Unit, 154) can do.

디스플레이부(151)는 조리 기기(100)에서 처리되는 정보를 표시(출력)한다. 예컨대, 디스플레이부(151)는 조리 기기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. The display unit 151 displays (outputs) information processed by the cooking appliance 100 . For example, the display unit 151 may display information on an execution screen of an application program driven in the cooking appliance 100 , or user interface (UI) and graphic user interface (GUI) information according to the information on the execution screen.

디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 조리 기기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The display unit 151 may implement a touch screen by forming a layer structure with the touch sensor or being integrally formed. Such a touch screen may function as the user input unit 123 providing an input interface between the cooking appliance 100 and the user, and may provide an output interface between the terminal 100 and the user.

음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. The sound output unit 152 may output audio data received from the communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.

음향 출력부(152)는 리시버(receiver), 스피커(speaker), 버저(buzzer) 중 적어도 하나 이상을 포함할 수 있다.The sound output unit 152 may include at least one of a receiver, a speaker, and a buzzer.

햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다.The haptic module 153 generates various tactile effects that the user can feel. A representative example of the tactile effect generated by the haptic module 153 may be vibration.

광출력부(154)는 조리 기기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 조리 기기(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.The light output unit 154 outputs a signal for notifying the occurrence of an event by using the light of the light source of the cooking appliance 100 . Examples of the event occurring in the cooking appliance 100 may be message reception, call signal reception, missed call, alarm, schedule notification, email reception, information reception through an application, and the like.

메모리(170)는 조리 기기(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.The memory 170 may store data supporting various functions of the cooking appliance 100 . For example, the memory 170 may store input data obtained from the input unit 120 , learning data, a learning model, a learning history, and the like.

프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, 조리 기기(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 조리 기기(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.The processor 180 may determine at least one executable operation of the cooking appliance 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the processor 180 may control the components of the cooking appliance 100 to perform the determined operation.

이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 조리 기기(100)의 구성 요소들을 제어할 수 있다.To this end, the processor 180 may request, search, receive, or utilize the data of the learning processor 130 or the memory 170, and perform a predicted operation or an operation determined to be preferable among the at least one executable operation. It is possible to control the components of the cooking appliance 100 to be executed.

이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.In this case, when the connection of the external device is required to perform the determined operation, the processor 180 may generate a control signal for controlling the corresponding external device and transmit the generated control signal to the corresponding external device.

프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.The processor 180 may obtain intention information with respect to a user input, and determine a user's requirement based on the obtained intention information.

이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다. In this case, the processor 180 uses at least one of a speech to text (STT) engine for converting a voice input into a character string or a natural language processing (NLP) engine for obtaining intention information of a natural language, Intention information corresponding to the input may be obtained.

이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버의 러닝 프로세서에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.At this time, at least one of the STT engine and the NLP engine may be configured as an artificial neural network, at least a part of which is learned according to a machine learning algorithm. And, at least one or more of the STT engine or the NLP engine may be learned by the learning processor 130, learned by the learning processor of the AI server, or learned by distributed processing thereof.

프로세서(180)는 조리 기기(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The processor 180 collects history information including user feedback on the operation contents or operation of the cooking appliance 100 and stores it in the memory 170 or the learning processor 130, or to an external device such as an AI server. can be transmitted The collected historical information may be used to update the learning model.

프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 조리 기기(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, 조리 기기(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.The processor 180 may control at least some of the components of the cooking appliance 100 in order to drive an application program stored in the memory 170 . Furthermore, in order to drive the application program, the processor 180 may operate two or more of the components included in the cooking appliance 100 in combination with each other.

가열부(190)는 공급되는 에너지를 이용하여 열을 발생시킬 수 있다. The heating unit 190 may generate heat by using supplied energy.

가열부(190)는 공급되는 전기를 이용하여 열을 발생시키고, 발생시킨 열을 이용하여 조리 기기(100)의 내부를 가열시킬 수 있다. The heating unit 190 may generate heat using supplied electricity, and heat the inside of the cooking appliance 100 using the generated heat.

가열부(190)는 조리실(12)의 내부에 구비될 수 있다. 가열부(190)는 조리실(12)의 측단 또는 하단에 배치될 수 있다.The heating unit 190 may be provided inside the cooking chamber 12 . The heating unit 190 may be disposed at a side end or a lower end of the cooking chamber 12 .

가열부(190)는 전기 에너지를 열 에너지로 변환하는 회로를 포함할 수 있다.The heating unit 190 may include a circuit that converts electrical energy into thermal energy.

이하에서, 조리 기기(100)는 인공 지능 조리 기기(100) 또는 인공 지능 오븐(oven)이라 칭할 수도 있다.Hereinafter, the cooking appliance 100 may be referred to as an artificial intelligence cooking appliance 100 or an artificial intelligence oven.

또한, 조리 기기(100)가 벽에 부착된 형태로 구비되는 경우, 월 오븐(Wall Oven)이라 명명될 수 있다.Also, when the cooking appliance 100 is provided in a form attached to a wall, it may be called a wall oven.

도 2는 본 개시의 일 실시 예에 따른 조리기기의 사시도이고, 도 3은 도 2의 조리기기에서 도어가 열린 상태를 보여주는 사시도이다.FIG. 2 is a perspective view of a cooking appliance according to an embodiment of the present disclosure, and FIG. 3 is a perspective view illustrating a state in which the door is opened in the cooking appliance of FIG. 2 .

조리 기기(100)는, 내부에 각종 부품을 수용하는 본체(10)를 포함할 수 있다. The cooking appliance 100 may include a body 10 accommodating various parts therein.

본체(10)는, 조리실(12)을 형성하는 내측 프레임(11)과, 내측 프레임(11)의 외측에서 내측 프레임(11)을 둘러싸는 외측 프레임(14)을 포함할 수 있다. The body 10 may include an inner frame 11 forming the cooking chamber 12 and an outer frame 14 surrounding the inner frame 11 from the outside of the inner frame 11 .

내측 프레임(11)의 상단부에는 카메라(121)가 구비될 수 있다. 카메라(121)는 조리실(12)을 촬영할 수 있다. 촬영된 이미지는 조리 중인 식재료를 인식하는데 사용될 수 있다.A camera 121 may be provided at an upper end of the inner frame 11 . The camera 121 may photograph the cooking chamber 12 . The captured image may be used to recognize the food being cooked.

내측 프레임(11)의 전단부에는 본체 패널(16)이 구비될 수 있다. A body panel 16 may be provided at the front end of the inner frame 11 .

본체 패널(16)은 상기 내측 프레임(11)의 전단부에 결합되거나 전단부와 일체로 형성될 수 있다. The body panel 16 may be coupled to the front end of the inner frame 11 or may be formed integrally with the front end.

도어(20)는, 본체(10)에 힌지 기구(450)에 의해서 회전 가능하게 연결될 수 있다. The door 20 may be rotatably connected to the body 10 by a hinge mechanism 450 .

일 예로 도어(20)의 하단에 힌지 기구(450)가 연결될 수 있다. For example, the hinge mechanism 450 may be connected to the lower end of the door 20 .

조리실(12)로 공급된 열에 의한 온도 상승을 최소화하기 위하여, 도어(20) 외부의 공기는 도어(20) 내부로 유동할 수 있다. In order to minimize the temperature rise due to the heat supplied to the cooking chamber 12 , air outside the door 20 may flow into the door 20 .

따라서, 도어(20)는 도어(20) 내부를 유동한 공기가 배출되는 도어 공기 출구(21)를 포함하고, 상기 본체(10)는 상기 도어 공기 출구(21)를 통해 배출된 공기가 유입되는 본체 공기 입구(17)를 포함할 수 있다. Accordingly, the door 20 includes a door air outlet 21 through which the air flowing through the door 20 is discharged, and the main body 10 includes a door air outlet 21 through which the air discharged through the door air outlet 21 is introduced. It may include a body air inlet 17 .

본체 공기 입구(17)는 본체 패널(16)에 형성될 수 있다. The body air inlet 17 may be formed in the body panel 16 .

또한, 본체 공기 입구(17)를 통해 본체(10)로 유입된 공기는 상기 본체(10)를 유동한 후에 본체 공기 출구(18)를 통해 본체(10)의 외부로 배출될 수 있다. In addition, the air introduced into the main body 10 through the main body air inlet 17 may be discharged to the outside of the main body 10 through the main body air outlet 18 after flowing through the main body 10 .

본체 공기 출구(18)도 본체 패널(16)에 형성될 수 있다. A body air outlet 18 may also be formed in the body panel 16 .

도어(20)는 컨트롤 장치(300)를 더 포함할 수 있다. The door 20 may further include a control device 300 .

컨트롤 장치(300)는 제한적이지는 않으나, 도어(20)에서 상측부에 위치되고, 도어(20)가 닫힌 상태에서 본체 패널(16) 중에서 조리실(12)의 상측에 위치되는 부분과 마주보도록 위치될 수 있다. The control device 300 is not limited, but is located on the upper side of the door 20 and is positioned to face a portion located above the cooking chamber 12 among the body panel 16 in a state where the door 20 is closed. can be

컨트롤 장치(300)는, 디스플레이부(151)와 사용자 입력부(123) 중 하나 이상을 포함할 수 있다. The control device 300 may include at least one of a display unit 151 and a user input unit 123 .

디스플레이부(151)는 터치 입력을 수신할 수 있는 터치 스크린의 형태로 구현될 수 있다.The display unit 151 may be implemented in the form of a touch screen capable of receiving a touch input.

컨트롤 장치(300)를 통해서 조리 기기(100)의 작동 정보를 표시 및/또는 사용자의 작동 명령을 입력받을 수 있다. Operation information of the cooking appliance 100 may be displayed and/or an operation command from a user may be input through the control device 300 .

도 4는 본 개시의 일 실시 예에 따른 조리 기기의 동작 방법을 설명하는 흐름도이다.4 is a flowchart illustrating a method of operating a cooking appliance according to an embodiment of the present disclosure.

특히, 도 4는 조리 상태를 인지하여, 조리 기기(100)의 조리실(12)의 청소 또는 위생에 대해 선제적(Proactive)으로 대응할 수 있는 방법을 설명하는 도면이다.In particular, FIG. 4 is a view for explaining a method of preemptively responding to cleaning or hygiene of the cooking chamber 12 of the cooking appliance 100 by recognizing a cooking state.

도 4를 참조하면, 조리 기기(100)의 프로세서(180)는 식재료의 조리가 개시된 경우, 카메라(121)를 통해 조리실(12)을 촬영한 이미지를 획득한다(S401). Referring to FIG. 4 , the processor 180 of the cooking appliance 100 acquires an image of the cooking chamber 12 through the camera 121 when cooking of a food ingredient is started ( S401 ).

프로세서(180)는 사용자 입력부(123) 또는 디스플레이부(151)를 통해 조리 개시 명령을 수신한 경우, 조리 기기(100)에 탑재된 카메라(121)를 통해 조리실(12)의 내부를 촬영하고, 촬영된 이미지를 획득할 수 있다.When receiving a cooking start command through the user input unit 123 or the display unit 151, the processor 180 photographs the inside of the cooking chamber 12 through the camera 121 mounted on the cooking appliance 100, A photographed image can be acquired.

프로세서(180)는 식재료의 조리 개시 명령을 수신하고, 조리 개시 명령을 수신한 시점부터, 카메라(121)의 동작을 온 시킬 수 있다.The processor 180 may receive a cooking start command of a food ingredient, and may turn on the camera 121 from the point in time when the cooking start command is received.

프로세서(180)는 영상 인식 모델을 이용하여, 획득된 이미지로부터 하나 이상의 식재료를 식별한다(S403).The processor 180 identifies one or more ingredients from the acquired image by using the image recognition model (S403).

프로세서(180)는 영상 인식 모델를 이용하여, 이미지에 포함된 식재료를 식별할 수 있다.The processor 180 may identify a food ingredient included in the image by using the image recognition model.

영상 인식 모델은 딥 러닝 알고리즘 또는 머신 러닝 알고리즘에 의해 학습된 인공 신경만 기반의 모델일 수 있다.The image recognition model may be a model based only on artificial neurons trained by a deep learning algorithm or a machine learning algorithm.

영상 인식 모델은 이미지 데이터를 기반으로, 이미지 데이터에 포함된 객체가 무엇인지를 추론하는 모델일 수 있다. 객체는 식재료가 될 수 있다.The image recognition model may be a model for inferring what an object included in the image data is based on the image data. An object can be a food ingredient.

영상 인식 모델은 인공 지능 서버에 의해 학습되고, 인공 지능 서버로부터 수신되어 조리 기기(100)의 메모리(170)에 저장된 모델일 수 있다.The image recognition model may be a model learned by the artificial intelligence server, received from the artificial intelligence server, and stored in the memory 170 of the cooking appliance 100 .

프로세서(180)는 메모리(170)에 저장된 영상 인식 모델을 이용하여, 이미지에 상응하는 이미지 데이터로부터 이미지에 포함된 식재료를 식별할 수 있다.The processor 180 may identify a food ingredient included in the image from image data corresponding to the image by using the image recognition model stored in the memory 170 .

또 다른 예로, 프로세서(180)는 촬영된 이미지를 통신부(110)를 통해 인공 지능 서버에 전송할 수 있다. 인공 지능 서버는 영상 인식 모델을 이용하여, 이미지로부터 객체 식별 정보를 추출할 수 있고, 추출된 객체 식별 정보를 조리 기기(100)에 전송할 수 있다.As another example, the processor 180 may transmit the captured image to the artificial intelligence server through the communication unit 110 . The artificial intelligence server may extract object identification information from the image by using the image recognition model, and may transmit the extracted object identification information to the cooking appliance 100 .

영상 인식 모델은 객체 감지 모델 및 객체 식별 모델을 포함할 수 있다.The image recognition model may include an object detection model and an object identification model.

객체 감지 모델은 이미지 데이터로부터 하나 이상의 객체를 감지하는 모델이고, 객체 식별 모델은 감지된 하나 이상의 객체가 무엇인지를 식별하는 모델일 수 있다.The object detection model may be a model for detecting one or more objects from image data, and the object identification model may be a model for identifying which one or more detected objects are.

객체 감지 모델을 이용하여, 영상으로부터, 복수의 객체들을 감지하고, 객체 식별 모델을 이용하여, 감지된 객체를 식별하는 과정을 설명한다.A process of detecting a plurality of objects from an image using the object detection model and identifying the detected object using the object identification model will be described.

도 5 및 도 6은 본 개시의 실시 예에 따른 객체 감지 모델의 학습 과정을 설명하는 도면이다.5 and 6 are diagrams for explaining a learning process of an object detection model according to an embodiment of the present disclosure.

도 5를 참조하면, 객체 감지 모델(510)은 복수의 영상 데이터들을 포함하는 학습용 영상 데이터 세트(500)를 이용하여, 각 학습용 영상 데이터로부터, 복수의 객체들을 포함하는 객체 경계 박스 세트를 획득할 수 있다.Referring to FIG. 5 , the object detection model 510 obtains an object boundary box set including a plurality of objects from each training image data by using a training image data set 500 including a plurality of image data. can

객체 경계 박스 세트는 객체를 포함하는 경계 박스들의 집합일 수 있다.The object bounding box set may be a set of bounding boxes including an object.

객체 감지 모델(510)은 SSD(Single Shot multibox Detector) MobilenetV2, Faster R-CNN Inception, YOLO(You Only Look Once) 알고리즘을 이용하여, 영상 데이터로부터, 복수의 객체들을 감지할 수 있다.The object detection model 510 may detect a plurality of objects from image data by using a Single Shot Multibox Detector (SSD) MobilenetV2, Faster R-CNN Inception, and You Only Look Once (YOLO) algorithms.

YOLO(You Only Look Once) 알고리즘은 복수의 CNN들로 구성될 수 있다.The You Only Look Once (YOLO) algorithm may consist of a plurality of CNNs.

YOLO(You Only Look Once) 알고리즘은 그리드 분할 과정, 예측 과정, 신뢰도 계산 과정, 객체 선정 과정을 포함할 수 있다.The You Only Look Once (YOLO) algorithm may include a grid segmentation process, a prediction process, a reliability calculation process, and an object selection process.

그리드 분할 과정은 이미지 데이터를 복수의 그리드들로 나누는 과정일 수 있다. 복수의 그리드들 각각의 크기는 동일할 수 있다.The grid division process may be a process of dividing image data into a plurality of grids. Each of the plurality of grids may have the same size.

예측 과정은 각 그리드에 대해 그리드 중앙을 중심으로, 미리 정의된 형태(predefined shape)로 지정된 경계 박스의 개수를 예측하는 과정일 수 있다. The prediction process may be a process of predicting the number of bounding boxes designated in a predefined shape with a grid center as a center for each grid.

미리 정의된 형태(predefined shape)로 지정된 경계 박스는 K-평균 알고리즘에 의한 데이터로부터 생성될 수 있고, 객체의 크기 및 형태에 대한 사전 정보를 담고 있을 수 있다.A bounding box designated as a predefined shape may be generated from data by a K-means algorithm, and may contain prior information about the size and shape of an object.

각 경계 박스는 각기 다른 크기 및 형태의 객체를 감지하도록 설계될 수 있다.Each bounding box may be designed to detect objects of different sizes and shapes.

각 경계 박스는 객체의 형태 또는 경계를 나타낼 수도 있다.Each bounding box may indicate the shape or boundary of an object.

신뢰도 계산 과정은 예측 과정에서, 얻어진 경계 박스들 각각에 객체가 포함되어 있는지, 배경만 단독으로 있는지 여부에 따라, 경계 박스의 신뢰도를 계산하는 과정일 수 있다.The reliability calculation process may be a process of calculating the reliability of the bounding box according to whether an object is included in each of the bounding boxes obtained in the prediction process or whether there is only a background alone.

객체 판단 과정은 신뢰도 계산 과정에 따라 기 설정된 값 이상의 신뢰도를 갖는 경계 박스에 객체가 존재하는 것으로 판단하는 과정일 수 있다.The object determination process may be a process of determining that an object exists in a bounding box having a reliability greater than or equal to a preset value according to a reliability calculation process.

객체 판단 과정을 통해 이미지 데이터(600)에 포함된 복수의 경계 박스들(601 내지 607)이 추출될 수 있다.A plurality of bounding boxes 601 to 607 included in the image data 600 may be extracted through the object determination process.

프로세서(180)는 객체 감지 모델(510)을 통해 추출된 복수의 경계 박스들로부터, 각 객체의 식별 정보를 획득할 수 있다.The processor 180 may obtain identification information of each object from a plurality of bounding boxes extracted through the object detection model 510 .

프로세서(180)는 객체 식별 모델을 이용하여, 각 경계 박스에 해당하는 이미지 데이터로부터, 경계 박스 내에 존재하는 객체를 식별할 수 있다.The processor 180 may identify an object existing in the bounding box from image data corresponding to each bounding box by using the object identification model.

객체 식별 모델은 딥 러닝 알고리즘 또는 머신 러닝 알고리즘을 이용하여, 학습된 인공 신경망 기반의 모델일 수 있다.The object identification model may be an artificial neural network-based model trained using a deep learning algorithm or a machine learning algorithm.

객체 식별 모델은 지도 학습을 통해 학습된 모델일 수 있다.The object identification model may be a model learned through supervised learning.

객체 식별 모델은 이미지 데이터로부터, 객체의 식별 정보를 추론하는 모델일 수 있다. 객체의 식별 정보는 객체의 명칭, 객체의 식별자 등 객체를 식별하는 정보일 수 있다.The object identification model may be a model for inferring object identification information from image data. The object identification information may be information identifying the object, such as the name of the object and the identifier of the object.

객체 식별 모델은 학습용 이미지 데이터 및 학습용 이미지 데이터에 레이블된 레이블링 데이터를 포함하는 트레이닝 데이터 세트를 입력 데이터로 하여, 객체의 식별 정보를 출력하는 모델일 수 있다.The object identification model may be a model that outputs identification information of an object using, as input data, a training data set including image data for training and labeling data labeled on the image data for training.

도 7은 본 개시의 일 실시 예에 따른 객체 식별 모델의 학습 과정을 보여준다.7 shows a learning process of an object identification model according to an embodiment of the present disclosure.

도 7을 참조하면, 객체 식별 모델(700)은 학습용 이미지 데이터 및 이에 레이블된 레이블링 데이터를 포함하는 트레이닝 데이터 세트를 이용하여, 객체 식별 정보를 추론할 수 있다.Referring to FIG. 7 , the object identification model 700 may infer object identification information by using a training data set including training image data and labeling data labeled thereto.

레이블링 데이터는 정답 데이터로, 객체 식별 정보일 수 있다.The labeling data is correct answer data and may be object identification information.

객체 식별 모델(700)은 레이블링 데이터와 객체 식별 정보 간의 차이에 상응하는 비용 함수를 최소화하도록 학습될 수 있다.The object identification model 700 may be trained to minimize a cost function corresponding to the difference between the labeling data and the object identification information.

객체 식별 모델(700)의 비용 함수는 각 이미지 데이터에 상응하는 객체 식별 정보에 대한 라벨과, 각 이미지 데이터로부터 추론된 객체 식별 정보 간의 차이의 제곱 평균으로 표현될 수 있다.The cost function of the object identification model 700 may be expressed as a square average of a difference between a label for object identification information corresponding to each image data and object identification information inferred from each image data.

학습용 이미지 데이터에서 입력 특징 벡터가 추출되어, 입력되면, 객체의 식별 결과가 대상 특징 벡터로서 출력되고, 객체 식별 모델(700)은 출력된 대상 특징 벡터와 라벨링된 객체 식별 정보의 차이에 상응하는 손실 함수를 최소화하도록 학습되는 것일 수 있다.When an input feature vector is extracted from the training image data and input, an object identification result is output as a target feature vector, and the object identification model 700 loses a loss corresponding to the difference between the output target feature vector and the labeled object identification information. It can be learned to minimize a function.

객체 식별 모델(700)은 조리 기기(100)의 러닝 프로세서(130) 또는 AI 서버의 러닝 프로세서에 의해 학습되어, 조리 기기(100)에 탑재될 수 있다.The object identification model 700 may be learned by the learning processor 130 of the cooking appliance 100 or the learning processor of the AI server and mounted on the cooking appliance 100 .

객체 식별 모델(700)은 도 6에 도시된, 제1 경계 박스(601)에 해당되는 제1 이미지 데이터로부터, 제1 객체 식별 정보를 결정할 수 있다. 예를 들어, 제1 객체 식별 정보는 스테이크일 수 있다.The object identification model 700 may determine first object identification information from the first image data corresponding to the first bounding box 601 illustrated in FIG. 6 . For example, the first object identification information may be a stake.

객체 식별 모델(700)은 제2 경계 박스(603)에 해당되는 제2 이미지 데이터로부터, 제2 객체 식별 정보를 결정할 수 있다. 예를 들어, 제2 객체 식별 정보는 당근일 수 있다.The object identification model 700 may determine second object identification information from the second image data corresponding to the second bounding box 603 . For example, the second object identification information may be carrots.

이와 같이, 객체 식별 모델(1700)을 통해, 이미지 데이터로부터, 객체가 어떤 식품인지가 식별될 수 있다.In this way, through the object identification model 1700, from the image data, it can be identified what kind of food the object is.

다시, 도 4를 설명한다.Again, FIG. 4 will be described.

프로세서(180)는 식별된 식재료가 유증기를 발생하는 식품군에 속하는지를 판단한다(S405).The processor 180 determines whether the identified food material belongs to a food group generating oil vapor (S405).

프로세서(180)는 유증기 발생 식품군은 유증기를 발생할 수 있는 복수의 식품들을 포함할 수 있다. 유중기 발생 식품군에 대한 정보는 메모리(170)에 저장되어 있을 수 있다.The processor 180 may include a plurality of food products capable of generating oil vapor in the oil vapor generating food group. Information on the food group generated during the oil phase may be stored in the memory 170 .

도 8은 유증기를 발생하는 식품군을 나타내는 도면일 수 있다.8 may be a view showing a food group generating oil vapor.

유증기 발생 식품군(800)은 육류(810), 생선(830) 및 빵(850)을 포함할 수 있다.The oil vapor generating food group 800 may include meat 810 , fish 830 , and bread 850 .

조리 기기(100)의 메모리(170)는 유증기 발생 식품군(800)에 속하는 식품들의 명칭을 포함할 수 있다.The memory 170 of the cooking appliance 100 may include names of foods belonging to the oil vapor generating food group 800 .

프로세서(180)는 식별된 식재료가 유증기 발생 식품군(800)에 속하는지를 판단하고, 판단 결과를 출력할 수 있다.The processor 180 may determine whether the identified food material belongs to the oil vapor generating food group 800 and output the determination result.

다시, 도 4를 설명한다.Again, FIG. 4 will be described.

프로세서(180)는 식별된 식재료가 유증기를 발생하는 식품군으로 판단된 경우, 식재료의 조리 상태를 나타내는 조리 상태 정보를 획득한다(S407).When it is determined that the identified food material is a food group generating oil vapor, the processor 180 obtains cooking state information indicating the cooking state of the food material (S407).

조리 상태 정보는 식재료의 조리 시간, 조리 온도, 유증기 발생 정도 중 하나 이상을 포함할 수 있다.The cooking state information may include one or more of a cooking time, a cooking temperature, and an oil vapor generation level of the food material.

조리 시간은 식재료의 조리 시작 시점부터 조리 종료 시점까지의 시간일 수 있다.The cooking time may be a time from the start time of the cooking of the ingredients to the time at which the cooking ends.

조리 온도는 식재료의 조리 시, 설정된 온도일 수 있다.The cooking temperature may be a set temperature when cooking the food.

유증기 발생 정도는 조리 시간 동안 발생된 유증기의 추정량에 대응될 수 있다. The degree of oil vapor generation may correspond to an estimated amount of oil vapor generated during the cooking time.

조리 기기(100)의 센싱부(140)는 가스 센서(미도시)를 포할 수 있다. 가스 센서는 조리실(12)의 내부에 구비될 수 있다.The sensing unit 140 of the cooking appliance 100 may include a gas sensor (not shown). The gas sensor may be provided inside the cooking chamber 12 .

프로세서(180)는 조리 시간 동안, 가스 센서를 통해 유증기의 발생 유무를 감지하고, 유증기가 발생된 경우, 유증기의 발생 정도를 예측할 수 있다.During the cooking time, the processor 180 may detect whether oil vapor is generated through the gas sensor, and when the oil vapor is generated, predict the generation level of the oil vapor.

프로세서(180)는 식재료에 따른 유증기 발생 정도를 나타내는 유증기 발생 추정 테이블을 이용하여, 유증기 발생 정도를 획득할 수 있다.The processor 180 may obtain the oil vapor generation degree by using the oil vapor generation estimation table indicating the oil vapor generation degree according to the food material.

이에 대해서는, 도 9를 참조하여 설명한다.This will be described with reference to FIG. 9 .

도 9는 본 개시의 일 실시 예에 따른 식재료에 따른 유증기 발생 정도를 나타내는 유증기 발생 추정 테이블을 도시한 도면이다.9 is a diagram illustrating an oil vapor generation estimation table indicating a degree of oil vapor generation according to a food material according to an embodiment of the present disclosure.

도 9의 유증기 발생 추정 테이블(900)은 메모리(170)에 저장되어 있을 수 있다.The oil vapor generation estimation table 900 of FIG. 9 may be stored in the memory 170 .

도 9를 참조하면, 유증기 발생 추정 테이블(900)은 영상 인식 기반을 통해 얻어진 식재료의 식별 정보(카테고리)에 대응하는 유증기 발생 추정 레벨이 매칭되어 있다.Referring to FIG. 9 , in the oil vapor generation estimation table 900, the oil vapor generation estimation level corresponding to identification information (category) of the food material obtained through the image recognition basis is matched.

유증기 발생 추정 레벨은 대/중/소 3개의 레벨로 구별될 수 있으나, 이는 예시에 불과하다. 유증기 발생 추정량이 0~100의 범위를 갖는 경우, 대 레벨은 70이상 100 이하, 중 레벨은 30 이상 70미만, 소 레벨은 0 이상 30 미만의 값에 대응될 수 있다.The estimated level of oil vapor generation may be divided into three levels of large/medium/small, but this is only an example. When the oil vapor generation estimator has a range of 0 to 100, the large level may correspond to a value of 70 or more and 100 or less, the medium level may correspond to a value of 30 or more and less than 70, and the small level may correspond to a value of 0 or more and less than 30.

예를 들어, 식별된 식재료가 Beef, Por, Poultry, fish인 경우, 유증기 발생 추정 레벨은 대 레벨이 될 수 있다.For example, when the identified food material is Beef, Por, Poultry, or fish, the estimated level of oil vapor generation may be a large level.

식별된 식재료가 Pizza인 경우, 유증기 발생 추정 레벨은 중 레벨이 될 수 있다.When the identified ingredient is pizza, the estimated level of oil vapor generation may be a medium level.

식별된 식재료가 Dessert(예를 들어, 빵, 케??, 쿠키 등)인 경우, 유증기 발생 추정 레벨은 소 레벨이 될 수 있다.When the identified food material is a Dessert (eg, bread, cake, cookie, etc.), the estimated level of oil vapor generation may be a small level.

유증기 발생 추정 테이블(900)은 유증기 발생 추정 모델에 의해 학습되어 얻어질 테이블일 수 있다.The oil vapor generation estimation table 900 may be a table to be obtained by learning by the oil steam generation estimation model.

유증기 발생 추정 모델은 식재료에 따라 발생되는 유증기 발생량을 추정하는 인공 신경망 기반의 학습 모델일 수 있다.The oil vapor generation estimation model may be an artificial neural network-based learning model for estimating the amount of oil vapor generated according to food ingredients.

조리 기기(100)의 프로세서(180)는 유증기 발생 추정 테이블(900)을 이용하여, 식별된 식재료에 대응하는 유증기 발생 추정 레벨을 획득할 수 있다.The processor 180 of the cooking appliance 100 may obtain an estimated oil vapor generation level corresponding to the identified food material by using the oil vapor generation estimation table 900 .

다시, 도 4를 설명한다.Again, FIG. 4 will be described.

또 다른 실시 예에 따르면, 프로세서(180)는 유증기가 감지된 시점 및 유증기가 감지된 시점부터, 조리된 기간 동안에 기초하여, 유증기 발생 추정 레벨을 획득할 수 있다.According to another embodiment, the processor 180 may acquire the oil vapor generation estimated level based on a time point at which the oil vapor is sensed and a cooking period from a time point at which the oil vapor is sensed.

이에 대해서는, 도 10을 참조하여 설명한다.This will be described with reference to FIG. 10 .

도 10은 본 개시의 일 실시 예에 따라 유증기 감지 시점부터, 식재료의 조리 기간에 따라 유증기 발생 추정 레벨을 결정하는 방법을 설명하는 도면이다.10 is a view for explaining a method of determining an estimated oil vapor generation level according to a cooking period of a food material from a time point of detecting oil vapor according to an embodiment of the present disclosure;

도 10의 그래프의 가로축은 시간이고, 세로축은 온도를 나타낸다.In the graph of FIG. 10 , the horizontal axis represents time, and the vertical axis represents temperature.

프로세서(180)는 조리 개시 후, 조리실(12)에 구비된 가스 센서를 통해 유증기가 감지된 것으로 판단한 경우, 유증기의 발생 시점인 제1 시점(t1)을 획득할 수 있다.When it is determined that oil vapor is detected through a gas sensor provided in the cooking chamber 12 after cooking is started, the processor 180 may acquire a first time point t1 , which is the generation time of the oil vapor.

프로세서(180)는 제1 시점(t1)부터, 제2 시점(t2)이하의 기간까지 유증기의 발생이 유지되는 경우, 유증기 발생 추정 레벨을 소 레벨로 결정할 수 있다.When the generation of oil vapor is maintained from the first time point t1 to a period less than or equal to the second time point t2, the processor 180 may determine the estimated oil vapor generation level as a small level.

프로세서(180)는 제1 시점(t1)부터, 제3 시점(t3)이하의 기간까지 유증기의 발생이 유지되는 경우, 유증기 발생 추정 레벨을 중 레벨로 결정할 수 있다.When the generation of oil vapor is maintained from the first time point t1 to a period equal to or less than the third time point t3, the processor 180 may determine the estimated oil vapor generation level as a medium level.

프로세서(180)는 제1 시점(t1)부터, 제4 시점(t4)을 넘는 기간까지 유증기의 발생이 유지되는 경우, 유증기 발생 추정 레벨을 대 레벨로 결정할 수 있다.When the generation of oil vapor is maintained from the first time point t1 to the period exceeding the fourth time point t4 , the processor 180 may determine the estimated oil vapor generation level as a large level.

프로세서(180)는 유증기의 발생 유지 시간이 길어질수록, 유증기 발생 추정 레벨의 값을 증가시킬 수 있다.The processor 180 may increase the value of the oil vapor generation estimation level as the oil vapor generation and maintenance time increases.

또 다른 예로, 유증기 발생 추정 레벨은 유증기 발생 유지 기간에 온도가 추가적으로 더 고려되어 결정될 수 있다.As another example, the estimated oil vapor generation level may be determined by further considering the temperature during the oil vapor generation and maintenance period.

프로세서(180)는 제1 시점(t1)부터, 제2 시점(t2)이하의 기간까지 유증기의 발생이 유지되고, 조리실(12)의 가열 온도가 일정 온도(K)이상인 경우, 유증기 발생 추정 레벨을 소 레벨로 결정할 수 있다.The processor 180 maintains the generation of oil vapor from the first time point t1 to a period less than or equal to the second time point t2, and when the heating temperature of the cooking chamber 12 is equal to or higher than a predetermined temperature K, the estimated level of oil vapor generation can be determined as a small level.

프로세서(180)는 제1 시점(t1)부터, 제3 시점(t3)이하의 기간까지 유증기의 발생이 유지되고, 조리실(12)의 가열 온도가 일정 온도(K)이상인 경우, 유증기 발생 추정 레벨을 중 레벨로 결정할 수 있다.The processor 180 maintains the generation of oil vapor from the first time point t1 to a period less than or equal to the third time point t3, and when the heating temperature of the cooking chamber 12 is equal to or higher than a predetermined temperature K, the oil vapor generation estimated level can be determined as an intermediate level.

프로세서(180)는 제1 시점(t1)부터, 제4 시점(t4)을 넘는 기간까지 유증기의 발생이 유지되고, 조리실(12)의 가열 온도가 일정 온도(K)이상인 경우, 유증기 발생 추정 레벨을 대 레벨로 결정할 수 있다.The processor 180 maintains the generation of oil vapor from the first time point t1 to a period exceeding the fourth time point t4, and when the heating temperature of the cooking chamber 12 is equal to or higher than a predetermined temperature K, the oil vapor generation estimated level can be determined as a large level.

다시, 도 4를 설명한다.Again, FIG. 4 will be described.

프로세서(180)는 식재료의 조리 종료 후, 획득된 조리 상태 정보에 기초하여, 조리실(12)의 오염도를 결정한다(S409).The processor 180 determines the contamination level of the cooking chamber 12 based on the obtained cooking state information after cooking of the ingredients is finished ( S409 ).

조리실(12)의 오염도는 제1 오염 레벨, 제1 오염 레벨보다 큰 제2 오염 레벨, 제2 오염 레벨보다 큰 제3 오염 레벨로 구분될 수 있다.The contamination level of the cooking chamber 12 may be divided into a first contamination level, a second contamination level greater than the first contamination level, and a third contamination level greater than the second contamination level.

일 실시 예에서, 프로세서(180)는 조리 상태 정보에 포함된 유증기 발생 추정 레벨을 이용하여, 조리실(12)의 오염도를 결정할 수 있다.In an embodiment, the processor 180 may determine the contamination level of the cooking chamber 12 by using the estimated level of oil vapor generation included in the cooking state information.

예를 들어, 프로세서(180)는 유증기 발생 추정 레벨이 대 레벨인 경우, 오염도를 제3 오염 레벨로 결정할 수 있다. 프로세서(180)는 유증기 발생 추정 레벨이 중 레벨인 경우, 오염도를 제2 오염 레벨로 결정할 수 있다. 프로세서(180)는 유증기 발생 추정 레벨이 소 레벨인 경우, 오염도를 제1 오염 레벨로 결정할 수 있다.For example, when the estimated level of oil vapor generation is a large level, the processor 180 may determine the pollution degree as the third pollution level. When the estimated oil vapor generation level is the medium level, the processor 180 may determine the pollution degree as the second pollution level. When the estimated level of oil vapor generation is a small level, the processor 180 may determine the pollution degree as the first pollution level.

또 다른 실시 예에서, 프로세서(180)는 조리 상태 정보 및 조리 이력 상태 정보에 기초하여, 조리실(12)의 오염도를 결정할 수 있다.In another embodiment, the processor 180 may determine the contamination level of the cooking chamber 12 based on the cooking state information and the cooking history state information.

조리 이력 상태 정보는 조리실(12)의 마지막 청소 후, 식재료의 조리 횟수를 포함할 수 있다. 여기서, 식재료는 이전 조리에서 사용된 재료와 동일한 식재료일 수 있으나, 이에 한정될 필요는 없다.The cooking history state information may include the number of times the food ingredients are cooked after the last cleaning of the cooking chamber 12 . Here, the food material may be the same material as the material used in the previous cooking, but is not limited thereto.

프로세서(180)는 조리실(12)의 마지막 청소 후, 도어(20)가 1회 개방 및 1회 폐쇄된 경우, 이를 1회의 조리 횟수로 결정할 수 있다.When the door 20 is opened and closed once after the last cleaning of the cooking compartment 12 , the processor 180 may determine this as the number of times of cooking once.

조리 횟수는 조리실(12)의 사용 횟수로 표현될 수도 있다.The number of times of cooking may be expressed as the number of times of use of the cooking chamber 12 .

프로세서(180)는 유증기 발생 추정 레벨 및 조리 횟수에 기초하여, 조리실(12)의 오염도를 결정할 수 있다.The processor 180 may determine the pollution degree of the cooking compartment 12 based on the estimated level of oil vapor generation and the number of cooking times.

이에 대해서는, 도 11을 참조하여 설명한다.This will be described with reference to FIG. 11 .

도 11은 본 개시의 실시 예에 따른 유증기 발생 추정 레벨 및 식재료의 조리 횟수에 따라 조리실의 오염도를 결정하는 과정을 설명하는 도면이다.11 is a view for explaining a process of determining a degree of contamination of a cooking room according to an estimated level of oil vapor generation and the number of times of cooking of ingredients according to an embodiment of the present disclosure.

도 11의 오염도 결정 테이블(1100)은 조리 기기(100)의 메모리(170)에 미리 저장되어 있을 수 있다.The pollution level determination table 1100 of FIG. 11 may be previously stored in the memory 170 of the cooking appliance 100 .

예를 들어, 프로세서(180)는 유증기 발생 추정 레벨이 대 레벨 또는 중 레벨이고, 식재료의 조리 횟수가 7회 이상인 경우, 오염도를 제3 오염 레벨로 결정할 수 있다.For example, the processor 180 may determine the pollution degree as the third pollution level when the estimated level of oil vapor generation is a large level or a medium level and the number of times of cooking the food material is 7 or more.

프로세서(180)는 유증기 발생 추정 레벨이 대 레벨 또는 중 레벨이고, 식재료의 조리 횟수가 1회 이상 6회 이하인 경우, 오염도를 제2 오염 레벨로 결정할 수 있다.The processor 180 may determine the pollution degree as the second pollution level when the estimated oil vapor generation level is a large level or a medium level and the number of times of cooking of the food material is 1 or more and 6 or less.

프로세서(180)는 유증기 발생 추정 레벨이 소 레벨이고, 식재료의 조리 횟수가 6회 이상인 경우, 오염도를 제2 오염 레벨로 결정할 수 있다.The processor 180 may determine the contamination level as the second contamination level when the estimated level of oil vapor generation is a small level and the number of times of cooking the food material is 6 or more.

프로세서(180)는 유증기 발생 추정 레벨이 소 레벨이고, 식재료의 조리 횟수가 3회 이상 6회 이하인 경우, 오염도를 제1 오염 레벨로 결정할 수 있다.The processor 180 may determine the contamination level as the first contamination level when the estimated level of oil vapor generation is a small level and the number of times of cooking of the food material is 3 or more and 6 or less.

프로세서(180)는 결정된 조리실(12)의 오염도에 기초하여, 조리실(12)의 청소를 가이드하는 가이드 정보를 출력하거나, 조리실(12)의 자동 청소를 개시한다(S411).The processor 180 outputs guide information for guiding cleaning of the cooking compartment 12 or starts automatic cleaning of the cooking compartment 12 based on the determined contamination level of the cooking compartment 12 ( S411 ).

가이드 정보는 결정된 오염도에 적합한 조리실(12)의 청소 방법을 가이드하기 위한 정보일 수 있다. 가이드 정보는 조리실(12)의 청소 방법을 가이드하는 텍스트 또는 이미지 중 하나 이상을 포함할 수 있다.The guide information may be information for guiding a cleaning method of the cooking chamber 12 suitable for the determined contamination level. The guide information may include one or more of a text or an image guiding a cleaning method of the cooking compartment 12 .

프로세서(180)는 디스플레이부(151)를 통해 가이드 정보를 표시할 수 있다.The processor 180 may display guide information through the display unit 151 .

프로세서(180)는 가이드 정보를 통신부(110)를 통해 사용자의 이동 단말기에 전송할 수도 있다.The processor 180 may transmit guide information to the user's mobile terminal through the communication unit 110 .

프로세서(180)는 가이드 정보를 출력하면서, 결정된 오염도에 따라 필요한 경우, 조리실(12)의 자동 청소를 개시할 수 있다.The processor 180 may start automatic cleaning of the cooking compartment 12 if necessary according to the determined contamination level while outputting the guide information.

예를 들어, 프로세서(180)는 결정된 오염도가 제2 오염 레벨인 경우, 제1 온도로, 일정 시간 동안 조리실(12)을 가열하도록 가열부(190)를 제어할 수 있다.For example, when the determined contamination level is the second contamination level, the processor 180 may control the heating unit 190 to heat the cooking chamber 12 to the first temperature for a predetermined time.

또 다른 예로, 프로세서(180)는 결정된 오염도가 제3 오염 레벨인 경우, 제2 온도 이상으로, 일정 시간 동안, 조리실(12)을 고온 가열하도록 가열부(190)를 제어할 수 있다.As another example, when the determined contamination level is the third contamination level, the processor 180 may control the heating unit 190 to heat the cooking chamber 12 at a high temperature above the second temperature for a predetermined period of time.

이에 대해서는 도 12 내지 도 14를 참조하여 설명한다.This will be described with reference to FIGS. 12 to 14 .

도 12 내지 도 14는 결정된 오염도에 따라 조리 기기의 디스플레이부를 통해 가이드 정보를 표시하는 예를 설명하는 도면이다.12 to 14 are views for explaining an example of displaying guide information through the display unit of the cooking appliance according to the determined pollution level.

도 12는 결정된 오염도가 제1 오염 레벨인 경우, 표시되는 제1 청소 가이드 정보(1200)를 보여주는 도면이다.12 is a view showing the first cleaning guide information 1200 displayed when the determined pollution level is the first pollution level.

프로세서(180)는 오염도가 제1 오염 레벨로 결정된 경우, 제1 청소 가이드 정보(1200)를 디스플레이부(151)를 통해 표시할 수 있다.When the pollution degree is determined as the first pollution level, the processor 180 may display the first cleaning guide information 1200 through the display unit 151 .

제1 청소 가이드 정보(1200)는 제1 가이드 텍스트(1210) 및 제1 가이드 이미지(1230)를 포함할 수 있다.The first cleaning guide information 1200 may include a first guide text 1210 and a first guide image 1230 .

제1 가이드 텍스트(1210)는 오염도가 제1 오염 레벨이고, 간이 청소를 수행라는 텍스트를 포함할 수 있다. 간이 청소는 사용자가 수동으로 조리실(12)을 청소하는 것일 수 있다.The first guide text 1210 may include text indicating that the contamination level is the first contamination level and simple cleaning is performed. The simple cleaning may be a user's manual cleaning of the cooking chamber 12 .

제1 가이드 이미지(1230)는 간이 청소를 수행하는 방법을 나타내는 이미지일 수 있다.The first guide image 1230 may be an image representing a method of performing simple cleaning.

도 13은 결정된 오염도가 제2 오염 레벨인 경우, 표시되는 제2 청소 가이드 정보(1300)를 보여주는 도면이다.13 is a view showing second cleaning guide information 1300 displayed when the determined pollution level is the second pollution level.

프로세서(180)는 오염도가 제2 오염 레벨로 결정된 경우, 제2 청소 가이드 정보(1300)를 디스플레이부(151)를 통해 표시할 수 있다.When the pollution degree is determined as the second pollution level, the processor 180 may display the second cleaning guide information 1300 through the display unit 151 .

제2 청소 가이드 정보(1300)는 제2 가이드 텍스트(1310) 및 제2 가이드 이미지(1330)를 포함할 수 있다.The second cleaning guide information 1300 may include a second guide text 1310 and a second guide image 1330 .

제2 가이드 텍스트(1310)는 오염도가 제2 오염 레벨이고, Easy Clean 모드를 자동으로 동작시킴을 나타내고, 조리실(12)의 내부에 물의 분사를 유도하는 텍스트를 포함할 수 있다.The second guide text 1310 may include text indicating that the pollution level is the second pollution level, automatically operating the Easy Clean mode, and inducing spraying of water into the cooking chamber 12 .

Easy Clean 모드는 제1 온도로, 일정 시간 동안 조리실(12)을 가열하여, 조리실(12)의 내부를 청소하는 모드일 수 있다. The Easy Clean mode may be a mode in which the interior of the cooking compartment 12 is cleaned by heating the cooking compartment 12 to the first temperature for a predetermined time.

제2 가이드 이미지(1330)는 조리실(12)의 내부에 물을 분사함을 나타내는 이미지일 수 있다.The second guide image 1330 may be an image representing that water is sprayed into the cooking chamber 12 .

도 14는 결정된 오염도가 제3 오염 레벨인 경우, 표시되는 제3 청소 가이드 정보(1400)를 보여주는 도면이다.14 is a view showing third cleaning guide information 1400 displayed when the determined pollution level is the third pollution level.

프로세서(180)는 오염도가 제3 오염 레벨로 결정된 경우, 제3 청소 가이드 정보(1400)를 디스플레이부(151)를 통해 표시할 수 있다.When the pollution degree is determined as the third pollution level, the processor 180 may display the third cleaning guide information 1400 through the display unit 151 .

제3 청소 가이드 정보(1400)는 제3 가이드 텍스트(1410)를 포함할 수 있다.The third cleaning guide information 1400 may include a third guide text 1410 .

제3 가이드 텍스트(1410)는 오염도가 제3 오염 레벨이고, Self-Clean 모드로 자동 동작함을 나타내는 텍스트를 포함할 수 있다.The third guide text 1410 may include text indicating that the pollution level is the third pollution level and automatically operates in the self-clean mode.

Self-Clean 모드는 제1 온도보다 큰 제2 온도로 일정 시간 동안, 조리실(12) 내부를 고온으로 가열하는 청소 모드일 수 있다.The self-clean mode may be a cleaning mode in which the inside of the cooking chamber 12 is heated to a high temperature at a second temperature greater than the first temperature for a predetermined time.

이와 같이, 본 개시의 실시 예에 따르면, 조리실(12)의 오염 정도가 자동으로 측정되어, 사용자에게 오염 정도에 최적화된 조리실(12)의 청소 가이드가 제공될 수 있다.As such, according to an embodiment of the present disclosure, the degree of contamination of the cooking compartment 12 may be automatically measured, and a cleaning guide of the cooking compartment 12 optimized for the level of contamination may be provided to the user.

또한, 조리실(12)의 상태를 파악하여, 청소/위생을 위한 가이드 및 청소 모드로 동작을 통해, 조리실(12)의 오염에 선제적으로 대응할 수 있는 효과가 있다.In addition, there is an effect of preemptively responding to contamination of the cooking compartment 12 by grasping the state of the cooking compartment 12 and operating in the cleaning/sanitation guide and cleaning mode.

한편, 본 개시의 또 다른 실시 예에 따르면, 오염 레벨은 사용자의 설정에 따라 달라질 수 있다. 오염 레벨이 달라짐에 따라 그에 상응하는 청소 가이드 정보 또한 달라질 수 있다. Meanwhile, according to another embodiment of the present disclosure, the pollution level may vary according to a user's setting. As the level of contamination changes, the corresponding cleaning guide information may also vary.

즉, 사용자의 기호에 따라 오염 레벨이 달라질 수 있어, 개인화된 청소 가이드가 제공될 수 있다.That is, the level of contamination may vary according to the user's preference, and thus a personalized cleaning guide may be provided.

본 개시의 일 실시 예에 따르면, 전술한 방법은 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.According to an embodiment of the present disclosure, the above-described method may be implemented as computer-readable code on a medium in which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this.

Claims (14)

조리 기기에 있어서,
디스플레이부;
조리실;
상기 조리실의 내부를 가열하는 가열부;
상기 조리실을 촬영하는 카메라; 및
상기 카메라를 통해 촬영된 이미지로부터, 식재료를 식별하고, 식별된 식재료가 유증기를 발생하는 식품군에 속하는지를 판단하고, 상기 식별된 식재료가 유증기를 발생하는 식품군에 속하는 경우, 상기 식재료의 조리 상태를 나타내는 조리 상태 정보를 획득하고, 획득된 조리 상태 정보에 기초하여, 상기 조리실의 오염도를 결정하고, 결정된 오염도에 따라 청소 가이드 정보를 상기 디스플레이부를 통해 표시하거나, 상기 조리실의 청소 모드를 동작시키도록 상기 가열부를 제어하는 프로세서를 포함하는
조리 기기.
In the cooking appliance,
display unit;
cuisine;
a heating unit for heating the inside of the cooking chamber;
a camera for photographing the cooking room; and
From the image captured by the camera, the food material is identified, whether the identified food material belongs to a food group generating oil vapor, and when the identified food material belongs to a food group generating oil vapor, the cooking state of the food material is displayed Obtaining cooking state information, determining the contamination level of the cooking compartment based on the obtained cooking state information, displaying cleaning guide information through the display unit according to the determined contamination level, or operating the cleaning mode of the cooking compartment comprising a processor for controlling wealth
cooking appliance.
제1항에 있어서,
상기 프로세서는
상기 오염도가 제1 오염 레벨인 경우, 사용자로 하여금 간이 청소를 수행하도록 하는 제1 청소 가이드 정보를 상기 디스플레이부를 통해 표시하고,
상기 오염도가 상기 제1 오염 레벨보다 큰 제2 오염 레벨인 경우, 상기 사용자로 하여금 상기 조리실의 내부에 물을 분사하도록 하고, 제1 청소 모드로 자동 동작함을 나타내는 제2 청소 가이드 정보를 상기 디스플레이부를 통해 표시하는
조리 기기.
According to claim 1,
the processor is
When the pollution level is the first pollution level, first cleaning guide information for allowing a user to perform simple cleaning is displayed through the display unit,
When the pollution level is a second pollution level greater than the first pollution level, the user causes the user to spray water into the cooking chamber and displays second cleaning guide information indicating automatic operation in the first cleaning mode marked through wealth
cooking appliance.
제2항에 있어서,
상기 프로세서는
상기 오염도가 상기 제2 오염 레벨보다 큰 제3 오염 레벨인 경우, 제2 청소 모드로 자동 동작 함을 나타내는 제3 청소 가이드 정보를 상기 디스플레이부를 통해 표시하고,
상기 제2 청소 모드 하에서, 상기 가열부의 가열 온도 및 가열 시간 각각은 상기 제1 청소 모드 하에서 상기 가열부의 가열 온도 및 가열 시간 각각보다 큰
조리 기기.
3. The method of claim 2,
the processor is
When the contamination level is a third contamination level greater than the second contamination level, third cleaning guide information indicating automatic operation in the second cleaning mode is displayed through the display unit,
Under the second cleaning mode, each of the heating temperature and heating time of the heating unit is greater than each of the heating temperature and heating time of the heating unit under the first cleaning mode
cooking appliance.
제1항에 있어서,
상기 조리 상태 정보는
상기 식재료의 유증기 발생 추정 레벨을 포함하고,
상기 조리 기기는 상기 식재료의 식별 정보에 상기 유증기 발생 추정 레벨을 매칭시킨 유증기 발생 추정 테이블을 저장하는 메모리를 더 포함하고,
상기 프로세서는
상기 유증기 발생 추정 테이블을 이용하여, 상기 식별된 식재료에 맞는 상기 유증기 발생 추정 레벨을 획득하고,
획득된 유증기 발생 추정 레벨을 이용하여, 상기 오염도를 결정하는
조리 기기.
According to claim 1,
The cooking status information is
Including the estimated level of oil vapor generation of the food material,
The cooking appliance further includes a memory for storing an oil vapor generation estimation table in which the oil steam generation estimation level is matched with the identification information of the food material,
the processor is
using the oil vapor generation estimation table to obtain the oil vapor generation estimation level suitable for the identified food material,
Determining the pollution level using the obtained oil vapor generation estimated level
cooking appliance.
제1항에 있어서,
상기 조리 상태 정보는
상기 식재료의 유증기 발생 추정 레벨을 포함하고,
상기 프로세서는
상기 식재료의 조리 중, 유증기의 발생 시점을 획득하고, 상기 발생 시점부터, 상기 유증기의 발생 유지 시간에 기초하여, 상기 유증기 발생 추정 레벨을 결정하고,
결정된 유증기 발생 추정 레벨을 이용하여, 상기 오염도를 결정하는
조리 기기.
According to claim 1,
The cooking status information is
Including the estimated level of oil vapor generation of the food material,
the processor is
obtaining a time point of generation of oil vapor during cooking of the food material, and determining the estimated level of oil vapor generation from the time point of generation, based on a generation and maintenance time of the oil vapor;
Determining the pollution level using the determined oil vapor generation estimated level
cooking appliance.
제5항에 있어서,
상기 프로세서는
상기 유증기의 발생 유지 시간이 길어질수록, 상기 유증기 발생 추정 레벨의 값을 증가시키는
조리 기기.
6. The method of claim 5,
the processor is
As the generation and maintenance time of the oil vapor increases, the value of the estimated oil vapor generation level increases.
cooking appliance.
제5항에 있어서,
상기 조리실 내에 배치되며, 상기 유증기의 발생을 감지하는 가스 센서를 더 포함하는
조리 기기.
6. The method of claim 5,
It is disposed in the cooking chamber, further comprising a gas sensor for detecting the generation of the oil vapor
cooking appliance.
제1항에 있어서,
상기 프로세서는
상기 조리 상태 정보 및 조리 이력 상태 정보에 기초하여, 상기 오염도를 결정하고,
상기 조리 상태 정보는
상기 식재료의 유증기 발생 추정 레벨을 포함하고,
상기 조리 이력 상태 정보는 상기 조리실의 조리 횟수를 포함하는
조리 기기.
According to claim 1,
the processor is
determining the contamination level based on the cooking state information and the cooking history state information,
The cooking status information is
Including the estimated level of oil vapor generation of the food material,
The cooking history state information includes the number of times of cooking in the cooking chamber.
cooking appliance.
제1항에 있어서,
상기 청소 가이드 정보를 사용자의 이동 단말기에 무선으로 전송하는 통신부를 더 포함하는
조리 기기.
According to claim 1,
Further comprising a communication unit for wirelessly transmitting the cleaning guide information to the user's mobile terminal
cooking appliance.
제1항에 있어서,
이미지 데이터로부터 식재료를 식별하는 영상 인식 모델을 저장하는 메모리를 더 포함하고,
상기 프로세서는
상기 영상 인식 모델을 이용하여, 상기 촬영된 이미지로부터 상기 식재료를 식별하는
조리 기기.
According to claim 1,
Further comprising a memory for storing an image recognition model for identifying the food material from the image data,
the processor is
Using the image recognition model to identify the food material from the photographed image
cooking appliance.
제10항에 있어서,
상기 영상 인식 모델은
상기 이미지로부터, 상기 식재료를 포함하는 객체 경계 박스를 획득하는 객체 감지 모델 및
상기 객체 경계 박스로부터, 상기 식재료의 식별 정보를 획득하는 객체 식별 모델을 포함하고,
상기 객체 감지 모델 및 상기 객체 식별 모델 각각은 딥 러닝 알고리즘 또는 머신 러닝 알고리즘을 통해 학습된 인공 신경망 기반의 모델인
조리 기기.
11. The method of claim 10,
The image recognition model is
an object detection model for obtaining an object bounding box including the food material from the image; and
From the object bounding box, including an object identification model for obtaining identification information of the food material,
Each of the object detection model and the object identification model is an artificial neural network-based model learned through a deep learning algorithm or a machine learning algorithm.
cooking appliance.
제1항에 있어서,
상기 프로세서는
상기 식재료의 조리 개시 명령을 수신하고, 상기 조리 개시 명령을 수신한 시점부터, 상기 카메라의 동작을 온 시키는
조리 기기.
According to claim 1,
the processor is
Receives a cooking start command of the food, and turns on the camera from the time the cooking start command is received
cooking appliance.
조리 기기의 동작 방법에 있어서,
카메라를 통해 조리실을 촬영하는 단계;
촬영된 이미지로부터, 식재료를 식별하는 단계;
식별된 식재료가 유증기를 발생하는 식품군에 속하는지를 판단하는 단계;
상기 식별된 식재료가 유증기를 발생하는 식품군에 속하는 경우, 상기 식재료의 조리 상태를 나타내는 조리 상태 정보를 획득하는 단계;
획득된 조리 상태 정보에 기초하여, 상기 조리실의 오염도를 결정하는 단계; 및
결정된 오염도에 따라 청소 가이드 정보를 디스플레이부를 통해 표시하는 단계를 포함하는
조리 기기의 동작 방법.
A method of operating a cooking appliance, comprising:
photographing the cooking room through a camera;
identifying the food material from the photographed image;
determining whether the identified food material belongs to a food group generating oil vapor;
when the identified food material belongs to a food group generating oil vapor, obtaining cooking state information indicating a cooking state of the food material;
determining a contamination level of the cooking chamber based on the obtained cooking state information; and
Displaying cleaning guide information through a display unit according to the determined contamination level
How cooking appliances work.
조리 기기의 동작 방법을 기록한 컴퓨터로 읽을 수 있는 비 활성 기록 매체에 있어서,
상기 동작 방법은
카메라를 통해 조리실을 촬영하는 단계;
촬영된 이미지로부터, 식재료를 식별하는 단계;
식별된 식재료가 유증기를 발생하는 식품군에 속하는지를 판단하는 단계;
상기 식별된 식재료가 유증기를 발생하는 식품군에 속하는 경우, 상기 식재료의 조리 상태를 나타내는 조리 상태 정보를 획득하는 단계;
획득된 조리 상태 정보에 기초하여, 상기 조리실의 오염도를 결정하는 단계; 및
결정된 오염도에 따라 청소 가이드 정보를 디스플레이부를 통해 표시하는 단계를 포함하는
비 활성 기록 매체.
In a computer-readable inactive recording medium recording an operation method of a cooking appliance,
The method of operation is
photographing the cooking room through a camera;
identifying the food material from the photographed image;
determining whether the identified food material belongs to a food group generating oil vapor;
when the identified food material belongs to a food group generating oil vapor, obtaining cooking state information indicating a cooking state of the food material;
determining a contamination level of the cooking chamber based on the obtained cooking state information; and
Displaying cleaning guide information through a display unit according to the determined contamination level
Inactive recording media.
KR1020200123161A 2020-09-23 2020-09-23 Cooking device and operating method thereof KR20220040225A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200123161A KR20220040225A (en) 2020-09-23 2020-09-23 Cooking device and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200123161A KR20220040225A (en) 2020-09-23 2020-09-23 Cooking device and operating method thereof

Publications (1)

Publication Number Publication Date
KR20220040225A true KR20220040225A (en) 2022-03-30

Family

ID=80948403

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200123161A KR20220040225A (en) 2020-09-23 2020-09-23 Cooking device and operating method thereof

Country Status (1)

Country Link
KR (1) KR20220040225A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544925B1 (en) 2021-09-01 2023-01-03 GOPIZZA Inc. Kitchen system with food preparation station
KR102498429B1 (en) * 2022-08-23 2023-02-10 피플즈리그 주식회사 Meat automatic cooking apparatus and controlling method thereof
WO2024005298A1 (en) * 2022-06-27 2024-01-04 삼성전자주식회사 Electronic device and control method therefor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544925B1 (en) 2021-09-01 2023-01-03 GOPIZZA Inc. Kitchen system with food preparation station
US12100208B2 (en) 2021-09-01 2024-09-24 GOPIZZA Inc. Method for pizza preparation
WO2024005298A1 (en) * 2022-06-27 2024-01-04 삼성전자주식회사 Electronic device and control method therefor
KR102498429B1 (en) * 2022-08-23 2023-02-10 피플즈리그 주식회사 Meat automatic cooking apparatus and controlling method thereof
WO2024043624A1 (en) * 2022-08-23 2024-02-29 피플즈리그 주식회사 Automatic meat cooking device and control method thereof

Similar Documents

Publication Publication Date Title
KR20220040225A (en) Cooking device and operating method thereof
US20210164663A1 (en) Integrated management method and system for kitchen environment using artificial intelligence
CN111148944B (en) Automatic cooking apparatus and method
CN111919070B (en) Fragrance delivery system
US20190355014A1 (en) Predictive analytics system
US12050015B2 (en) Method and system for sensor maintenance
CN110136832B (en) Cognitive ability assessment system and method based on daily behaviors of old people
CN111643017B (en) Cleaning robot control method and device based on schedule information and cleaning robot
JP6400834B2 (en) RECOMMENDATION DEVICE, RECOMMENDATION DETERMINING METHOD, AND COMPUTER PROGRAM
CN110908340A (en) Smart home control method and device
AU2019231258B2 (en) System and method for preventing false alarms due to display images
CN110895934A (en) Household appliance control method and device
US20200072471A1 (en) Food preparation entity
KR102242648B1 (en) Artificial intelligence cooking system
EP4029417A1 (en) Method for controlling cooker by using artificial intelligence and system therefor
EP3670729A1 (en) Laundry treatment device and method of operating the same
CN112426060A (en) Control method, cooking appliance, server and readable storage medium
JPWO2010143361A1 (en) Work recognition device
CN110989430A (en) Smart home linkage method and system and readable storage medium
KR100873373B1 (en) User Intention Recognizing System and Method thereof
US20240335083A1 (en) Mobile terminal and system
CN108131786B (en) Control method and device of air conditioner
KR20220059726A (en) Cooking device and operating method thereof
EP4462026A1 (en) Cooking device and operating method thereof
CN114839901B (en) Control method and device of intelligent equipment, storage medium and electronic device

Legal Events

Date Code Title Description
A201 Request for examination