KR20240164162A - Smart farm growth environment automatic control method and system - Google Patents
Smart farm growth environment automatic control method and system Download PDFInfo
- Publication number
- KR20240164162A KR20240164162A KR1020230061658A KR20230061658A KR20240164162A KR 20240164162 A KR20240164162 A KR 20240164162A KR 1020230061658 A KR1020230061658 A KR 1020230061658A KR 20230061658 A KR20230061658 A KR 20230061658A KR 20240164162 A KR20240164162 A KR 20240164162A
- Authority
- KR
- South Korea
- Prior art keywords
- crop
- control server
- smart farm
- crops
- cultivation environment
- Prior art date
Links
- 238000000034 method Methods 0.000 title abstract description 20
- 230000008859 change Effects 0.000 claims abstract description 28
- 201000010099 disease Diseases 0.000 claims description 60
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 60
- 230000002159 abnormal effect Effects 0.000 claims description 52
- 239000000284 extract Substances 0.000 claims description 17
- 239000012752 auxiliary agent Substances 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims 1
- 239000013589 supplement Substances 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 7
- 241000196324 Embryophyta Species 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 235000015097 nutrients Nutrition 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000009318 large scale farming Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 229940126585 therapeutic drug Drugs 0.000 description 2
- 238000012271 agricultural production Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000009313 farming Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G7/00—Botany in general
- A01G7/06—Treatment of growing trees or plants, e.g. for preventing decay of wood, for tingeing flowers or wood, for prolonging the life of plants
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G9/00—Cultivation in receptacles, forcing-frames or greenhouses; Edging for beds, lawn or the like
- A01G9/14—Greenhouses
- A01G9/143—Equipment for handling produce in greenhouses
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G9/00—Cultivation in receptacles, forcing-frames or greenhouses; Edging for beds, lawn or the like
- A01G9/24—Devices or systems for heating, ventilating, regulating temperature, illuminating, or watering, in greenhouses, forcing-frames, or the like
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Abstract
본 발명은 스마트팜의 작물의 재배 상황에 따른 생육 환경을 자동으로 조절해주는 방법 및 시스템에 관한 것으로, 스마트팜에서 재배되는 작물의 상태에 따라 생육 환경을 조절해 작물의 상태에 따른 상태 제어를 통해 작물이 잘 자라도록 제어할 수 있는 방법 및 시스템으로, 구분 공간내 작물의 영상을 촬영하는 카메라; 상기 구분 공간의 재배환경을 감지하고 제어하는 환경조성부; 및 상기 카메라가 촬영한 영상에서 상기 작물의 변화 특징을 추출하고, 상기 변화 특징에 기반해 상기 환경조성부가 상기 재배환경을 조절하게하는 제어서버;를 포함하는 구성을 개시한다.The present invention relates to a method and system for automatically controlling the growing environment according to the cultivation status of crops in a smart farm, and is a method and system capable of controlling the crops to grow well by controlling the growing environment according to the status of the crops grown in a smart farm, the method and system including: a camera for capturing images of crops in a divided space; an environment creation unit for detecting and controlling the cultivation environment of the divided space; and a control server for extracting change characteristics of the crops from the images captured by the camera and causing the environment creation unit to control the cultivation environment based on the change characteristics.
Description
본 발명은 스마트팜의 작물의 재배 상황에 따른 생육 환경을 자동으로 조절해주는 방법 및 시스템에 관한 것으로, 스마트팜에서 재배되는 작물의 상태에 따라 생육 환경을 조절해 작물의 상태에 따른 상태 제어를 통해 작물이 잘 자라도록 제어할 수 있는 방법 및 시스템이다. The present invention relates to a method and system for automatically controlling the growing environment according to the cultivation status of crops in a smart farm. The present invention is a method and system capable of controlling crops to grow well by controlling the growing environment according to the status of crops grown in a smart farm and controlling the status according to the status of the crops.
스마트 팜은 정보기술을 이용하여 농작물 재배 시설의 온도 · 습도 · 햇볕량 · 이산화탄소 · 토양 등을 측정 분석하고, 분석 결과에 따라서 제어 장치를 구동하여 적절한 상태로 변화시킨다. 그리고 스마트폰과 같은 모바일 기기를 통해 원격 관리도 가능하다. 스마트 팜으로 농업의 생산 · 유통 · 소비 과정에 걸쳐 생산성과 효율성 및 품질 향상 등과 같은 고부가가치를 창출시킬 수 있다. ICT 기술을 사용하는 농업 방식을 말하므로 노지, 온실, 식물공장 등에 모두 적용할 수 있는 개념 알려져 있다.Smart farms use information technology to measure and analyze temperature, humidity, sunlight, carbon dioxide, soil, etc. of crop cultivation facilities, and operate control devices based on the analysis results to change them to an appropriate state. Remote management is also possible through mobile devices such as smartphones. Smart farms can create high added value such as productivity, efficiency, and quality improvements throughout the agricultural production, distribution, and consumption processes. Since it refers to an agricultural method that uses ICT technology, it is known to be a concept that can be applied to fields, greenhouses, and plant factories.
흔히 생각하는 스마트팜, 식물공장 형태의 스마트팜은 해외에서 Vertical Farm, Vertical Farming이라 불린다. 식물공장의 경우 대량재배가 목적이기 때문에 기존 수평재배에서 사용되지 않은 공간인 수직공간을 사용하기 때문이다. 이때 수직재배가 가능하려면 결국 식물 LED가 탑재되어야 하고 흙이 아닌 양액으로 재배가 된다.Smart farms, commonly thought of as plant factories, are called Vertical Farms and Vertical Farming overseas. In the case of plant factories, since the purpose is mass cultivation, vertical space, which was not used in existing horizontal cultivation, is used. In order for vertical cultivation to be possible, plant LEDs must be installed and cultivation is done with nutrient solutions rather than soil.
기존 시스템에서 단순한 온습도에 따른 관리같은 단순한 시스템은 아두이노 등의 MCU(Micro Controller Unit) 기판과 라즈베리 파이 등의 사물인터넷 기술이 매우 저렴해져서 쉽게 구현할 수 있지만, 대규모의 영농으로 갈 수록 안정성이 부족해지며 유지보수에 투자해야하는 시간이 늘어나기에 자작만으론 한계가 빨리 찾아온다는 평이 있다.In the existing system, simple systems such as simple temperature and humidity management can be easily implemented with MCU (Micro Controller Unit) boards such as Arduino and IoT technologies such as Raspberry Pi becoming very cheap. However, as large-scale farming approaches, stability is insufficient and the time required for maintenance increases, so there is an opinion that DIY solutions quickly reach their limits.
따라서, 대규모 영농에서도 각각의 부분에서 발생하는 문제를 감지하고 그에 따라 자동으로 대응하여 스마트팜을 관리해 운영할 수 있는 시스템이 필요한 실정이다.Therefore, even in large-scale farming, there is a need for a system that can detect problems occurring in each area and automatically respond accordingly to manage and operate a smart farm.
전술한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다. The background technology described above is technology that the inventor possessed or acquired in the process of deriving the disclosure content of the present application, and cannot necessarily be said to be a publicly known technology disclosed to the general public prior to the present application.
일 실시 예에 따른 목적은, 대형 스마트팜에서 재배되는 작물의 상태를 감지하고 상태에 따른 배양 환경의 변화를 통해 작물을 안전하게 재배할 수 있는 스마트 팜 운영 방법 및 시스템을 제공하는 것이다. The purpose of one embodiment is to provide a smart farm operation method and system that can safely cultivate crops by detecting the status of crops grown in a large smart farm and changing the cultivation environment according to the status.
본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 시스템은 구분 공간내 작물의 영상을 촬영하는 카메라; 상기 구분 공간의 재배환경을 감지하고 제어하는 환경조성부; 및 상기 카메라가 촬영한 영상에서 상기 작물의 변화 특징을 추출하고, 상기 변화 특징에 기반해 상기 환경조성부가 상기 재배환경을 조절하게하는 제어서버;를 포함할 수 있다.A smart farm cultivation environment automatic control system according to one embodiment of the present invention may include a camera for capturing images of crops within a divided space; an environment creation unit for detecting and controlling the cultivation environment of the divided space; and a control server for extracting change characteristics of the crops from the images captured by the camera and causing the environment creation unit to control the cultivation environment based on the change characteristics.
본 발명의 일 실시 예에 따르면, 상기 카메라는 주기적으로 상기 구분공간내 상기 작물의 영상을 촬영하고, 상기 제어서버는 상기 영상에서 상기 작물의 영역을 추출하고, 추출된 상기 작물의 영역을 분석해 상기 작물의 성장 정도, 상태 이상 및 질병을 포함하는 변화 특징을 추출할 수 있다.According to one embodiment of the present invention, the camera periodically captures images of the crops within the divided space, the control server extracts an area of the crops from the images, and analyzes the extracted area of the crops to extract change features including the degree of growth, abnormal conditions, and diseases of the crops.
본 발명의 일 실시 예에 따르면, 상기 제어서버는 상기 작물 영역의 크기에 기반해 상기 작물의 성장 정도를 분석하고, 상기 작물의 색이 연속적이지 않은 부분을 기준으로 경계선을 형성하고, 경계선에 따라 영역이 구분된 상기 영상을 CNN에 통과시켜 특징을 추출하여 상태 이상 또는 질병을 분석할 수 있다.According to one embodiment of the present invention, the control server analyzes the growth degree of the crop based on the size of the crop area, forms a boundary line based on a part of the crop where the color is not continuous, and passes the image divided into areas according to the boundary line through a CNN to extract features to analyze an abnormal condition or disease.
본 발명의 일 실시 예에 따르면, 상기 제어서버는 하기 수학식 1을 연산하여 상태 이상 또는 질병을 판단할 수 있다.According to one embodiment of the present invention, the control server can determine an abnormal condition or disease by calculating the following mathematical expression 1.
[수학식 1][Mathematical formula 1]
(여기서, 는 상기 작물에서 구분된 영역의 상기 작물에 발생하는 n번 상태 이상 또는 질병의 위치와의 일치 확률, 는 상기 작물에서 추출된 특징과 상기 작물에 발생하는 n번 상태 이상 또는 질병의 특징과의 일치 확률, 는 상기 작물의 성장 단계에 따라 상기 n번 상태 이상 또는 질병이 발생 여부이다.)(Here, is the probability of matching the location of the nth abnormal condition or disease occurring in the crop in the area distinguished from the crop, is the probability of matching between the features extracted from the above crop and the features of the nth abnormal condition or disease occurring in the above crop, is whether the above n-th condition or disease occurs depending on the growth stage of the above crop.)
본 발명의 일 실시 예에 따르면, 상기 환경조성부는 상기 구분 공간의 온도, 습도, 광량, 보조제 투입을 제어할 수 있다.According to one embodiment of the present invention, the environment creation unit can control the temperature, humidity, light quantity, and auxiliary agent input of the divided space.
본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 방법은 구분 공간내 작물의 영상을 촬영하는 단계; 상기 구분 공간의 재배환경을 감지하고, 상기 영상을 분석하는 단계; 및 상기 작물의 변화 특징을 추출하고, 상기 변화 특징에 기반해 상기 재배환경을 조절하는 단계;를 포함할 수 있다.A method for automatically controlling a smart farm cultivation environment according to one embodiment of the present invention may include a step of taking an image of a crop in a divided space; a step of detecting a cultivation environment of the divided space and analyzing the image; and a step of extracting change characteristics of the crop and controlling the cultivation environment based on the change characteristics.
본 발명의 일 실시 예에 따르면, 상기 영상 촬영 단계는 주기적으로 상기 구분공간내 상기 작물의 영상을 촬영하고, 상기 재배환경 감지 및 영상 분석 단계는, 상기 영상에서 상기 작물의 영역을 추출하고, 추출된 상기 작물의 영역을 분석해 상기 작물의 성장 정도, 상태 이상 및 질병을 포함하는 변화 특징을 추출할 수 있다.According to one embodiment of the present invention, the image capturing step periodically captures images of the crops within the divided space, and the cultivation environment detection and image analysis step extracts an area of the crop from the image, and analyzes the extracted area of the crop to extract change features including the degree of growth, abnormal condition, and disease of the crop.
본 발명의 일 실시 예에 따르면, 상기 재배환경 감지 및 영상 분석 단계는 상기 작물 영역의 크기에 기반해 상기 작물의 성장 정도를 분석하고, 상기 작물의 색이 연속적이지 않은 부분을 기준으로 경계선을 형성하고, 경계선에 따라 영역이 구분된 상기 영상을 CNN에 통과시켜 특징을 추출하여 상태 이상 또는 질병을 분석할 수 있다.According to one embodiment of the present invention, the cultivation environment detection and image analysis step analyzes the growth degree of the crop based on the size of the crop area, forms a boundary line based on a part where the color of the crop is not continuous, and passes the image, in which the area is divided according to the boundary line, through a CNN to extract features so as to analyze an abnormal condition or disease.
본 발명의 일 실시 예에 따르면, 상기 재배환경 감지 및 영상 분석 단계는 하기 수학식 1을 연산하여 상태 이상 또는 질병을 판단할 수 있다.According to one embodiment of the present invention, the cultivation environment detection and image analysis step can determine an abnormal condition or disease by calculating the following mathematical expression 1.
[수학식 1][Mathematical Formula 1]
(여기서, 는 상기 작물에서 구분된 영역의 상기 작물에 발생하는 n번 상태 이상 또는 질병의 위치와의 일치 확률, 는 상기 작물에서 추출된 특징과 상기 작물에 발생하는 n번 상태 이상 또는 질병의 특징과의 일치 확률, 는 상기 작물의 성장 단계에 따라 상기 n번 상태 이상 또는 질병이 발생 여부이다.)(Here, is the probability of matching the location of the nth abnormal condition or disease occurring in the crop in the area distinguished from the crop, is the probability of matching between the features extracted from the above crop and the features of the nth abnormal condition or disease occurring in the above crop, is whether the above n-th condition or disease occurs depending on the growth stage of the above crop.)
본 발명의 일 실시 예에 따르면, 상기 재배환경 조절 단계는 상기 구분 공간의 온도, 습도, 광량, 보조제 투입을 제어할 수 있다.According to one embodiment of the present invention, the cultivation environment control step can control the temperature, humidity, light amount, and auxiliary agent input of the divided space.
일 실시 예에 따른 스마트 팜 재배환경 자동 제어 방법 및 시스템은, 대형 스마트팜에서 재배되는 작물의 상태를 감지하고 상태에 따른 배양 환경의 변화를 통해 작물을 안전하게 재배할 수 있다. A method and system for automatically controlling a smart farm cultivation environment according to an embodiment of the present invention can safely cultivate crops by detecting the status of crops cultivated in a large smart farm and changing the cultivation environment according to the status.
도 1은 본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 시스템이 설치된 스마트팜을 개략적으로 도시하는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 시스템의 블록도이다.
도 3는 본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 방법의 흐름도이다. FIG. 1 is a drawing schematically illustrating a smart farm in which a smart farm cultivation environment automatic control system according to one embodiment of the present invention is installed.
FIG. 2 is a block diagram of a smart farm cultivation environment automatic control system according to one embodiment of the present invention.
Figure 3 is a flow chart of a method for automatically controlling a smart farm cultivation environment according to one embodiment of the present invention.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. However, since various modifications may be made to the embodiments, the scope of the patent application rights is not limited or restricted by these embodiments. It should be understood that all modifications, equivalents, or substitutes to the embodiments are included in the scope of the rights.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안 된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for the purpose of description only and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly indicates otherwise. In this specification, the terms "comprises" or "has" and the like are intended to specify the presence of a feature, number, step, operation, component, part or combination thereof described in the specification, but should be understood to not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiments belong. Terms defined in commonly used dictionaries, such as those defined in common dictionaries, should be interpreted as having a meaning consistent with the meaning they have in the context of the relevant art, and shall not be interpreted in an idealized or overly formal sense, unless expressly defined in this application.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the attached drawings, the same components will be given the same reference numerals regardless of the drawing numbers, and redundant descriptions thereof will be omitted. When describing an embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. Also, in describing components of the embodiments, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only intended to distinguish the components from other components, and the nature, order, or sequence of the components are not limited by the terms. When it is described that a component is "connected," "coupled," or "connected" to another component, it should be understood that the component may be directly connected or connected to the other component, but another component may also be "connected," "coupled," or "connected" between each component.
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.Components included in one embodiment and components that have common functions will be described using the same names in other embodiments. Unless otherwise stated, descriptions made in one embodiment may be applied to other embodiments, and specific descriptions will be omitted to the extent of overlap.
도 1은 본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 시스템이 설치된 스마트팜을 개략적으로 도시하는 도면이다. FIG. 1 is a drawing schematically illustrating a smart farm in which a smart farm cultivation environment automatic control system according to one embodiment of the present invention is installed.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 시스템이 설치된 스마트팜은 내부에 작물이 재배되는 공간을 복수의 구분 공간으로 구분하고, 각 구분 공간마다 작물을 재배할 수 있다. 상기 구분 공간마다 재배되는 작물은 사용자의 선택에 따라 다른 작물을 재배하거나 같은 작물을 재배할 수 있다. Referring to Fig. 1, a smart farm in which a smart farm cultivation environment automatic control system according to one embodiment of the present invention is installed divides the space where crops are grown inside into a plurality of separate spaces, and can grow crops in each separate space. The crops grown in each of the separate spaces can be different crops or the same crops depending on the user's selection.
도 2는 본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 시스템의 블록도이다. FIG. 2 is a block diagram of a smart farm cultivation environment automatic control system according to one embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 시스템(100)은 카메라(110), 환경조성부(120) 및 제어서버(130)를 포함할 수 있다. Referring to FIG. 2, a smart farm cultivation environment automatic control system (100) according to one embodiment of the present invention may include a camera (110), an environment creation unit (120), and a control server (130).
상기 카메라(110)는 구분 공간내 작물의 영상을 촬영할 수 있다. 상기 카메라(110)는 상기 스마트팜의 구분 공간 마다 개별적으로 설치될 수 있다. 상기 카메라(110)는 상기 구분 공간 내부에서 재배되는 작물을 향해 설치될 수 있다. 상기 카메라(110)는 상기 구분 공간에서 재배되는 작물의 영상을 촬영하여 상기 제어서버(130)에 전송할 수 있다. 상기 카메라(110)는 상기 구분 공간 내 작물의 영상을 반복적으로 촬영해 상기 제어서버(130)에 전송할 수 있다. 상기 카메라(110)는 주기적으로 상기 구분 공간 내 작물을 촬영할 수 있다. 상기 카메라(110)의 촬영 주기는 상기 작물의 종류에 따라 달라질 수 있다. 상기 카메라(110)의 촬영 주기는 상기 작물의 성장 정도에 따라 달라질 수 있다. The above camera (110) can capture images of crops within the divided space. The camera (110) can be individually installed in each divided space of the smart farm. The camera (110) can be installed toward crops grown within the divided space. The camera (110) can capture images of crops grown within the divided space and transmit them to the control server (130). The camera (110) can repeatedly capture images of crops within the divided space and transmit them to the control server (130). The camera (110) can periodically capture images of crops within the divided space. The capturing cycle of the camera (110) can vary depending on the type of crop. The capturing cycle of the camera (110) can vary depending on the growth level of the crop.
상기 환경조성부(120)는 상기 스마트팜의 상기 구분 공간의 재배환경을 감지하고 제어할 수 있다. 상기 환경조성부(120)는 상기 구분 공간 내의 재배환경을 변화시킬 수 있다. 상기 재배환경은 온도, 습도, 광량, 보조제 투입 여부를 포함할 수 있다. 상기 환경조성부(120)는 온도센서, 습도센서, 식물등 및 보조제를 투입할 수 있다. 상기 보조제는 영양제 및 치료약물을 포함할 수 있다. 상기 환경조성부(120)는 상기 구분 공간의 온도, 습도, 광량, 보조제 투입을 제어할 수 있다. 상기 환경조성부(120)는 상기 제어서버(130)의 연산 결과에 따라 상기 구분 공간 내부의 온도, 습도, 광량 및 보조제 투입을 제어할 수 있다. 상기 환경조성부(120)는 상기 제어서버(130)가 판단한 상기 작물의 상태에 따라 상기 구분 공간 내부의 온도, 습도, 광량 및 보조제 투입을 제어할 수 있다.The above environment creation unit (120) can detect and control the cultivation environment of the divided space of the smart farm. The environment creation unit (120) can change the cultivation environment within the divided space. The cultivation environment can include temperature, humidity, light quantity, and whether or not to add a supplement. The environment creation unit (120) can add a temperature sensor, a humidity sensor, plants, and a supplement. The supplement can include a nutrient and a therapeutic drug. The environment creation unit (120) can control the temperature, humidity, light quantity, and supplement input of the divided space. The environment creation unit (120) can control the temperature, humidity, light quantity, and supplement input inside the divided space according to the calculation result of the control server (130). The environment creation unit (120) can control the temperature, humidity, light quantity, and supplement input inside the divided space according to the condition of the crop determined by the control server (130).
상기 제어서버(130)는 상기 카메라(110)가 촬영한 영상에서 상기 작물의 변화 특징을 추출하고, 상기 변화 특징에 기반해 상기 환경조성부(120)가 상기 재배환경을 조절하게 할 수 있다.The above control server (130) can extract the change characteristics of the crop from the image captured by the camera (110) and cause the environment creation unit (120) to control the cultivation environment based on the change characteristics.
상기 제어서버(130)는 상기 영상에서 상기 작물의 영역을 추출하고, 추출된 상기 작물의 영역을 분석해 상기 작물의 성장 정도, 상태 이상 및 질병을 포함하는 변화 특징을 추출할 수 있다. 상기 제어서버(130)는 상기 카메라(110)에서 전송받은 상기 영상에서 상기 작물에 해당하는 영역을 추출할 수 있다. 상기 제어서버(130)는 상기 영상에서 경계선을 추출할 수 있다. 상기 제어서버(130)는 상기 경계선에 기반해 상기 작물에 해당하는 영역을 결정할 수 있다. 상기 제어서버(130)는 상기 구분 공간에서 재배되는 작물의 종류에 기반해 상기 경계선 중에서 상기 작물에 해당하는 영역을 결정할 수 있다. 상기 제어서버(130)는 기계 학습된 데이터에 기반해 상기 작물의 특징과 일치하는 경계선을 상기 작물의 영역으로 결정할 수 있다.The control server (130) can extract the area of the crop from the image, and analyze the extracted area of the crop to extract change features including the growth degree, abnormal condition, and disease of the crop. The control server (130) can extract the area corresponding to the crop from the image transmitted from the camera (110). The control server (130) can extract a boundary line from the image. The control server (130) can determine the area corresponding to the crop based on the boundary line. The control server (130) can determine the area corresponding to the crop among the boundary lines based on the type of crop grown in the divided space. The control server (130) can determine a boundary line matching the characteristics of the crop as the area of the crop based on machine-learned data.
상기 제어서버(130)는 상기 작물 영역의 크기에 기반해 상기 작물의 성장 정도를 분석하고, 상기 작물의 색이 연속적이지 않은 부분을 기준으로 경계선을 형성하고, 경계선에 따라 영역이 구분된 상기 영상을 CNN에 통과시켜 특징을 추출하여 상태 이상 또는 질병을 분석할 수 있다. The above control server (130) analyzes the growth level of the crop based on the size of the crop area, forms a boundary line based on a part of the crop where the color is not continuous, and passes the image divided into areas according to the boundary line through CNN to extract features and analyze abnormal conditions or diseases.
상기 제어서버(130)는 추출된 경계선에 따라 결정된 상기 작물 영역의 크기를 상기 작물의 재배 시기, 이전에 촬영된 상기 작물 영역의 크기와 비교하여 상기 작물의 성장 정도를 결정할 수 있다. 상기 작물의 성장 정도는 복수의 단계로 구분될 수 있다. 상기 작물의 성장 정도는 적어도 3개 이상의 단계로 구분될 수 있다. The above control server (130) can determine the growth degree of the crop by comparing the size of the crop area determined according to the extracted boundary line with the size of the crop area photographed previously during the cultivation period of the crop. The growth degree of the crop can be divided into a plurality of stages. The growth degree of the crop can be divided into at least three stages.
상기 제어서버(130)는 픽셀간의 색의 변화가 커 연속성이 떨어지는 부분을 경계선으로 결정할 수 있다. 상기 제어서버(130)는 픽셀의 RGB 값 변화의 연속성이 끊어지는 부분을 기준으로 경계선을 결정할 수 있다. The above control server (130) can determine a boundary line as a part where the color change between pixels is large and continuity is low. The above control server (130) can determine a boundary line based on a part where the continuity of the change in the RGB values of the pixels is broken.
상기 제어서버(130)는 상기 경계선에 따라 결정된 상기 작물의 영역만을 CNN에 통과시켜 특징을 추출할 수 있다. 상기 제어서버(130)는 상기 영상을 CNN에 통과시켜 추출한 특징에 기반해 상기 작물의 상태 이상 또는 질병을 분석할 수 있다. 상기 제어서버(130)는 상기 작물의 영역 내부에서 상기 경계선으로 구분된 영역별로 특징을 추출할 수 있다. 상기 제어서버(130)는 구분된 영역별로 추출된 상기 특징에서 상기 상태이상 또는 질병과 일치할 확률을 비교할 수 있다. 상기 제어서버(130)는 상기 특징이 상기 상태 이상 또는 질병과 일치 확률, 해당 영역의 위치와 상기 상태이상 또는 질병 발생 위치의 일치 확률 및 상기 작물의 성장 정도에 따른 상기 상태이상 또는 질병 발생 확률을 고려하여 상기 상태이상 또는 질병의 발생 여부를 판단할 수 있다. The control server (130) above can extract features by passing only the crop area determined according to the boundary line through CNN. The control server (130) can analyze the abnormal condition or disease of the crop based on the features extracted by passing the image through CNN. The control server (130) can extract features by area divided by the boundary line within the crop area. The control server (130) can compare the probability that the features extracted by the divided area match the abnormal condition or disease. The control server (130) can determine whether the abnormal condition or disease occurs by considering the probability that the feature matches the abnormal condition or disease, the probability that the location of the area matches the location of the abnormal condition or disease, and the probability that the abnormal condition or disease occurs according to the growth degree of the crop.
상기 제어서버(130)는 하기 수학식 1을 연산하여 상태 이상 또는 질병을 판단할 수 있다.The above control server (130) can determine an abnormal condition or disease by calculating the following mathematical expression 1.
[수학식 1][Mathematical formula 1]
여기서, 는 상기 작물에서 구분된 영역의 상기 작물에 발생하는 n번 상태 이상 또는 질병의 위치와의 일치 확률, 는 상기 작물에서 추출된 특징과 상기 작물에 발생하는 n번 상태 이상 또는 질병의 특징과의 일치 확률, 는 상기 작물의 성장 단계에 따라 상기 n번 상태 이상 또는 질병이 발생 여부이다.Here, is the probability of matching the location of the nth abnormal condition or disease occurring in the crop in the area distinguished from the crop, is the probability of matching between the features extracted from the above crop and the features of the nth abnormal condition or disease occurring in the above crop, is whether the above n-th condition or disease occurs depending on the growth stage of the above crop.
상기 제어서버(130)는 상기 수학식 1의 연산 값이 임계 값 이상인 경우 상기 상태 이상 또는 질병이 발생한 것으로 판단할 수 있다.The above control server (130) can determine that the above condition or disease has occurred if the operation value of the above mathematical expression 1 is greater than or equal to a threshold value.
상기 제어서버(130)는 작물에 발생하는 상기 상태이상 또는 질병을 1부터 n까지의 숫자로 구분할 수 있다. 상기 제어서버(130)는 상기 작물의 영상에서 특징을 추출하여 1부터 n까지 질병에 해당할 확률을 연산할 수 있다. 상기 제어서버(130)는 상기 작물의 어느 하나의 영역에 복수의 상태이상 또는 질병에 해당하는 것으로 판단되는 경우 점수가 가장 높은 상태이상 또는 질병에 해당하는 것으로 결정할 수 있다. 상기 제어서버(130)는 상기 작물의 복수의 영역에 개별적으로 상태이상 또는 질병에 해당하는 것으로 판단되는 경우 상기 작물에 복수의 상태이상 또는 질병이 발생한 것으로 판단할 수 있다.The control server (130) above can classify the above abnormal conditions or diseases occurring in the crops into numbers from 1 to n. The control server (130) can extract features from the image of the crop and calculate the probability of corresponding to a disease from 1 to n. If the control server (130) determines that one area of the crop corresponds to multiple abnormal conditions or diseases, it can determine that it corresponds to the abnormal condition or disease with the highest score. If the control server (130) determines that multiple areas of the crop individually correspond to abnormal conditions or diseases, it can determine that multiple abnormal conditions or diseases have occurred in the crop.
상기 제어서버(130)는 상기 연산 결과에 따른 상기 작물의 상태이상 또는 질병에 따라 상기 환경조성부(120)가 상기 구분 공간의 재배환경을 상기 작물의 상태 개선 또는 성장에 필요한 조건에 맞추게 할 수 있다. 상기 제어서버(130)는 상기 연산 결과에 따른 상기 작물의 상태이상 또는 질병에 따라 상기 환경 조절부(120)가 상기 구분 공간의 온도, 습도, 광량 및 보조제 투입 여부를 변경하게 할 수 있다. The control server (130) can cause the environment creation unit (120) to adjust the cultivation environment of the divided space to conditions necessary for improving the condition or growth of the crop according to the abnormal condition or disease of the crop according to the calculation result. The control server (130) can cause the environment control unit (120) to change the temperature, humidity, amount of light, and whether to add a supplement of the divided space according to the abnormal condition or disease of the crop according to the calculation result.
도 3는 본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 방법의 흐름도이다. Figure 3 is a flow chart of a method for automatically controlling a smart farm cultivation environment according to one embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 방법은 구분 공간내 작물의 영상을 촬영하는 단계(S110)를 포함할 수 있다.Referring to FIG. 3, a method for automatically controlling a smart farm cultivation environment according to an embodiment of the present invention may include a step (S110) of taking an image of a crop within a divided space.
S110 단계에서, 상기 카메라(110)는 구분 공간내 작물의 영상을 촬영할 수 있다. 상기 카메라(110)는 상기 스마트팜의 구분 공간 마다 개별적으로 설치될 수 있다. 상기 카메라(110)는 상기 구분 공간 내부에서 재배되는 작물을 향해 설치될 수 있다. 상기 카메라(110)는 상기 구분 공간에서 재배되는 작물의 영상을 촬영하여 상기 제어서버(130)에 전송할 수 있다. 상기 카메라(110)는 상기 구분 공간 내 작물의 영상을 반복적으로 촬영해 상기 제어서버(130)에 전송할 수 있다. 상기 카메라(110)는 주기적으로 상기 구분 공간 내 작물을 촬영할 수 있다. 상기 카메라(110)의 촬영 주기는 상기 작물의 종류에 따라 달라질 수 있다. 상기 카메라(110)의 촬영 주기는 상기 작물의 성장 정도에 따라 달라질 수 있다. In step S110, the camera (110) can capture images of crops within the divided space. The camera (110) can be individually installed in each divided space of the smart farm. The camera (110) can be installed toward crops grown within the divided space. The camera (110) can capture images of crops grown within the divided space and transmit them to the control server (130). The camera (110) can repeatedly capture images of crops within the divided space and transmit them to the control server (130). The camera (110) can periodically capture images of crops within the divided space. The capturing cycle of the camera (110) can vary depending on the type of the crop. The capturing cycle of the camera (110) can vary depending on the growth level of the crop.
본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 방법은 상기 구분 공간의 재배환경을 감지하고, 상기 영상을 분석하는 단계(S120)를 포함할 수 있다.A smart farm cultivation environment automatic control method according to one embodiment of the present invention may include a step (S120) of detecting the cultivation environment of the divided space and analyzing the image.
S120 단계에서, 상기 환경조성부(120)는 상기 스마트팜의 상기 구분 공간의 재배환경을 감지하고 제어할 수 있다. At step S120, the environment creation unit (120) can detect and control the cultivation environment of the divided space of the smart farm.
S120 단계에서, 상기 제어서버(130)는 상기 카메라(110)가 촬영한 영상에서 상기 작물의 변화 특징을 추출할 수 있다. At step S120, the control server (130) can extract change characteristics of the crop from the image captured by the camera (110).
S120 단계에서, 상기 제어서버(130)는 상기 영상에서 상기 작물의 영역을 추출하고, 추출된 상기 작물의 영역을 분석해 상기 작물의 성장 정도, 상태 이상 및 질병을 포함하는 변화 특징을 추출할 수 있다. 상기 제어서버(130)는 상기 카메라(110)에서 전송받은 상기 영상에서 상기 작물에 해당하는 영역을 추출할 수 있다. 상기 제어서버(130)는 상기 영상에서 경계선을 추출할 수 있다. 상기 제어서버(130)는 상기 경계선에 기반해 상기 작물에 해당하는 영역을 결정할 수 있다. 상기 제어서버(130)는 상기 구분 공간에서 재배되는 작물의 종류에 기반해 상기 경계선 중에서 상기 작물에 해당하는 영역을 결정할 수 있다. 상기 제어서버(130)는 기계 학습된 데이터에 기반해 상기 작물의 특징과 일치하는 경계선을 상기 작물의 영역으로 결정할 수 있다.In step S120, the control server (130) can extract the area of the crop from the image, and analyze the extracted area of the crop to extract change features including the growth degree, abnormal condition, and disease of the crop. The control server (130) can extract the area corresponding to the crop from the image transmitted from the camera (110). The control server (130) can extract a boundary line from the image. The control server (130) can determine the area corresponding to the crop based on the boundary line. The control server (130) can determine the area corresponding to the crop among the boundary lines based on the type of crop grown in the divided space. The control server (130) can determine the boundary line matching the characteristic of the crop as the area of the crop based on machine-learned data.
S120 단계에서, 상기 제어서버(130)는 상기 작물 영역의 크기에 기반해 상기 작물의 성장 정도를 분석하고, 상기 작물의 색이 연속적이지 않은 부분을 기준으로 경계선을 형성하고, 경계선에 따라 영역이 구분된 상기 영상을 CNN에 통과시켜 특징을 추출하여 상태 이상 또는 질병을 분석할 수 있다. At step S120, the control server (130) analyzes the growth degree of the crop based on the size of the crop area, forms a boundary line based on a part of the crop where the color is not continuous, and passes the image divided into areas according to the boundary line through CNN to extract features to analyze abnormal conditions or diseases.
S120 단계에서, 상기 제어서버(130)는 추출된 경계선에 따라 결정된 상기 작물 영역의 크기를 상기 작물의 재배 시기, 이전에 촬영된 상기 작물 영역의 크기와 비교하여 상기 작물의 성장 정도를 결정할 수 있다. 상기 작물의 성장 정도는 복수의 단계로 구분될 수 있다. 상기 작물의 성장 정도는 적어도 3개 이상의 단계로 구분될 수 있다. In step S120, the control server (130) can compare the size of the crop area determined according to the extracted boundary line with the size of the crop area photographed previously during the cultivation period of the crop to determine the growth degree of the crop. The growth degree of the crop can be divided into a plurality of stages. The growth degree of the crop can be divided into at least three stages.
S120 단계에서, 상기 제어서버(130)는 픽셀간의 색의 변화가 커 연속성이 떨어지는 부분을 경계선으로 결정할 수 있다. 상기 제어서버(130)는 픽셀의 RGB 값 변화의 연속성이 끊어지는 부분을 기준으로 경계선을 결정할 수 있다. In step S120, the control server (130) can determine a part where the color change between pixels is large and continuity is low as a boundary line. The control server (130) can determine a boundary line based on a part where the continuity of the RGB value change of the pixel is broken.
S120 단계에서, 상기 제어서버(130)는 상기 경계선에 따라 결정된 상기 작물의 영역만을 CNN에 통과시켜 특징을 추출할 수 있다. 상기 제어서버(130)는 상기 영상을 CNN에 통과시켜 추출한 특징에 기반해 상기 작물의 상태 이상 또는 질병을 분석할 수 있다. 상기 제어서버(130)는 상기 작물의 영역 내부에서 상기 경계선으로 구분된 영역별로 특징을 추출할 수 있다. 상기 제어서버(130)는 구분된 영역별로 추출된 상기 특징에서 상기 상태이상 또는 질병과 일치할 확률을 비교할 수 있다. 상기 제어서버(130)는 상기 특징이 상기 상태 이상 또는 질병과 일치 확률, 해당 영역의 위치와 상기 상태이상 또는 질병 발생 위치의 일치 확률 및 상기 작물의 성장 정도에 따른 상기 상태이상 또는 질병 발생 확률을 고려하여 상기 상태이상 또는 질병의 발생 여부를 판단할 수 있다. In step S120, the control server (130) can extract features by passing only the crop area determined by the boundary line through CNN. The control server (130) can analyze the abnormal condition or disease of the crop based on the features extracted by passing the image through CNN. The control server (130) can extract features by area divided by the boundary line within the crop area. The control server (130) can compare the probability that the features extracted by the divided area match the abnormal condition or disease. The control server (130) can determine whether the abnormal condition or disease occurs by considering the probability that the feature matches the abnormal condition or disease, the probability that the location of the area matches the location of the abnormal condition or disease, and the probability that the abnormal condition or disease occurs according to the growth degree of the crop.
S120 단계에서, 상기 제어서버(130)는 하기 수학식 1을 연산하여 상태 이상 또는 질병을 판단할 수 있다.At step S120, the control server (130) can determine an abnormal condition or disease by calculating the following mathematical expression 1.
[수학식 1][Mathematical formula 1]
여기서, 는 상기 작물에서 구분된 영역의 상기 작물에 발생하는 n번 상태 이상 또는 질병의 위치와의 일치 확률, 는 상기 작물에서 추출된 특징과 상기 작물에 발생하는 n번 상태 이상 또는 질병의 특징과의 일치 확률, 는 상기 작물의 성장 단계에 따라 상기 n번 상태 이상 또는 질병이 발생 여부이다.Here, is the probability of matching the location of the nth abnormal condition or disease occurring in the crop in the area distinguished from the crop, is the probability of matching between the features extracted from the above crop and the features of the nth abnormal condition or disease occurring in the above crop, is whether the above n-th condition or disease occurs depending on the growth stage of the above crop.
S120 단계에서, 상기 제어서버(130)는 상기 수학식 1의 연산 값이 임계 값 이상인 경우 상기 상태 이상 또는 질병이 발생한 것으로 판단할 수 있다.At step S120, the control server (130) can determine that the above-described abnormal condition or disease has occurred if the operation value of the mathematical expression 1 is equal to or greater than a threshold value.
S120 단계에서, 상기 제어서버(130)는 작물에 발생하는 상기 상태이상 또는 질병을 1부터 n까지의 숫자로 구분할 수 있다. 상기 제어서버(130)는 상기 작물의 영상에서 특징을 추출하여 1부터 n까지 질병에 해당할 확률을 연산할 수 있다. 상기 제어서버(130)는 상기 작물의 어느 하나의 영역에 복수의 상태이상 또는 질병에 해당하는 것으로 판단되는 경우 점수가 가장 높은 상태이상 또는 질병에 해당하는 것으로 결정할 수 있다. 상기 제어서버(130)는 상기 작물의 복수의 영역에 개별적으로 상태이상 또는 질병에 해당하는 것으로 판단되는 경우 상기 작물에 복수의 상태이상 또는 질병이 발생한 것으로 판단할 수 있다.In step S120, the control server (130) can classify the abnormal condition or disease occurring in the crop into numbers from 1 to n. The control server (130) can extract features from the image of the crop and calculate the probability of corresponding to a disease from 1 to n. If the control server (130) determines that one area of the crop corresponds to multiple abnormal conditions or diseases, it can determine that it corresponds to the abnormal condition or disease with the highest score. If the control server (130) determines that multiple areas of the crop individually correspond to abnormal conditions or diseases, it can determine that multiple abnormal conditions or diseases have occurred in the crop.
본 발명의 일 실시 예에 따른 스마트팜 재배환경 자동 제어 방법은 상기 작물의 변화 특징을 추출하고, 상기 변화 특징에 기반해 상기 재배환경을 조절하는 단계(S130)를 포함할 수 있다.A method for automatically controlling a smart farm cultivation environment according to an embodiment of the present invention may include a step (S130) of extracting change characteristics of the crop and controlling the cultivation environment based on the change characteristics.
S130 단계에서, 상기 환경조성부(120)는 상기 구분 공간 내의 재배환경을 변화시킬 수 있다. 상기 재배환경은 온도, 습도, 광량, 보조제 투입 여부를 포함할 수 있다. 상기 환경조성부(120)는 온도센서, 습도센서, 식물등 및 보조제를 투입할 수 있다. 상기 보조제는 영양제 및 치료약물을 포함할 수 있다. 상기 환경조성부(120)는 상기 구분 공간의 온도, 습도, 광량, 보조제 투입을 제어할 수 있다. 상기 환경조성부(120)는 상기 제어서버(130)의 연산 결과에 따라 상기 구분 공간 내부의 온도, 습도, 광량 및 보조제 투입을 제어할 수 있다. 상기 환경조성부(120)는 상기 제어서버(130)가 판단한 상기 작물의 상태에 따라 상기 구분 공간 내부의 온도, 습도, 광량 및 보조제 투입을 제어할 수 있다.In step S130, the environment creation unit (120) can change the cultivation environment within the divided space. The cultivation environment can include temperature, humidity, light quantity, and whether or not to add a supplement. The environment creation unit (120) can add a temperature sensor, a humidity sensor, plants, and a supplement. The supplement can include nutrients and therapeutic drugs. The environment creation unit (120) can control the temperature, humidity, light quantity, and supplement input of the divided space. The environment creation unit (120) can control the temperature, humidity, light quantity, and supplement input inside the divided space according to the calculation result of the control server (130). The environment creation unit (120) can control the temperature, humidity, light quantity, and supplement input inside the divided space according to the condition of the crop determined by the control server (130).
S130 단계에서, 상기 제어서버(130)는 상기 변화 특징에 기반해 상기 환경조성부(120)가 상기 재배환경을 조절하게 할 수 있다.At step S130, the control server (130) can cause the environment creation unit (120) to control the cultivation environment based on the change characteristics.
S130 단계에서, 상기 제어서버(130)는 상기 연산 결과에 따른 상기 작물의 상태이상 또는 질병에 따라 상기 환경조성부(120)가 상기 구분 공간의 재배환경을 상기 작물의 상태 개선 또는 성장에 필요한 조건에 맞추게 할 수 있다. 상기 제어서버(130)는 상기 연산 결과에 따른 상기 작물의 상태이상 또는 질병에 따라 상기 환경 조절부(120)가 상기 구분 공간의 온도, 습도, 광량 및 보조제 투입 여부를 변경하게 할 수 있다. At step S130, the control server (130) can cause the environment creation unit (120) to adjust the cultivation environment of the divided space to conditions necessary for improving the condition or growth of the crop according to the abnormal condition or disease of the crop according to the calculation result. The control server (130) can cause the environment control unit (120) to change the temperature, humidity, amount of light, and whether to add a supplement of the divided space according to the abnormal condition or disease of the crop according to the calculation result.
이상과 같이 실시 예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with limited drawings as described above, those skilled in the art can apply various technical modifications and variations based on the above. For example, appropriate results can be achieved even if the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or are replaced or substituted by other components or equivalents.
그러므로, 다른 구현들, 다른 실시 예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also included within the scope of the claims described below.
Claims (5)
상기 구분 공간의 재배환경을 감지하고 제어하는 환경조성부; 및
상기 카메라가 촬영한 영상에서 상기 작물의 변화 특징을 추출하고, 상기 변화 특징에 기반해 상기 환경조성부가 상기 재배환경을 조절하게하는 제어서버;를 포함하는 스마트팜 재배환경 자동 제어 시스템.A camera that captures images of crops within a designated space;
An environment creation unit that detects and controls the cultivation environment of the above-mentioned separated space; and
A smart farm cultivation environment automatic control system including a control server that extracts change characteristics of the crop from the image captured by the camera and causes the environment creation unit to control the cultivation environment based on the change characteristics.
상기 카메라는,
주기적으로 상기 구분공간내 상기 작물의 영상을 촬영하고,
상기 제어서버는,
상기 영상에서 상기 작물의 영역을 추출하고, 추출된 상기 작물의 영역을 분석해 상기 작물의 성장 정도, 상태 이상 및 질병을 포함하는 변화 특징을 추출하는 것을 특징으로 하는 스마트팜 재배환경 자동 제어 시스템.In the first paragraph,
The above camera,
Periodically take images of the crops in the above-mentioned separated space,
The above control server,
A smart farm cultivation environment automatic control system characterized by extracting an area of the crop from the image, analyzing the extracted area of the crop, and extracting change features including the growth degree, abnormal condition, and disease of the crop.
상기 제어서버는,
상기 작물 영역의 크기에 기반해 상기 작물의 성장 정도를 분석하고, 상기 작물의 색이 연속적이지 않은 부분을 기준으로 경계선을 형성하고, 경계선에 따라 영역이 구분된 상기 영상을 CNN에 통과시켜 특징을 추출하여 상태 이상 또는 질병을 분석하는 것을 특징으로 하는 스마트팜 재배환경 자동 제어 시스템.In the second paragraph,
The above control server,
A smart farm cultivation environment automatic control system characterized by analyzing the growth degree of the crop based on the size of the crop area, forming a boundary line based on a part of the crop where the color is not continuous, and extracting features by passing the image divided into areas according to the boundary line through a CNN to analyze abnormal conditions or diseases.
상기 제어서버는,
하기 수학식 1을 연산하여 상태 이상 또는 질병을 판단하는 것을 특징으로 하는 스마트팜 재배환경 자동 제어 시스템.
[수학식 1]
(여기서, 는 상기 작물에서 구분된 영역의 상기 작물에 발생하는 n번 상태 이상 또는 질병의 위치와의 일치 확률, 는 상기 작물에서 추출된 특징과 상기 작물에 발생하는 n번 상태 이상 또는 질병의 특징과의 일치 확률, 는 상기 작물의 성장 단계에 따라 상기 n번 상태 이상 또는 질병이 발생 여부이다.)In the third paragraph,
The above control server,
A smart farm cultivation environment automatic control system characterized by determining abnormal conditions or diseases by calculating the following mathematical expression 1.
[Mathematical formula 1]
(Here, is the probability of matching the location of the nth abnormal condition or disease occurring in the crop in the area distinguished from the crop, is the probability of matching between the features extracted from the above crop and the features of the nth abnormal condition or disease occurring in the above crop, is whether the above n-th condition or disease occurs depending on the growth stage of the above crop.)
상기 환경조성부는,
상기 구분 공간의 온도, 습도, 광량, 보조제 투입을 제어하는 것을 특징으로 하는 스마트팜 재배환경 자동 제어 시스템.
In the third paragraph,
The above environmental development department,
A smart farm cultivation environment automatic control system characterized by controlling temperature, humidity, light quantity, and auxiliary agent input of the above-mentioned divided space.
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240164162A true KR20240164162A (en) | 2024-11-19 |
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020007363A1 (en) | Method and apparatus for identifying number of targets, and computer-readable storage medium | |
CN105095957A (en) | Silkworm cocoon counting method based on image segmentation | |
WO2018133353A1 (en) | Nutrient solution control method and control device | |
Dhondt et al. | High‐resolution time‐resolved imaging of in vitro Arabidopsis rosette growth | |
WO2016017150A1 (en) | Growth state estimation device, plant growth observation system, growth state estimation method, growth index estimation method, and recording medium | |
CN113034301A (en) | Crop growth management system and method | |
CN110286092A (en) | A kind of plant growth trend analysis system | |
CN105744225A (en) | Method and system for analyzing crop growth remotely | |
CN105510335A (en) | Growth condition detection method for plants in home-use planting machine | |
CN106896845A (en) | The method of CCU and the regulation feeding environment based on it | |
KR20240164162A (en) | Smart farm growth environment automatic control method and system | |
KR102652306B1 (en) | Apparatus for managing plant growth | |
CN105869061A (en) | Method for analyzing plant growth state through computer | |
CN102914328A (en) | Method for automatically regulating alarm thresholds of computer room temperature and humidity monitoring system | |
CN117730702A (en) | Crop planting management method and system based on big data | |
CN105574853A (en) | Method and system for calculating number of wheat grains based on image identification | |
Story et al. | Automated machine vision guided plant monitoring system for greenhouse crop diagnostics | |
TWI720842B (en) | Intelligent bamboo shoot cultivation and harvesting monitoring system and method | |
KR102656576B1 (en) | System and method for smart farm light source control | |
KR102620425B1 (en) | Cloud-based big-data analysis system for smart farm | |
KR20200103986A (en) | Smart farm system | |
EP4061116B1 (en) | System and method for autonomous monitoring and/or optimization of plant growth | |
KR102717124B1 (en) | Apparatus and method for operating closed smart farm | |
CN104615989A (en) | Outdoor day and night distinguishing method | |
CN118354037A (en) | YOLOV 8-based poultry health monitoring system and monitoring method |