[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7012070B2 - Parking guidance system and its control method - Google Patents

Parking guidance system and its control method Download PDF

Info

Publication number
JP7012070B2
JP7012070B2 JP2019504134A JP2019504134A JP7012070B2 JP 7012070 B2 JP7012070 B2 JP 7012070B2 JP 2019504134 A JP2019504134 A JP 2019504134A JP 2019504134 A JP2019504134 A JP 2019504134A JP 7012070 B2 JP7012070 B2 JP 7012070B2
Authority
JP
Japan
Prior art keywords
parking
vehicle
area
parking surface
guidance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019504134A
Other languages
Japanese (ja)
Other versions
JP2021510428A (en
Inventor
チュン ヨン ソ,
Original Assignee
ネクスパシステム シーオー.,エルティーディー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ネクスパシステム シーオー.,エルティーディー. filed Critical ネクスパシステム シーオー.,エルティーディー.
Publication of JP2021510428A publication Critical patent/JP2021510428A/en
Application granted granted Critical
Publication of JP7012070B2 publication Critical patent/JP7012070B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Operations Research (AREA)

Description

本発明は、効率よいオブジェクト認識及び番号認識方法が適用された駐車誘導システムに関し、具体的に、本発明は、モーション認識、オブジェクト認識、駐車面設定、番号認識方式を適用した駐車誘導システムに関する。 The present invention relates to a parking guidance system to which an efficient object recognition and number recognition method is applied, and specifically, the present invention relates to a parking guidance system to which motion recognition, object recognition, parking surface setting, and number recognition method are applied.

経済成長と所得増加に伴い、車両の需要が急増していることに対して、道路事情や交通状況を管理する人力は、不足している実情である。そこで、制限された人員で現在の交通管理体系を克服しようとする努力がなされている。 The demand for vehicles is increasing rapidly along with economic growth and income growth, but the human power to manage road conditions and traffic conditions is in short supply. Therefore, efforts are being made to overcome the current traffic management system with limited personnel.

このような努力の一環として、車両の自動認識(番号認識を含む)システムの開発が活発に行われている。車両認識又は車両の番号(文字)認識を通じて、交通取締は勿論、交通量調査、盗難車両検挙、出入車両統制、駐車施設管理などの多様な分野に効率よく利用可能であり、現在まで多くの研究がなされている。 As part of such efforts, the development of automatic vehicle recognition (including number recognition) systems is being actively carried out. Through vehicle recognition or vehicle number (character) recognition, it can be efficiently used in various fields such as traffic control, traffic volume investigation, stolen vehicle arrest, entry / exit vehicle control, parking facility management, etc., and many studies have been conducted to date. Has been made.

特に、車両ナンバープレートの文字を認識するための過程は、他の文字認識とは異なり、周辺の環境的な影響で、カメラノイズ、照明変化、天気などによって、歪んだ現象が発生するため、強力な処理方法が考えられるべきである。しかし、車両のナンバープレート領域の場合、その固有の特性上、内容が制限されており、一般の文字認識(パターン認識)と比較して、構造が単純である。このような理由によって、車両番号認識(License Plate Recognition: LPR)は、環境的な特性、車両の需要増加、人力需給、及び駐車空間の資源管理を効率よく運営するための最も通常のシステムであると言える。 In particular, the process for recognizing the characters on the vehicle license plate is different from other character recognition, and it is powerful because it causes distorted phenomena due to camera noise, lighting changes, weather, etc. due to the influence of the surrounding environment. Processing method should be considered. However, in the case of the license plate area of the vehicle, the content is limited due to its unique characteristics, and the structure is simple as compared with general character recognition (pattern recognition). For this reason, License Plate Recognition (LPR) is the most common system for efficiently managing environmental characteristics, increased demand for vehicles, labor supply and demand, and resource management of parking spaces. It can be said that.

LPRシステム又は番号認識の技術は、イギリスで1976年に最初に開発された。その以後、数十年の間、技術が進化し、市場需要が増加することにつれ、LPRシステムは成長しつつ、東南アジアを始めとしたヨーロッパに逐次拡大された。これにより、米国の北米地域でも、LPRシステム市場が大きく成長している。これは、効率的な犯罪鎮圧及び予防技術に対する強い動機付与となり、より広い市場に活性化されるきっかけとなった。 The LPR system or number recognition technology was first developed in the United Kingdom in 1976. After that, for decades, as the technology evolved and the market demand increased, the LPR system grew and gradually expanded to Europe including Southeast Asia. As a result, the LPR system market is also growing significantly in the North American region of the United States. This provided a strong motivation for efficient crime suppression and prevention technologies, and triggered a revitalization of the wider market.

過去の車両番号認識(LPR)又はALPR(Automated LPR)システムは、車両ナンバープレートを判読するために、カメラより獲得されたイメージ(映像)に、光学文字認識(Optical Character Recognition: OCR)を用いて、監視方法(Surveillance Method)で適用された。近年、駐車管理システムの名前で、駐車空間の効率的な業務を行っている。現在、LPRシステムは、駐車環境に関して、管理人が駐車料金を精算することで、人力需給及び人件費の負担の現状を解決しており、LPRシステムの需要は増加しつつ、技術の変化及び開発が持続的になっている。 Past vehicle number recognition (LPR) or ALPR (Automated LPR) systems use Optical Character Recognition (OCR) on images acquired from cameras to interpret vehicle license plates. , Applied in the Surveillance Method. In recent years, under the name of parking management system, we have been doing efficient work of parking space. Currently, the LPR system solves the current situation of labor supply and demand and labor cost burden by the manager paying the parking fee regarding the parking environment, and the demand for the LPR system is increasing, and the technology is changing and developing. Has become persistent.

また、公共安全と個人保安などの理由で、現代には、あっちこっちにCCTV(closed circuit television)が設置されており、現在も進行中であり、CCTVなどで記録された資料は、犯罪予防と犯罪発生時の証拠資料として活用されている。 In addition, for reasons such as public safety and personal security, CCTV (closed circuit television) has been installed here and there in modern times, and it is still in progress, and the materials recorded by CCTV etc. are for crime prevention. It is used as evidence material when a crime occurs.

しかし、CCTVにより特定の車両を確認するためには、車両の予想動線を予め把握して、動線内のCCTVをリアルタイムで監視するか、録画された内容を一々再生して車両を確認しなければならないという不便さと、人的・物的・時間的な制約がある。 However, in order to confirm a specific vehicle by CCTV, the expected flow line of the vehicle is grasped in advance and the CCTV in the flow line is monitored in real time, or the recorded contents are played back one by one to confirm the vehicle. There are inconveniences of having to do it, and human, physical, and time constraints.

なし none

本発明は、効率よいオブジェクト認識及び番号認識方法が適用された駐車誘導システムに関し、具体的に、モーション認識、オブジェクト認識、駐車面設定、番号認識方式などを適用した駐車誘導システムをユーザに提供しようとする。 The present invention relates to a parking guidance system to which an efficient object recognition and number recognition method is applied, and specifically, to provide a parking guidance system to which motion recognition, object recognition, parking surface setting, number recognition method, etc. are applied. And.

一方、本発明で達成しようとする技術的課題は、以上で言及した技術的課題に制限されず、言及していない他の技術的課題は、以下の記載から、本発明が属する技術分野における通常の知識を有する者にとって、明確に理解されるだろう。 On the other hand, the technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned above are usually described in the technical fields to which the present invention belongs. It will be clearly understood by those who have the knowledge of.

前記の技術的課題を達成するための本発明の1様態である駐車誘導方法は、カメラが少なくとも1つの映像を入力される第1のステップと、前記少なくとも1つの映像内でモーションが感知されるか否かを判断する第2のステップと、前記モーションが感知される場合、前記少なくとも1つの映像内のオブジェクト認識を試みる第3のステップと、前記オブジェクト認識が成功する場合、前記認識したオブジェクトが、所定の複数の駐車面の少なくとも一部である第1の駐車面と重なる領域が発生したかを判断する第4のステップと、前記重なる領域が発生した場合、前記認識したオブジェクトが車両であるか、人間であるかを判断する第5のステップと、前記認識したオブジェクトが車両である場合、前記車両が前記第1の駐車面の全領域のうち、所定の割合以上の領域を占有するか否かを判断する第6のステップと、前記車両が前記所定の割合以上の領域を占有した場合、前記車両が前記第1の駐車面に駐車したことと決定する第7のステップと、前記車両の車両番号を認識する第8のステップとを含むことを特徴とする。 In the parking guidance method, which is one aspect of the present invention for achieving the above technical problem, the first step in which the camera inputs at least one image and the motion is sensed in the at least one image. The second step of determining whether or not the motion is detected, the third step of attempting to recognize an object in at least one video when the motion is detected, and the recognized object when the object recognition is successful. The fourth step of determining whether an area overlapping the first parking surface which is at least a part of a predetermined plurality of parking surfaces has occurred, and when the overlapping area has occurred, the recognized object is a vehicle. The fifth step of determining whether the vehicle is a human being, and if the recognized object is a vehicle, whether the vehicle occupies a predetermined ratio or more of the entire area of the first parking surface. A sixth step of determining whether or not the vehicle is used, a seventh step of determining that the vehicle is parked on the first parking surface when the vehicle occupies an area equal to or larger than the predetermined ratio, and the vehicle. It is characterized by including an eighth step of recognizing the vehicle number of the vehicle.

前記第3のステップは、更に、前記映像内で所定のサイズ以上のオブジェクトが存在するかを判断する第3-1のステップと、前記オブジェクトを基準に、一定の距離離隔したオブジェクトボックスを設定する第3-2のステップとを含み、前記第5のステップは、前記オブジェクトボックス内に存在するオブジェクトが車両であるか、人間であるかを判断する。 The third step further sets a third step of determining whether an object having a predetermined size or larger exists in the video, and an object box separated by a certain distance based on the object. Including the third step and the fifth step, it is determined whether the object existing in the object box is a vehicle or a human being.

前記第8のステップは、更に、前記オブジェクトボックスの全領域のうち、所定の下端の領域を番号認識領域と設定する第8-1のステップと、前記番号認識領域に対して、番号認識動作を行う第8-2のステップと、前記番号認識動作の失敗及び成功より、前記車両のナンバープレートの位置と前記オブジェクトボックスの間の関連値を累積して格納する第8-3のステップとを含む。 The eighth step further performs a number recognition operation for the eighth step of setting a predetermined lower end area of the entire area of the object box as a number recognition area and the number recognition area. It includes the 8-2 step to be performed and the 8-3 step to accumulate and store the related value between the position of the license plate of the vehicle and the object box from the failure and success of the number recognition operation. ..

前記第8のステップが、前記車両ではない他の車両に適用される場合、前記累積した複数の関連値のうち、‘前記他の車両のナンバープレートの位置と、前記他の車両のオブジェクトボックスの間の関連値'と最も類似した第1の関連値を決め、前記第1の関連値に関するモデルにより、前記他の車両の番号認識動作を行う。 When the eighth step is applied to another vehicle other than the vehicle, among the accumulated related values,'the position of the license plate of the other vehicle and the object box of the other vehicle A first related value that is most similar to the "relevant value between" is determined, and the number recognition operation of the other vehicle is performed by the model related to the first related value.

前記認識したオブジェクトが人間である場合、前記第5のステップの以後には、更に、前記第1の駐車面の既存の状態をそのまま維持するステップを含み、前記既存の状態は、入車又は空車状態である。 When the recognized object is a human being, the step after the fifth step further includes a step of maintaining the existing state of the first parking surface as it is, and the existing state is an entry or an empty vehicle. It is a state.

前記第6のステップにおいて、前記車両が前記所定の割合以上の領域を占有しない場合、前記第1の駐車面は、出車されたことと決定するステップを更に含む。 In the sixth step, if the vehicle does not occupy more than the predetermined percentage of the area, the first parking surface further includes a step of determining that the vehicle has left.

前記第2のステップにおいて、所定の時間以上、前記モーションが感知されない場合、前記第3のステップを行う。 If the motion is not detected for a predetermined time or longer in the second step, the third step is performed.

また、前記の技術的課題を達成するための本発明の他の1様態である駐車誘導システムは、少なくとも1つの映像を入力されるカメラと、前記少なくとも1つの映像内でモーションが感知される場合、前記少なくとも1つの映像内のオブジェクト認識を試みる制御部とを含み、前記制御部は、前記オブジェクト認識が成功する場合、前記認識したオブジェクトが、所定の複数の駐車面の少なくとも一部である第1の駐車面と重なる領域が発生したかを判断し、前記重なる領域が発生した場合、前記認識したオブジェクトが車両であるか、人間であるかを判断し、前記認識したオブジェクトが車両である場合、前記車両が前記第1の駐車面の全領域のうち、所定の割合以上の領域を占有するか否かを判断し、前記車両が前記所定の割合以上の領域を占有した場合、前記車両が前記第1の駐車面に駐車したことと決定し、前記車両の車両番号を認識することを特徴とする。 Further, the parking guidance system, which is another aspect of the present invention for achieving the above technical problem, includes a camera into which at least one image is input and a case where motion is sensed in the at least one image. The control unit includes, when the object recognition is successful, the recognized object is at least a part of a predetermined plurality of parking surfaces. When it is determined whether an area overlapping the parking surface of 1 is generated, when the overlapping area is generated, it is determined whether the recognized object is a vehicle or a human, and the recognized object is a vehicle. It is determined whether or not the vehicle occupies an area of a predetermined ratio or more in the entire area of the first parking surface, and when the vehicle occupies an area of a predetermined ratio or more, the vehicle occupies the area of the predetermined ratio or more. It is characterized in that it is determined that the vehicle is parked on the first parking surface and the vehicle number of the vehicle is recognized.

前記制御部は、前記映像内で所定のサイズ以上のオブジェクトが存在するかを判断し、前記オブジェクトを基準に、一定の距離離隔したオブジェクトボックスを設定し、
前記オブジェクトボックス内に存在するオブジェクトが車両であるか、人間であるかを判断する。
The control unit determines whether an object having a predetermined size or larger exists in the video, sets an object box separated by a certain distance from the object, and sets the object box.
It is determined whether the object existing in the object box is a vehicle or a human.

前記制御部は、前記オブジェクトボックスの全領域のうち、所定の下端の領域を番号認識領域と設定し、前記番号認識領域に対して、番号認識動作を行い、前記番号認識動作の失敗及び成功より、前記車両のナンバープレートの位置と前記オブジェクトボックスの間の関連値を累積してメモリに格納する。 The control unit sets a predetermined lower end area of the entire area of the object box as a number recognition area, performs a number recognition operation on the number recognition area, and fails or succeeds in the number recognition operation. , The related value between the position of the license plate of the vehicle and the object box is accumulated and stored in the memory.

前記番号認識動作が前記車両ではない他の車両に適用される場合、前記制御部は、前記累積した複数の関連値のうち、‘前記他の車両のナンバープレートの位置と、前記他の車両のオブジェクトボックスの間の関連値'と最も類似した第1の関連値を決定し、前記第1の関連値に関するモデルにより、前記他の車両の番号認識動作を行う。 When the number recognition operation is applied to another vehicle that is not the vehicle, the control unit determines that, among the accumulated related values, the position of the license plate of the other vehicle and the position of the license plate of the other vehicle The first related value most similar to the related value between the object boxes is determined, and the number recognition operation of the other vehicle is performed by the model for the first related value.

前記認識したオブジェクトが人間である場合、前記制御部は、前記第1の駐車面の既存の状態をそのまま維持し、前記既存の状態は、入車又は空車状態である。 When the recognized object is a human being, the control unit maintains the existing state of the first parking surface as it is, and the existing state is an entering or empty state.

本発明は、効率よいナンバープレート探知及び番号認識方法が適用された駐車誘導システムに関し、具体的に、モーション認識、オブジェクト認識、駐車面設定、番号認識方式などを適用した駐車誘導システムを、ユーザに提供することができる。 The present invention relates to a parking guidance system to which an efficient license plate detection and number recognition method is applied. Specifically, the present invention provides a user with a parking guidance system to which motion recognition, object recognition, parking surface setting, number recognition method, etc. are applied. Can be provided.

本発明では、モーション認識に関して、カメラ映像から、以前の映像との動きを判断して、動きがある場合にのみ動作し、動きがない場合でも、一定の周期で処理動作を行い、オブジェクト認識に関して画面で一定のサイズ以上の物体を検知し、検知位置を四角状に特定した後、種類を判断することで、精度を高めることができる。 In the present invention, regarding motion recognition, the movement with the previous image is determined from the camera image, and the operation is performed only when there is movement, and even when there is no movement, the processing operation is performed at a constant cycle, and the object recognition is performed. Accuracy can be improved by detecting an object of a certain size or larger on the screen, specifying the detection position in a square shape, and then determining the type.

また、本発明では、駐車場内の面設定に関して、検知した物体のうち、駐車場面の一定以上の前方にある物体を判別している場合、該当駐車面と重なる箇所を探して遮蔽として処理し、自動車中にそれぞれの駐車面と重なる割合が一定値を超えると、その駐車面が占有していると処理し、該当駐車面に重なる割合が一定以上大きい自動車物体がなく、且つ、遮蔽に該当しない場合は、空駐車面と判定することで、エラーを減らすことができる。 Further, in the present invention, regarding the surface setting in the parking lot, when the detected object is identified in front of a certain amount or more in the parking scene, a portion overlapping with the corresponding parking surface is searched for and treated as a shield. If the ratio of overlapping with each parking surface exceeds a certain value in the car, it is treated as occupied by the parking surface, there is no automobile object with a ratio of overlapping with the corresponding parking surface larger than a certain value, and it does not correspond to shielding. In that case, the error can be reduced by determining that the parking surface is empty.

また、本発明では、映像内で物体領域ボックスを1/3下端に移動して、番号認識領域を設定し、毎回の番号認識結果と位置を格納し、番号の統計を求め、最も多いものを決めることで、番号認識率を高めることができる。 Further, in the present invention, the object area box is moved to the lower end of 1/3 in the image, the number recognition area is set, the number recognition result and the position are stored each time, the number statistics are obtained, and the most common one is obtained. By deciding, the number recognition rate can be increased.

一方、本発明より得られる効果は、以上で言及した効果に制限されず、言及していない他の効果は、以下の記載から本発明が属する技術分野における通常の知識を有する者にとって、明確に理解されるだろう。 On the other hand, the effects obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned above are clearly described below to those who have ordinary knowledge in the technical field to which the present invention belongs. Will be understood.

図1は、本発明に適用される駐車誘導システムを説明するブロック構成図である。FIG. 1 is a block configuration diagram illustrating a parking guidance system applied to the present invention. 図2は、本発明が提案するモーション認識、オブジェクト認識、駐車面設定、番号認識方式などを適用した駐車誘導方法を説明するシーケンス図である。FIG. 2 is a sequence diagram illustrating a parking guidance method to which motion recognition, object recognition, parking surface setting, number recognition method, and the like proposed by the present invention are applied. 及びas well as は、本発明における車両オブジェクト検知の一例を示している。Shows an example of vehicle object detection in the present invention. 及びas well as は、本発明における車両及び人間の混合したオブジェクト検知の一例を示している。Shows an example of mixed vehicle and human object detection in the present invention. 及びas well as は、本発明における駐車面をセットする一例を示している。Shows an example of setting a parking surface in the present invention. 及びas well as は、本発明における遮蔽として処理する一例を示している。Shows an example of processing as a shield in the present invention. 及びas well as は、本発明における番号を認識する一例を示している。Shows an example of recognizing a number in the present invention. 図8は、本発明が提案する駐車案内方法を説明するシーケンス図である。FIG. 8 is a sequence diagram illustrating the parking guidance method proposed by the present invention.

駐車誘導システム
本発明が提案するモーション認識、オブジェクト認識、駐車面設定、番号認識方式などを適用した駐車誘導システムの具体的な説明に先立って、該当システムの各構成に含まれる駐車誘導システムについて、基本的に説明する。
Parking Guidance System Prior to the specific explanation of the parking guidance system to which the motion recognition, object recognition, parking surface setting, number recognition method, etc. proposed by the present invention are applied, the parking guidance system included in each configuration of the relevant system is described. I will explain basically.

図1は、本発明に適用される駐車誘導システムを説明するブロック構成図である。 FIG. 1 is a block configuration diagram illustrating a parking guidance system applied to the present invention.

前記駐車誘導システムは、無線通信部110と、A/V(Audio/Video)入力部120と、ユーザ入力部130と、感知部140と、出力部150と、メモリ160と、インターフェース部170と、制御部180と、給電部190とを含む。 The parking guidance system includes a wireless communication unit 110, an A / V (Audio / Video) input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, an interface unit 170, and the like. A control unit 180 and a power feeding unit 190 are included.

但し、図1に示されている構成要素は必須ではなく、それより多くの構成要素を有するか、それより少ない構成要素を有する駐車誘導システムを具現することができる。 However, the components shown in FIG. 1 are not essential, and a parking guidance system having more or less components can be embodied.

以下、前記構成要素について、考察してみる。 Hereinafter, the above components will be considered.

無線通信部110は、駐車誘導システムと無線通信システムの間、又は駐車誘導システムと駐車誘導システムが位置したネットワークの間の無線通信を可能とする1以上のモジュールを含む。 The wireless communication unit 110 includes one or more modules that enable wireless communication between the parking guidance system and the wireless communication system, or between the parking guidance system and the network in which the parking guidance system is located.

例えば、無線通信部110は、放送受信モジュール111と、移動通信モジュール112と、無線インターネットモジュール113と、近距離通信モジュール114と、位置情報モジュール115とを含む。 For example, the wireless communication unit 110 includes a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a position information module 115.

放送受信モジュール111は、放送チャンネルを介して、外部の放送管理サーバより、放送信号及び/又は放送に関する情報を受信する。 The broadcast receiving module 111 receives a broadcast signal and / or information related to broadcasting from an external broadcast management server via a broadcast channel.

前記放送チャンネルは、衛星チャンネル、地上波チャンネルを含む。前記放送管理サーバは、放送信号及び/又は放送に関する情報を生成し送信するサーバ、又は生成済みの放送信号及び/又は放送に関する情報を提供されて、駐車誘導システムに送信するサーバである。前記放送信号は、TV放送信号、ラジオ放送信号、データ放送信号を含むだけでなく、TV放送信号又はラジオ放送信号にデータ放送信号が結合された形状の放送信号も含む。 The broadcasting channel includes a satellite channel and a terrestrial channel. The broadcast management server is a server that generates and transmits information on broadcast signals and / or broadcasts, or a server that is provided with information on broadcast signals and / or broadcasts that have been generated and transmits the information to a parking guidance system. The broadcast signal includes not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also includes a TV broadcast signal or a broadcast signal in the form in which a data broadcast signal is combined with a radio broadcast signal.

前記放送に関する情報は、放送チャンネル、放送プログラム、又は放送サービス提供者に関する情報である。前記放送に関する情報は、移動通信網を介しても提供される。このような場合、前記移動通信モジュール112によって受信される。 The information regarding broadcasting is information regarding a broadcasting channel, a broadcasting program, or a broadcasting service provider. Information about the broadcast is also provided via the mobile communication network. In such a case, it is received by the mobile communication module 112.

前記放送に関する情報は、様々な形態で存在する。例えば、DMB(Digital Multimedia Broadcasting)のEPG(Electronic Program Guide)、又はDVB-H(Digital Video Broadcast-Handheld)のESG(Electronic Service Guide)の形態で存在する。 Information about the broadcast exists in various forms. For example, it exists in the form of EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or ESG (Electronic Service Guide) of DVB-H (Digital Video Broadcast-Handheld).

前記放送受信モジュール111は、例えば、DMB-T(Digital Multimedia Broadcasting-Terrestrial)、DMB-S(Digital Multimedia Broadcasting-Satellite)、MediaFLO(Media Forward Link Only)、DVB-H(Digital Video Broadcast-Handheld)、ISDB-T(Integrated Services Digital Broadcast-Terrestrial)などのデジタル放送システムを用いて、デジタル放送信号を受信することができる。もちろん、前記放送受信モジュール111は、上述したデジタル放送システムだけでなく、他の放送システムに適して構成される。 The broadcast receiving module 111 includes, for example, DMB-T (Digital Multimedia Broadcasting-Terrestrial), DMB-S (Digital Multimedia Broadcasting-Satellite), MediaFLO (Media Forward Link Only), DVB-H (Digital Video Broadcast-Handheld), and the like. A digital broadcasting signal can be received by using a digital broadcasting system such as ISDB-T (Integrated Services Digital Broadcast-Terrestrial). Of course, the broadcast receiving module 111 is suitable not only for the above-mentioned digital broadcasting system but also for other broadcasting systems.

放送受信モジュール111を介して受信された放送信号及び/又は放送に関する情報は、メモリ160に格納される。 The broadcast signal and / or information related to the broadcast received via the broadcast reception module 111 is stored in the memory 160.

移動通信モジュール112は、移動通信網上で、基地局、外部の駐車誘導システム、サーバの少なくとも1つと無線信号を送受信する。 The mobile communication module 112 transmits and receives radio signals to and from at least one of a base station, an external parking guidance system, and a server on the mobile communication network.

文字/マルチメディアメッセージ送受信による様々な形態のデータを含むことができる。 It can contain various forms of data by sending and receiving text / multimedia messages.

無線インターネットモジュール113は、無線インターネット接続のためのモジュールであり、駐車誘導システムに内装又は外装される。無線インターネットの技術としては、WLAN(Wireless LAN)(Wi-Fi)、Wibro(Wireless broadband(登録商標))、Wimax(World Interoperability for Microwave Access(登録商標))、HSDPA(High Speed Downlink Packet Access)などが利用可能である。 The wireless internet module 113 is a module for connecting to the wireless internet, and is installed or externally attached to the parking guidance system. Wireless Internet technologies include WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband (registered trademark)), Wimax (World Interoperability for Microwave Access (registered trademark)), and HSDPA (High Speed Downlink Packet Access). Is available.

近距離通信モジュール114は、近距離通信のためのモジュールである。近距離通信(short range communication)技術として、ブルトゥース(Bluetooth(登録商標))、RFID(Radio Frequency Identification)、赤外線通信(IrDA、infrared Data Association)、UWB(Ultra Wideband)、ZigBee(登録商標)、Wi-Fi(Wireless Fidelity、Wi-Fi(登録商標))などが利用可能である。 The short-range communication module 114 is a module for short-range communication. As short range communication technology, Bluetooth (Bluetooth (registered trademark)), RFID (Radio Frequency Identification), infrared communication (IrDA, infrared Data Association), UWB (Ultra Wideband), ZigBee (registered trademark), Wi-Fi (Wireless Fidelity, Wi-Fi (registered trademark)) and the like can be used.

位置情報モジュール115は、駐車誘導システムの位置を獲得するためのモジュールであって、その代表例として、GPS(Global Position System)モジュールがある。 The position information module 115 is a module for acquiring the position of the parking guidance system, and a typical example thereof is a GPS (Global Position System) module.

図1を参照すると、A/V(Audio/Video)入力部120は、オーディオ信号又はビデオ信号の入力のためのもので、これにはカメラ121とマイク122などが含まれる。カメラ121は、撮影モードでイメージセンサによって得られる静止画又は動画などの画像フレームを処理する。処理された画像フレームは、ディスプレイ部151に表示される。 Referring to FIG. 1, the A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and includes a camera 121, a microphone 122, and the like. The camera 121 processes an image frame such as a still image or a moving image obtained by the image sensor in the shooting mode. The processed image frame is displayed on the display unit 151.

カメラ121で処理された画像フレームは、メモリ160に格納されるか、無線通信部110を介して外部に伝送される。カメラ121は、使用環境によって、2以上設けられる。 The image frame processed by the camera 121 is stored in the memory 160 or transmitted to the outside via the wireless communication unit 110. Two or more cameras 121 are provided depending on the usage environment.

マイク122は、録音モード、音声認識モードなどで、マイクロホン(Microphone)によって、外部の音響信号を入力されて、電気的な音声データとして処理する。処理された音声データは、移動通信モジュール112を介して、移動通信基地局へ送信可能な形態に変換出力される。マイク122には、外部の音響信号を入力される過程で発生するノイズを除去するための様々な雑音除去アルゴリズムが具現される。 The microphone 122 receives an external acoustic signal by a microphone in a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data is converted and output in a form that can be transmitted to the mobile communication base station via the mobile communication module 112. Various noise removal algorithms for removing noise generated in the process of inputting an external acoustic signal are embodied in the microphone 122.

ユーザ入力部130は、ユーザが駐車誘導システムの動作制御のための入力データを発生させる。ユーザ入力部130は、キーパッド(key pad)、ドームスイッチ(dome switch)、タッチパッド(静圧/停電)、ジョグホイール、ジョグスイッチからなる。 The user input unit 130 generates input data for the user to control the operation of the parking guidance system. The user input unit 130 includes a key pad, a dome switch, a touch pad (static pressure / power failure), a jog wheel, and a jog switch.

感知部140は、駐車誘導システムの開閉状態、駐車誘導システムの位置、ユーザの接触有無、駐車誘導システムの方位、駐車誘導システムの加速/減速などのように、駐車誘導システムの現状態を感知して、駐車誘導システムの動作を制御する感知信号を発生させる。 The sensing unit 140 senses the current state of the parking guidance system, such as the open / closed state of the parking guidance system, the position of the parking guidance system, the presence or absence of contact by the user, the orientation of the parking guidance system, and the acceleration / deceleration of the parking guidance system. To generate a sensing signal that controls the operation of the parking guidance system.

感知部140は、給電部190の給電可否、インターフェース部170の外部の駐車誘導システム結合の可否などを感知する。 The sensing unit 140 senses whether or not the power feeding unit 190 can supply power, and whether or not the interface unit 170 can be connected to an external parking guidance system.

一方、前記感知部140は、近接センサ141を含む。 On the other hand, the sensing unit 140 includes a proximity sensor 141.

出力部150は、視覚、聴覚、又は触覚などに関する出力を発生するためのもので、ディスプレイ部151と、音響出力モジュール152と、アラーム部153と、ハプティックモジュール154と、プロジェクタモジュール155とを含む。 The output unit 150 is for generating an output related to visual, auditory, tactile sense, etc., and includes a display unit 151, an acoustic output module 152, an alarm unit 153, a haptic module 154, and a projector module 155.

ディスプレイ部151は、駐車誘導システムで処理される情報を表示(出力)する。 The display unit 151 displays (outputs) the information processed by the parking guidance system.

ディスプレイ部151は、液晶ディスプレイ(liquid crystal display、LCD)、薄膜トランジスタ液晶ディスプレイ(thin film transistor-liquid crystal display、TFT LCD)、有機発光ダイオード(organic light-emitting diode、OLED)、フレキシブルディスプレイ(flexible display)、3次元ディスプレイ(3D display)の少なくとも1つを含む。 The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. Includes at least one of a 3D display.

これらのうち、一部のディスプレイは、外部を見られるように、透明型又は光透過型からなる。これは、透明ディスプレイといい、前記透明ディスプレイの代表例としては、TOLED(Transparent OLED)などがある。ディスプレイ部151の後方構造も、光透過型構造からなることができる。このような構造により、ユーザは、駐車誘導システムボディのディスプレイ部151が占める領域を通じて、駐車誘導システムボディの後方に位置した事物を見ることができる。 Of these, some displays are either transparent or translucent so that they can be seen outside. This is called a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED). The rear structure of the display unit 151 can also be a light transmissive structure. With such a structure, the user can see things located behind the parking guidance system body through the area occupied by the display unit 151 of the parking guidance system body.

駐車誘導システムの形態により、ディスプレイ部151が2つ以上存在する。例えば、駐車誘導システムには、複数のディスプレイ部が1つの面に離隔するか、一体に配置され、また、互いに異なる面にそれぞれ配置されることもできる。 Depending on the form of the parking guidance system, there are two or more display units 151. For example, in a parking guidance system, a plurality of display units may be separated from each other or arranged integrally on one surface, or may be arranged on different surfaces from each other.

ディスプレイ部151とタッチ動作を感知するセンサ(以下、‘タッチセンサ’という)とが相互レイヤー構造をなす場合(以下、‘タッチスクリーン’という)、ディスプレイ部151は、出力装置の他に、入力装置としても使用可能である。タッチセンサは、例えば、タッチフィルム、タッチシート、タッチパッドなどの形態を有する。 When the display unit 151 and the sensor that detects the touch operation (hereinafter referred to as'touch sensor') form a mutual layer structure (hereinafter referred to as'touch screen'), the display unit 151 is an input device in addition to the output device. It can also be used as. The touch sensor has, for example, a form such as a touch film, a touch sheet, and a touch pad.

タッチセンサは、ディスプレイ部151の特定の部位に加えられた圧力、又はディスプレイ部151の特定の部位で発生する静電容量などの変化を、電気的な入力信号に変換するように構成される。タッチセンサは、タッチされる位置及び面積だけでなく、タッチ時の圧力までも検出できるように構成される。 The touch sensor is configured to convert a change in pressure applied to a specific part of the display unit 151 or a capacitance generated in a specific part of the display unit 151 into an electrical input signal. The touch sensor is configured to detect not only the touched position and area but also the pressure at the time of touching.

タッチセンサに対するタッチ入力がある場合、それに対応する信号は、タッチ制御機に送出される。タッチ制御機は、その信号を処理した後、対応するデータを制御部180に伝送する。もって、制御部180は、ディスプレイ部151のある領域がタッチされたか否か分かることになる。 If there is a touch input to the touch sensor, the corresponding signal is sent to the touch controller. After processing the signal, the touch controller transmits the corresponding data to the control unit 180. Therefore, the control unit 180 will know whether or not a certain area of the display unit 151 has been touched.

前記近接センサ141は、前記タッチスクリーンによって覆われる駐車誘導システムの内部領域、又は前記タッチスクリーンの近傍に配置される。前記近接センサは、所定の検出面に近づける物体、あるいは、近傍に存在する物体の有無を電磁系の力又は赤外線を用いて、機械的に接触することなく、検出するセンサをいう。近接センサは、接触式センサよりは寿命が長く、その活用度も高い。 The proximity sensor 141 is located in the internal area of the parking guidance system covered by the touch screen or in the vicinity of the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object that is close to a predetermined detection surface or an object that exists in the vicinity by using the force of an electromagnetic system or infrared rays without mechanically contacting the object. Proximity sensors have a longer life than contact sensors and are highly utilized.

前記近接センサの例としては、透過型光電センサ、直接反射型光電センサ、ミラー反射型光電センサ、高周波発振型近接センサ、静電容量型近接センサ、磁気型近接センサ、赤外線近接センサがある。前記タッチスクリーンが静電式の場合は、前記ポインタの近接による電界の変化で、前記ポインタの近接を検出するように構成される。この場合、前記タッチスクリーン(タッチセンサ)は、近接センサに分類される。 Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitance type proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is electrostatic, it is configured to detect the proximity of the pointer by the change in the electric field due to the proximity of the pointer. In this case, the touch screen (touch sensor) is classified as a proximity sensor.

以下では、説明の便宜のために、前記タッチスクリーン上にポインタが接触されず、且つ、近接し、前記ポインタが前記タッチスクリーン上に位置することが認識される行為を、“近接タッチ(proximity touch)”といい、前記タッチスクリーン上にポインタが実際に接触される行為を“接触タッチ(contact touch)”という。前記タッチスクリーン上でポインタに近接タッチされる位置とは、前記ポインタが近接タッチされる時、前記ポインタが前記タッチスクリーンに対して、垂直に対応する位置を意味する。 In the following, for convenience of explanation, the act of recognizing that the pointer is not touched and is close to the touch screen and that the pointer is located on the touch screen is referred to as “proximity touch”. ) ”, And the act of the pointer actually touching the touch screen is called“ contact touch ”. The position where the pointer is touched close to the pointer on the touch screen means the position where the pointer corresponds perpendicularly to the touch screen when the pointer is touched close to the pointer.

前記近接センサは、近接タッチと、近接タッチパターン(例えば、近接タッチ距離、近接タッチ方向、近接タッチ速度、近接タッチ時間、近接タッチ位置、近接タッチ移動状態など)を感知する。前記感知された近接タッチ動作及び近接タッチパターンに相応する情報は、タッチスクリーン上に出力される。 The proximity sensor senses a proximity touch and a proximity touch pattern (eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.). Information corresponding to the sensed proximity touch operation and proximity touch pattern is output on the touch screen.

音響出力モジュール152は、録音モード、音声認識モード、放送受信モードなどで無線通信部110から受信されるか、メモリ160に格納されたオーディオデータを出力する。音響出力モジュール152は、駐車誘導システムで行われる機能に関する音響信号を出力したりする。このような音響出力モジュール152には、レシーバ(Receiver)、スピーカ(speaker)、ブザー(Buzzer)などが含まれる。 The sound output module 152 outputs audio data received from the wireless communication unit 110 or stored in the memory 160 in a recording mode, a voice recognition mode, a broadcast reception mode, or the like. The acoustic output module 152 outputs an acoustic signal related to a function performed by the parking guidance system. Such an acoustic output module 152 includes a receiver (Receiver), a speaker (speaker), a buzzer (Buzzer), and the like.

アラーム部153は、駐車誘導システムのイベント発生を報知するための信号を出力する。 The alarm unit 153 outputs a signal for notifying the occurrence of an event in the parking guidance system.

アラーム部153は、ビデオ信号やオーディオ信号の他に、例えば、振動でイベント発生を報知するための信号を出力する。 In addition to the video signal and the audio signal, the alarm unit 153 outputs, for example, a signal for notifying the occurrence of an event by vibration.

前記ビデオ信号やオーディオ信号は、ディスプレイ部151や音声出力モジュール152によっても出力され、これらのディスプレイ部151、音声出力モジュール152は、アラーム部153の一部として分類可能である。 The video signal and audio signal are also output by the display unit 151 and the audio output module 152, and these display units 151 and the audio output module 152 can be classified as a part of the alarm unit 153.

ハプティックモジュール(haptic module)154は、ユーザが感じられる様々な触覚効果を発生させる。ハプティックモジュール154が発生させる触覚効果の代表例としては、振動がある。ハプティックモジュール154が発生する振動の強さとパターンなどは、制御可能である。 The haptic module 154 produces various tactile effects that the user can perceive. Vibration is a typical example of the tactile effect generated by the haptic module 154. The strength and pattern of vibration generated by the haptic module 154 can be controlled.

例えば、互いに異なる振動を合成して出力するか、順次出力することもできる。 For example, vibrations different from each other can be combined and output, or can be output sequentially.

ハプティックモジュール154は、振動の他にも、接触肌面について垂直運動するピン配列、噴射口や吸入口による空気の噴射力や吸入力、肌表面に対する擦れ、電極(electrode)の接触、静電気力などの刺激による効果と、吸熱や発熱可能な素子を用いた冷温感再現による効果など、様々な触覚効果を発生することができる。 In addition to vibration, the haptic module 154 has a pin arrangement that moves vertically on the contact skin surface, air injection force and suction input from the injection port and suction port, rubbing against the skin surface, electrode contact, electrostatic force, etc. Various tactile effects can be generated, such as the effect of the stimulus and the effect of reproducing the feeling of cold and warm using an element capable of absorbing heat and generating heat.

ハプティックモジュール154は、直接的な接触により、触覚効果を伝達することができるだけでなく、ユーザが指や腕などの筋感覚を通じて、触覚効果を感じられるように具現することもできる。ハプティックモジュール154は、携帯駐車誘導システムの構成様態によって、2以上設けられる。 The haptic module 154 can not only transmit the tactile effect by direct contact, but can also be embodied so that the user can feel the tactile effect through muscular sensations such as fingers and arms. Two or more haptic modules 154 are provided depending on the configuration of the portable parking guidance system.

プロジェクタモジュール155は、駐車誘導システムを用いて、イメージプロジェクト(project)の機能を行うための構成要素であって、制御部180の制御信号によって、ディスプレイ部151上に表示される映像と同一であるか、少なくとも一部が異なる映像を、外部スクリーン又は壁に表示可能である。 The projector module 155 is a component for performing the function of the image project (project) by using the parking guidance system, and is the same as the image displayed on the display unit 151 by the control signal of the control unit 180. Or, at least a partially different image can be displayed on an external screen or wall.

具体的に、プロジェクタモジュール155は、映像を外部に出力するための光(一例として、レーザ光)を発生させる光源(図示せず)、光源によって発生した光を用いて、外部に出力する映像を生成するための映像生成手段(図示せず)、及び映像を一定の焦点距離で外部に拡大出力するためのレンズ(図示せず)を含む。また、プロジェクタモジュール155は、レンズ又はモジュールの全体を機械的に動かして、映像投射方向を調節する装置(図示せず)を含むことができる。 Specifically, the projector module 155 uses a light source (not shown) that generates light (for example, laser light) for outputting an image to the outside, and light generated by the light source to output an image to the outside. It includes an image generation means for generating (not shown) and a lens (not shown) for magnifying and outputting an image to the outside at a constant focal length. Further, the projector module 155 can include a device (not shown) for adjusting the image projection direction by mechanically moving the lens or the entire module.

プロジェクタモジュール155は、ディスプレイ手段の素子の種類によって、CRT(Cathode Ray Tube)モジュール、LCD(Liquid Crystal Display)モジュール、及びDLP(Digital Light Processing)モジュールなどに分けられる。特に、DLPモジュールは、光源より発生した光がDMD(Digital Micromirror Device)チップに反射されることで生成された映像を拡大投射する方式で、プロジェクタモジュール151の小型化に有利である。 The projector module 155 is classified into a CRT (Cathode Ray Tube) module, an LCD (Liquid Crystal Display) module, a DLP (Digital Light Processing) module, and the like, depending on the type of element of the display means. In particular, the DLP module is a method of magnifying and projecting an image generated by reflecting light generated from a light source on a DMD (Digital Micromirror Device) chip, which is advantageous for miniaturization of the projector module 151.

望ましくは、プロジェクタモジュール155は、駐車誘導システムの側面、正面、又は背面に長さ方向に設けられる。また、プロジェクタモジュール155は、必要によって、駐車誘導システムのある位置でも設けられることは、言うまでもない。 Desirably, the projector module 155 is provided lengthwise on the side, front, or back of the parking guidance system. Needless to say, the projector module 155 is also provided at a certain position of the parking guidance system, if necessary.

メモリ160は、制御部180の処理及び制御のためのプログラムが格納され、入出力されるデータ(例えば、メッセージ、オーディオ、静止画、動画など)の仮格納のための機能も行う。前記メモリ160には、前記データのそれぞれに対する使用頻度も共に格納される。また、前記メモリ160には、前記タッチスクリーン上のタッチ入力時に出力される様々なパターンの振動及び音響に関するデータを格納することができる。 The memory 160 stores a program for processing and control of the control unit 180, and also performs a function for temporarily storing data to be input / output (for example, a message, audio, still image, moving image, etc.). The memory 160 also stores the frequency of use for each of the data. Further, the memory 160 can store various patterns of vibration and acoustic data output at the time of touch input on the touch screen.

メモリ160は、フラッシュメモリータイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、SD又はXDメモリなど)、ラム(Random Access Memory、RAM)、SRAM(Static Random Access Memory)、ロム(Read-Only Memory、ROM)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、PROM(Programmable Read-Only Memory)、磁気メモリ、磁気ディスク、光ディスクの少なくとも1つのタイプの格納媒体を含む。駐車誘導システムは、インターネット(internet)上で、前記メモリ160の格納機能を行うウェブストレージ(web storage)に関して動作することもできる。 The memory 160 includes a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), and a ram (Random). Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), Magnetic Memory, Magnetic Disk, Includes at least one type of storage medium for the optical disk. The parking guidance system can also operate on the Internet with respect to the web storage that performs the storage function of the memory 160.

インターフェース部170は、駐車誘導システムに連結される全ての外部の駐車誘導システムとの通路役割を果たす。インターフェース部170は、外部の駐車誘導システムからデータを伝送されるか、電源を供給されて、駐車誘導システム内の各構成要素に伝達するか、駐車誘導システム内部のデータが外部の駐車誘導システムに伝送される。例えば、有無線ヘッドセットポート、外部充電器ポート、有無線データポート、メモリカード(memory card)ポート、識別モジュールが設けられた装置を連結するポート、オーディオI/O(Input/Output)ポート、ビデオI/O(Input/Output)ポート、イヤホンポートなどが、インターフェース部170に含まれる。 The interface unit 170 serves as a passage to all external parking guidance systems connected to the parking guidance system. The interface unit 170 either transmits data from an external parking guidance system, is powered and transmits to each component in the parking guidance system, or data inside the parking guidance system is sent to the external parking guidance system. Be transmitted. For example, a wireless headset port, an external charger port, a wireless data port, a memory card port, a port for connecting devices equipped with an identification module, an audio I / O (Input / Output) port, and video. The interface unit 170 includes an I / O (Input / Output) port, an earphone port, and the like.

識別モジュールは、駐車誘導システムの使用権限を認証するための各種の情報を格納したチップであって、ユーザ認証モジュール(User Identify Module、UIM)、加入者認証モジュール(Subscriber Identify Module、SIM)、汎用ユーザ認証モジュール(Universal Subscriber Identity Module、USIM)などを含む。識別モジュールが設けられた装置(以下、‘識別装置’)は、スマートカード(smart card)の形式で製作される。従って、識別装置は、ポートを介して、駐車誘導システムと連結可能である。 The identification module is a chip that stores various information for authenticating the usage authority of the parking guidance system, and is a user authentication module (User Identify Module, UIM), a subscriber authentication module (Subscriber Identify Module, SIM), and a general-purpose. Includes User Authentication Module (Universal Subscriber Identity Module, USIM) and others. A device provided with an identification module (hereinafter,'identification device') is manufactured in the form of a smart card. Therefore, the identification device can be connected to the parking guidance system via the port.

前記インターフェース部は、移動駐車誘導システムが外部のクレードル(cradle)と連結される時、前記クレードルからの電源が前記移動駐車誘導システムに供給される通路となるか、ユーザによって、前記クレードルより入力される各種の指令信号が、前記移動駐車誘導システムに伝達される通路となり得る。前記クレードルより入力される各種の指令信号又は前記電源は、前記移動駐車誘導システムが前記クレードルに正しく装着されたことを認知するための信号として動作される。 The interface unit serves as a passage through which power from the cradle is supplied to the mobile parking guidance system when the mobile parking guidance system is connected to an external cradle, or is input from the cradle by the user. Various command signals can be a passage transmitted to the mobile parking guidance system. Various command signals input from the cradle or the power supply are operated as signals for recognizing that the mobile parking guidance system is correctly mounted on the cradle.

制御部180は、通常、駐車誘導システムの全般的な動作を制御する。 The control unit 180 usually controls the overall operation of the parking guidance system.

制御部180は、マルチメディア再生のためのマルチメディアモジュール200を備える。マルチメディアモジュール200は、制御部180内に具現されるか、制御部180と別に具現される。 The control unit 180 includes a multimedia module 200 for multimedia reproduction. The multimedia module 200 is embodied in the control unit 180 or separately from the control unit 180.

前記制御部180は、前記タッチスクリーン上で行われる手書き入力又は描き入力を各々文字及びイメージとして認識するパターン認識処理を行うことができる。 The control unit 180 can perform pattern recognition processing for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

給電部190は、制御部180の制御によって、外部の電源、内部の電源を印加されて、各構成要素の動作に必要な電源を供給する。 The power feeding unit 190 is controlled by the control unit 180 to apply an external power supply and an internal power supply to supply power necessary for the operation of each component.

ここで説明される多様な実施例は、例えば、ソフトウェア、ハードウェア、又は、これらの組み合わせを用いて、コンピュータ又はこれに類似した装置で判読可能な記録媒体内で具現可能である。 The various embodiments described herein can be embodied in a recording medium readable by a computer or similar device, using, for example, software, hardware, or a combination thereof.

ハードウェア的な具現によると、ここで説明される実施例は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays、プロセッサ(processors)、コントローラ(controllers)、マイクロコントローラ(micro-controllers)、マイクロプロセッサ(microprocessors)、その他の機能を行うための電気的なユニットの少なくとも1つを用いて具現可能である。一部の場合、本明細書で説明する実施例が制御部180自体で具現される。 According to the hardware implementation, the examples described here are ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (fields). It can be embodied using programmable gate arrays, processors, controllers, microcontrollers, microprocessors, and at least one of the electrical units for performing other functions. In some cases, the embodiments described herein are embodied in the control unit 180 itself.

ソフトウェアモジュールとして具現可能である。前記ソフトウェアモジュールのそれぞれは、本明細書で説明される1つ以上の機能及び作動を行うことができる。適切なプログラム言語として書かれたソフトウェアアプリケーションでソフトウェアコードが具現される。前記ソフトウェアコードは、メモリ160に格納され、制御部180によって実行可能である。 It can be realized as a software module. Each of the software modules can perform one or more functions and operations described herein. Software code is embodied in software applications written as appropriate programming languages. The software code is stored in the memory 160 and can be executed by the control unit 180.

駐車誘導方法
前述した本発明の構成を基に、駐車誘導方法を、図2を参照して具体的に説明する。
Parking Guidance Method Based on the configuration of the present invention described above, the parking guidance method will be specifically described with reference to FIG.

図2は、本発明が提案するモーション認識、オブジェクト認識、駐車面設定、番号認識方式などを適用した駐車誘導方法を説明するシーケンス図である。 FIG. 2 is a sequence diagram illustrating a parking guidance method to which motion recognition, object recognition, parking surface setting, number recognition method, and the like proposed by the present invention are applied.

図2を参照すると、まず、制御部180がモーションを検知するステップ(S10)が行われる。この時、モーション検知(Motion Detection)は、動きがある場合とない場合とを区分して処理される。 Referring to FIG. 2, first, the step (S10) in which the control unit 180 detects the motion is performed. At this time, the motion detection (Motion Detection) is processed separately for the case where there is movement and the case where there is no movement.

すなわち、カメラ121が獲得した映像から、以前の映像との動きを判断して、動きがある場合にのみ、制御部180によってオブジェクト認識の試みが行われる(S20)。 That is, the motion with the previous image is determined from the image acquired by the camera 121, and the control unit 180 attempts to recognize the object only when there is a motion (S20).

一方、動きがない場合は、一定の周期を適用して、オブジェクト認識を試みるようになるが、例えば、動きがない場合、20秒毎に一回ずつ、モーション可否を判断(S30)する。 On the other hand, when there is no movement, an object recognition is attempted by applying a certain cycle. For example, when there is no movement, it is determined once every 20 seconds whether or not motion is possible (S30).

この時、20秒以内でモーションが認識されると、制御部180は、オブジェクト認識を試み(S20)、20秒以上認識されるモーションがない場合は、20秒が経過した後に、制御部180がオブジェクト認識を試みる(S20)ことになる。 At this time, if the motion is recognized within 20 seconds, the control unit 180 tries to recognize the object (S20), and if there is no motion to be recognized for 20 seconds or more, the control unit 180 after 20 seconds have elapsed. Object recognition will be attempted (S20).

但し、ここで、20秒の周期は、本発明が適用される単なる一例に過ぎず、より多様な周期が適用され得ることは、自明である。 However, here, the period of 20 seconds is merely an example to which the present invention is applied, and it is self-evident that a wider variety of periods can be applied.

オブジェクト認識ステップ(S20)では、自動車(乗用車、SUV、バン、トラックなど)、バス、人間、バイク、自転車などのオブジェクトが認識される。 In the object recognition step (S20), objects such as automobiles (passenger cars, SUVs, vans, trucks, etc.), buses, humans, motorcycles, bicycles, etc. are recognized.

ここで、制御部180は、画面で一定のサイズ以上の物体を検知し、検知位置を四角状と特定して、種類を判断することができる。 Here, the control unit 180 can detect an object having a certain size or more on the screen, specify the detection position as a square shape, and determine the type.

図3a及び図3bは、本発明における車両オブジェクト検知の一例を示している。 3a and 3b show an example of vehicle object detection in the present invention.

図3a及び図3bを参照すると、画面で一定のサイズ以上の物体である車両に関する検知位置を四角状と特定して認識する一例が示されている。 With reference to FIGS. 3a and 3b, an example is shown in which the detection position of a vehicle, which is an object of a certain size or larger, is identified and recognized as a square shape on the screen.

また、図4a及び図4bは、本発明における車両及び人間が混合したオブジェクト検知の一例を示している。 Further, FIGS. 4a and 4b show an example of object detection in which a vehicle and a human are mixed in the present invention.

図4a及び図4bを参照すると、画面で一定のサイズ以上の物体である車両と複数の人間に関する検知位置を四角形と特定して認識する一例が示されている。 With reference to FIGS. 4a and 4b, an example is shown in which the detection positions of a vehicle and a plurality of human beings, which are objects of a certain size or larger, are identified and recognized as a quadrangle on the screen.

ステップS20の以後、制御部18がオブジェクト認識を成功したかを判断するステップ(S40)が行われる。 After step S20, a step (S40) of determining whether the control unit 18 has succeeded in object recognition is performed.

もし、オブジェクト認識が失敗した場合は、ステップS10乃至ステップS30が再度行われる。 If the object recognition fails, steps S10 to S30 are repeated.

オブジェクト認識に成功した場合、制御部180は、設定された駐車面との関連性を比較(S50)し、駐車面と重なる領域が発生したか否かを判断(S60)する。 When the object recognition is successful, the control unit 180 compares the relationship with the set parking surface (S50) and determines whether or not an area overlapping the parking surface has occurred (S60).

もし、駐車面と重なる領域が発生しない場合は、ステップS10乃至ステップS30を再度行い、発生した場合は、車両又は人間であるかのオブジェクトの種類を判断(S70)し、人間である場合は、既存の駐車面状態を維持する(S90)。 If the area overlapping the parking surface does not occur, steps S10 to S30 are performed again, and if it does occur, the type of the object whether it is a vehicle or a human is determined (S70), and if it is a human, it is determined. The existing parking surface condition is maintained (S90).

もし、車両である場合は、オブジェクトが駐車面領域外の前方まで含んでいるか否かを判断(S80)し、含む場合は、既存の駐車面状態を維持し(S90)、含まない場合は、駐車面領域の一定の領域以上を占めているか否かを判断することになる(S100)。 If it is a vehicle, it is determined whether or not the object includes the front outside the parking surface area (S80), and if it is included, the existing parking surface state is maintained (S90), and if it is not included, it is not included. It will be determined whether or not the parking surface area occupies a certain area or more (S100).

図5a及び図5bは、本発明に関して、駐車面をセットする一例を示している。 5a and 5b show an example of setting a parking surface with respect to the present invention.

図5a及び図5bを参照すると、ステップS100において、一定の領域以上占めると判断される場合は、制御部180は、入車処理を行う(S110)。 Referring to FIGS. 5a and 5b, if it is determined in step S100 that the vehicle occupies a certain area or more, the control unit 180 performs a vehicle entry process (S110).

また、ステップS100において、一定の領域以上占めていない場合は、出車(空車)処理することになる(S130)。 Further, in step S100, if the vehicle does not occupy more than a certain area, the vehicle leaves (empty vehicle) is processed (S130).

更に、ステップS110、S120、及びS130におけるイメージなどのデータは、データベース化して、格納可能である。 Further, data such as images in steps S110, S120, and S130 can be stored in a database.

ステップS50乃至S130に関して、検知した物体のうち、駐車場面の一定以上の前方にある物体を判別している場合、該当駐車面と重なる箇所を探して、遮蔽として処理することができる。 With respect to steps S50 to S130, when the detected object is identified in front of a certain amount of the parking scene, a portion overlapping the parking surface can be searched for and processed as a shield.

また、前記遮蔽に該当しない自動車、バス中にそれぞれの駐車面と重なる割合を求め、その割合が一定値を超えると、その駐車面車があることと判定することも可能である。 Further, it is also possible to obtain the ratio of overlapping the parking surface in each of the automobiles and buses that do not correspond to the shielding, and if the ratio exceeds a certain value, it is possible to determine that the parking surface vehicle exists.

図6a及び図6bは、本発明に関して、遮蔽として処理する一例を示している。 6a and 6b show an example of the present invention being treated as a shield.

図6a及び図6bを参照すると、もし、本実施例で重なる割合が駐車面の2つを占める場合、二面を同時占有したことと決定することができる。 With reference to FIGS. 6a and 6b, if the overlapping ratio in this embodiment occupies two of the parking surfaces, it can be determined that the two surfaces are occupied at the same time.

また、駐車面と重なる物体のうち、人間がいる場合、遮蔽として判断し、駐車面の満/空状態を以前の状態に維持することができる。 Further, if there is a human being among the objects overlapping with the parking surface, it can be determined as a shield and the full / empty state of the parking surface can be maintained in the previous state.

また、該当駐車面に重なる割合が一定以上大きい自動車/バス物体がないと、遮蔽に該当しない場合、空の駐車面と判定する。 In addition, if there is no automobile / bus object whose overlapping ratio on the parking surface is larger than a certain level, it is determined that the parking surface is empty if it does not correspond to shielding.

一方、ステップS110の以後、車両番号を認識する動作を行う(S120)。 On the other hand, after step S110, the operation of recognizing the vehicle number is performed (S120).

ステップS120において、制御部180は、駐車面が占有状態と判断されると、該当物体領域で番号認識を行うが、映像内で物体領域ボックスを1/3下端に移動して、番号認識領域を設定する。 In step S120, when the parking surface is determined to be occupied, the control unit 180 performs number recognition in the corresponding object area, but moves the object area box to the lower end of 1/3 in the image to move the number recognition area. Set.

これは、ナンバープレートが下端に位置するので、認識率向上のために適用されることである。 This is applied to improve the recognition rate because the license plate is located at the lower end.

また、制御部180は、毎回の番号認識結果と位置を格納し、番号の統計を求めて、最も多いことと決定する方式を適用する。 Further, the control unit 180 stores the number recognition result and the position each time, obtains the statistics of the numbers, and applies a method of determining that the number is the largest.

また、制御部180は、以前に認識されたナンバープレートの位置と現在の映像との関連値を求めて、関連値が高い場合、番号認識をスキップすることで、全体の処理速度を向上することができる。 Further, the control unit 180 obtains a related value between the previously recognized position of the license plate and the current image, and if the related value is high, skips the number recognition to improve the overall processing speed. Can be done.

この時、一定の時間の間スキップが繰り返されると、無視し、番号認識が行われる。 At this time, if skipping is repeated for a certain period of time, it is ignored and number recognition is performed.

これに関して、図7a及び図7bは、本発明における番号認識する一例を示している。 In this regard, FIGS. 7a and 7b show an example of number recognition in the present invention.

一方、番号が未整合された車両が発生することがあり、このような未整合車両を捜さなればならないというニーズがある。 On the other hand, there may be vehicles with unmatched numbers, and there is a need to search for such unmatched vehicles.

すなわち、出車時に未認識又は誤認識されるイベントは、作業者によって修正が可能であるか、入車時に誤認識されるイベントは、全車両を点検しなければならない。 That is, an event that is unrecognized or misrecognized at the time of departure can be corrected by the operator, or an event that is misrecognized at the time of entry must be inspected for all vehicles.

また、出車の精算時、入車の誤認識により、該当車両を探せない問題が発生し、入車中、出車と類似したイメージを探す必要があるという問題点もある。 In addition, there is a problem that it is not possible to find the corresponding vehicle due to misrecognition of entering the vehicle at the time of payment for departure, and it is necessary to search for an image similar to that of leaving the vehicle while entering the vehicle.

従って、本発明では、入車中で番号認識の結果が未認識又は認識車のうち、3桁番号と類似した車を候補群とし、候補群を基に、色相、メーカーロゴ、SURF matchingの3種類で順位を決定して表示した後、作業者が選択する方式によって、該当問題を解消することができる。 Therefore, in the present invention, among the unrecognized or recognized vehicles whose number recognition result is unrecognized while entering the vehicle, a vehicle similar to the 3-digit number is set as a candidate group, and based on the candidate group, hue, maker logo, and SURF matching are three. After determining the ranking by type and displaying it, the corresponding problem can be solved by the method selected by the worker.

本発明による駐車案内方法
図8は、本発明に関して、本発明が提案する駐車案内方法を説明するシーケンス図である。
Parking Guidance Method According to the Present Invention FIG. 8 is a sequence diagram illustrating a parking guidance method proposed by the present invention with respect to the present invention.

図8による本発明が提案する駐車案内方法は、前述したシステム100、及びユーザが利用する端末を基に行われる。 The parking guidance method proposed by the present invention according to FIG. 8 is performed based on the system 100 described above and the terminal used by the user.

図8を参照すると、まず、固定カメラ121を用いて、空の駐車領域及び占有された駐車領域を周期的にチェックするステップ(S210)が行われる。 Referring to FIG. 8, first, a step (S210) of periodically checking an empty parking area and an occupied parking area is performed by using the fixed camera 121.

この時、各駐車面の前方で駐車面番号標識が行われており(S220)、運転手が駐車後、該当駐車面番号と駐車車両番号が表示されるように、アプリケーションを用いて写真をアップロードするステップ(S230)が行われる。 At this time, a parking surface number sign is placed in front of each parking surface (S220), and after the driver parks, upload a photo using the application so that the corresponding parking surface number and parked vehicle number are displayed. Step (S230) is performed.

以後、アプリケーションにより、現在の位置情報を共にサーバに転送して、駐車場位置を判別(S240)し、アップロードされた写真より、駐車面番号と車両番号を獲得して、駐車開始DBに格納するステップ(S250)が行われる。 After that, the application transfers the current location information to the server together, determines the parking lot position (S240), acquires the parking surface number and the vehicle number from the uploaded photo, and stores them in the parking start DB. Step (S250) is performed.

また、ステップS250の以後に、アプリケーションより出車を選択すると、駐車料金が事前に登録された決済方式で処理(S260)され、事前に登録された決済方法がないと、駐車場に設備された無人精算器で駐車面番号を入力して、駐車料金を決済するステップ(S270)が行われる。 Further, when the departure is selected from the application after step S250, the parking fee is processed by the pre-registered payment method (S260), and if there is no pre-registered payment method, the parking lot is installed. The step (S270) of inputting the parking lot number with the unmanned checkout machine and settling the parking fee is performed.

入車とはなっているが、一定の時間内に入車登録となっていない場合、管理者に自動通報するステップ(S280)、及び決済することなく出車される場合、管理者に自動通報するステップ(S290)が適用される。 If the vehicle is entered but not registered within a certain period of time, the step to automatically notify the administrator (S280), and if the vehicle leaves without payment, the administrator is automatically notified. Step (S290) is applied.

本発明による効果
本発明は、効率よいオブジェクト認識及び番号認識方法が適用された駐車誘導システムに関し、具体的に、モーション認識、オブジェクト認識、駐車面設定、番号認識方式などを適用した駐車誘導システムを、ユーザに提供することができる。
Effect of the present invention The present invention relates to a parking guidance system to which an efficient object recognition and number recognition method is applied, and specifically provides a parking guidance system to which motion recognition, object recognition, parking surface setting, number recognition method, etc. are applied. , Can be provided to the user.

本発明では、モーション認識に関して、カメラ映像より、以前の映像との動きを判断して、動きがある場合にのみ動作し、動きがない場合でも、一定の周期で処理動作を行い、オブジェクト認識に関して、画面で一定のサイズ以上の物体を検知し、検知位置を四角形と特定した後、種類を判断することで、精度を高めることができる。 In the present invention, regarding motion recognition, the movement with the previous image is determined from the camera image, and the operation is performed only when there is movement, and even when there is no movement, the processing operation is performed at a constant cycle, and the object recognition is performed. , The accuracy can be improved by detecting an object of a certain size or more on the screen, specifying the detection position as a quadrangle, and then determining the type.

また、本発明では、駐車場内の面設定に関して、検知した物体のうち、駐車場面の一定以上前方にある物体を判別している場合、該当駐車面と重なる箇所を探して遮蔽として処理し、自動車、バス中にそれぞれの駐車面と重なる割合が一定値を超えると、その駐車面が占有したことと処理し、該当駐車面に重なる割合が一定以上大きい自動車/バス物体がなく、且つ、遮蔽に該当しない場合は、空の駐車面として判定することで、エラーを減らすことができる。 Further, in the present invention, regarding the surface setting in the parking lot, when the detected object is determined to be an object in front of a certain amount of the parking scene, a portion overlapping with the corresponding parking surface is searched for and treated as a shield, and the automobile is treated. , If the ratio of overlapping with each parking surface in the bus exceeds a certain value, it is treated as occupied by that parking surface, and there is no car / bus object with a ratio of overlapping with the corresponding parking surface larger than a certain value, and it is shielded. If this is not the case, the error can be reduced by determining it as an empty parking surface.

また、本発明では、映像内で物体領域ボックスを1/3下端に移動して、番号認識領域を設定し、毎回の番号認識結果と位置を格納して、番号の統計を求め、最も多いものを決定することで、番号認識率を高めることができる。 Further, in the present invention, the object area box is moved to the lower end of 1/3 in the image, the number recognition area is set, the number recognition result and the position are stored each time, and the number statistics are obtained, which is the most common. By determining, the number recognition rate can be increased.

上述した本発明の実施例は、様々な手段により、具現可能である。例えば、本発明の実施例は、ハードウェア、ファームウエア(firmware)、ソフトウェア、又はそれらの組み合わせなどによって具現される。 The above-described embodiment of the present invention can be embodied by various means. For example, the embodiments of the present invention are embodied by hardware, firmware, software, or a combination thereof.

ハードウェアによる具現の場合、本発明の実施例による方法は、1又はそれ以上のASICs(Application Specific Integrated Circuits)、DSPs(Digital Signal Processors)、DSPDs(Digital Signal Processing Devices)、PLDs(Programmable Logic Devices)、FPGAs(Field Programmable Gate Arrays)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサなどによって具現される。 In the case of hardware implementation, the method according to the embodiment of the present invention is one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices). , FPGAs (Field Programmable Gate Arrays), processors, controllers, microprocessors, microprocessors, etc.

ファームウエアやソフトウェアによる具現の場合、本発明の実施例による方法は、以上で説明した機能又は動作を行うモジュール、手続き又は関数などの形態で具現される。ソフトウェアコードは、メモリユニットに格納されて、プロセッサによって駆動される。前記メモリユニットは、前記プロセッサの内部又は外部に位置して、既に公知の手段によって、前記プロセッサとデータをやりとりすることができる。 In the case of realization by firmware or software, the method according to the embodiment of the present invention is embodied in the form of a module, procedure or function performing the function or operation described above. The software code is stored in a memory unit and driven by a processor. The memory unit may be located inside or outside the processor and may exchange data with the processor by means already known.

上述したように開示された本発明の好適な実施例に対する詳細な説明は、当業者が本発明を具現し実施できるように提供されている。前記では、本発明の好適な実施例を参照して説明したが、該当技術分野の熟練した当業者は、本発明の領域から逸脱しない範囲内で、本発明を多様に修正及び変更できることを理解されるだろう。例えば、当業者は、上述した実施例に記載された各構成を互いに組み合わせる方式で利用可能である。よって、本発明は、ここに現れた実施形態に制限されることではなく、ここで開示された原理及び新規の特徴と一致する最も広い範囲を付与しようとすることである。 Detailed descriptions of preferred embodiments of the invention disclosed as described above are provided so that those skilled in the art can embody and practice the invention. Although the above description has been made with reference to preferred embodiments of the present invention, it is understood that skilled skill in the art can modify and modify the present invention in various ways without departing from the realm of the present invention. Will be done. For example, one of ordinary skill in the art can use a method in which the configurations described in the above-described embodiments are combined with each other. Accordingly, the present invention is not limited to the embodiments presented herein, but seeks to provide the broadest scope consistent with the principles and novel features disclosed herein.

本発明は、本発明の精神及び必須の特徴を逸脱しない範囲で、他の特定の形態に具体化することができる。よって、前記の詳細な説明は、あらゆる面で制限的に解析されてはいけなく、例示的なことと考えられるべきである。本発明の範囲は、添付の請求項の合理的解析によって決められるべきであり、本発明の等価的範囲内での全ての変更は、本発明の範囲に含まれる。本発明は、ここに現れた実施形態に制限されことではなく、ここで開示された原理及び新規の特徴と一致する最も広い範囲を付与しようとすることである。また、特許請求の範囲で明示的な引用関係がない請求項を結合して、実施例を構成するか、出願後の補正によって、新たな請求項として含むことができる。 The present invention can be embodied in other particular embodiments without departing from the spirit and essential features of the invention. Therefore, the above detailed description should not be analyzed in a restrictive manner in all aspects and should be considered as an example. The scope of the invention should be determined by reasonable analysis of the appended claims, and all modifications within the equivalent scope of the invention are within the scope of the invention. The present invention is not limited to the embodiments presented herein, but seeks to provide the broadest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation relationship within the scope of claims can be combined to form an example, or can be included as a new claim by amendment after filing.

Claims (8)

カメラが少なくとも1つの映像を入力される第1のステップと、
前記少なくとも1つの映像内でモーションが感知されるか否かを判断する第2のステップと、
前記モーションが感知される場合、前記少なくとも1つの映像内のオブジェクト認識を試みる第3のステップと、
前記オブジェクト認識が成功する場合、前記認識したオブジェクトが、所定の複数の駐車面の少なくとも一部である第1の駐車面と重なる領域が発生したかを判断する第4のステップと、
前記重なる領域が発生した場合、前記認識したオブジェクトが車両であるか、人間であるかを判断する第5のステップと、
前記認識したオブジェクトが車両である場合、前記オブジェクトが前記第1の駐車面領域外の前方まで含んでいるか否かを判断する第5-1のステップと、
前記第5-1のステップにおいて、前記オブジェクトが前記第1の駐車面領域外の前方まで含まないと判断した場合に、前記車両が前記第1の駐車面の全領域のうち、所定の割合以上の領域を占有するか否かを判断する第6のステップと、
前記車両が前記所定の割合以上の領域を占有した場合、前記車両が前記第1の駐車面に駐車したことと決定する第7のステップと、
前記車両の車両番号を認識する第8のステップとを含み、
前記第1の駐車面領域外の前方は、前記第1の駐車面と前記カメラとの間の領域であり、
前記第5のステップでは、前記カメラの映像に基づく画面で一定のサイズ以上の物体を車両であると判断し、
前記第5-1のステップにおいて、前記オブジェクトが前記第1の駐車面領域外の前方まで含むと判断した場合、既存の駐車面状態を維持し、
前記既存の駐車面状態は、前記オブジェクトによる遮蔽、又は、空駐車面であることを特徴とする駐車誘導方法。
The first step when the camera inputs at least one image,
The second step of determining whether or not motion is detected in at least one image, and
When the motion is sensed, a third step of attempting to recognize an object in at least one image, and
When the object recognition is successful, a fourth step of determining whether an area where the recognized object overlaps with a first parking surface which is at least a part of a predetermined plurality of parking surfaces is generated.
When the overlapping area occurs, the fifth step of determining whether the recognized object is a vehicle or a human, and
When the recognized object is a vehicle, the 5-1 step of determining whether or not the object includes the front outside the first parking surface area, and
In the step 5-1 when it is determined that the object does not include the front outside the first parking surface area, the vehicle has a predetermined ratio or more in the entire area of the first parking surface. The sixth step of determining whether or not to occupy the area of
A seventh step of determining that the vehicle has parked on the first parking surface when the vehicle occupies an area equal to or greater than the predetermined ratio.
Including the eighth step of recognizing the vehicle number of the vehicle.
The front outside the first parking surface area is an area between the first parking surface and the camera.
In the fifth step, an object having a certain size or larger is determined to be a vehicle on the screen based on the image of the camera, and the object is determined to be a vehicle.
If it is determined in step 5-1 that the object includes the front outside the first parking surface area, the existing parking surface state is maintained .
The parking guidance method , wherein the existing parking surface state is shielded by the object or an empty parking surface .
前記第2のステップにおいて、所定の時間以上、前記モーションが感知されない場合、前記第3のステップを行い、
前記第3のステップは、更に、前記映像内で所定のサイズ以上のオブジェクトが存在するかを判断する第3-1のステップと、前記オブジェクトを基準に、一定の距離離隔したオブジェクトボックスを設定する第3-2のステップと、を含み、
前記第5のステップにおいて前記認識したオブジェクトが人間であった場合、前記第5のステップの以後には、更に、前記第1の駐車面の既存の状態をそのまま維持するステップを含み、
前記第6のステップにおいて、前記車両が前記所定の割合以上の領域を占有しない場合、前記第1の駐車面は、出車されたことと決定し、
前記第8のステップは、更に、
前記オブジェクトボックスの全領域のうち、所定の下端の領域を番号認識領域と設定する第8-1のステップと、
前記番号認識領域に対して、番号認識動作を行う第8-2のステップと、を含むことを特徴とする請求項1に記載の駐車誘導方法。
If the motion is not detected for a predetermined time or longer in the second step, the third step is performed.
The third step further sets a third step of determining whether an object having a predetermined size or larger exists in the video, and an object box separated by a certain distance based on the object. Including step 3-2,
When the recognized object is a human being in the fifth step, the subsequent step of the fifth step further includes a step of maintaining the existing state of the first parking surface as it is.
In the sixth step, if the vehicle does not occupy an area equal to or larger than the predetermined ratio, it is determined that the first parking surface has left the vehicle.
The eighth step is further
The eighth step of setting the predetermined lower end area of the entire area of the object box as the number recognition area, and
The parking guidance method according to claim 1, further comprising a step 8-2 for performing a number recognition operation with respect to the number recognition area.
少なくとも1つの映像を入力されるカメラと、
前記少なくとも1つの映像内でモーションが感知される場合、前記少なくとも1つの映像内のオブジェクト認識を試みる制御部とを含み、
前記制御部は、
前記オブジェクト認識が成功する場合、前記認識したオブジェクトが、所定の複数の駐車面の少なくとも一部である第1の駐車面と重なる領域が発生したかを判断し、
前記重なる領域が発生した場合、前記認識したオブジェクトが車両であるか、人間であるかを判断し、
前記認識したオブジェクトが車両である場合、前記オブジェクトが第1の駐車面領域外の前方まで含んでいるか否かを判断し、
前記オブジェクトが前記第1の駐車面領域外の前方まで含まないと判断した場合、前記車両が前記第1の駐車面の全領域のうち、所定の割合以上の領域を占有するか否かを判断し、
前記車両が前記所定の割合以上の領域を占有した場合、前記車両が前記第1の駐車面に駐車したことと決定し、
前記車両の車両番号を認識し、
前記カメラの映像に基づく画面で一定のサイズ以上の物体を車両であると判断し、
前記オブジェクトが前記第1の駐車面領域外の前方まで含むと判断した場合、既存の駐車面状態を維持し、
前記第1の駐車面領域外の前方は、前記第1の駐車面と前記カメラとの間の領域であり、
前記既存の駐車面状態は、前記オブジェクトによる遮蔽、又は、空駐車面であることを特徴とする駐車誘導システム。
With a camera that inputs at least one image,
When motion is detected in the at least one image, the control unit that attempts to recognize an object in the at least one image is included.
The control unit
When the object recognition is successful, it is determined whether or not an area where the recognized object overlaps with a first parking surface which is at least a part of a predetermined plurality of parking surfaces is generated.
When the overlapping area occurs, it is determined whether the recognized object is a vehicle or a human being.
When the recognized object is a vehicle, it is determined whether or not the object includes the front outside the first parking surface area.
When it is determined that the object does not include the front outside the first parking surface area, it is determined whether or not the vehicle occupies a predetermined ratio or more of the entire area of the first parking surface. death,
When the vehicle occupies an area equal to or larger than the predetermined ratio, it is determined that the vehicle is parked on the first parking surface.
Recognize the vehicle number of the vehicle and
An object of a certain size or larger is judged to be a vehicle on the screen based on the image of the camera.
If it is determined that the object includes the front outside the first parking surface area, the existing parking surface state is maintained .
The front outside the first parking surface area is an area between the first parking surface and the camera.
The parking guidance system , wherein the existing parking surface state is a shield by the object or an empty parking surface .
前記制御部は、
前記映像内で所定のサイズ以上のオブジェクトが存在するかを判断し、
前記オブジェクトを基準に、一定の距離離隔したオブジェクトボックスを設定し、
前記オブジェクトボックス内に存在するオブジェクトが車両であるか、人間であるかを判断することを特徴とする請求項3に記載の駐車誘導システム。
The control unit
Judging whether there is an object of a predetermined size or larger in the video,
Set an object box separated by a certain distance based on the above object,
The parking guidance system according to claim 3, wherein it is determined whether the object existing in the object box is a vehicle or a human being.
前記認識したオブジェクトが人間である場合、
前記制御部は、
前記第1の駐車面の既存の状態をそのまま維持することを特徴とする請求項3に記載の駐車誘導システム。
If the recognized object is a human
The control unit
The parking guidance system according to claim 3, wherein the existing state of the first parking surface is maintained as it is.
視覚、聴覚、又は、触覚に関する出力を発生する出力部を含み、前記出力部は、前記駐車誘導システムで処理される情報を表示するディスプレイ部と、前記駐車誘導システムで行われる機能に関する音響信号を出力する音響出力モジュールと、前記駐車誘導システムのイベント発生を報知するアラーム部と、ハプティックモジュールと、プロジェクタモジュールと、を含むことを特徴とする請求項3に記載の駐車誘導システム。 The output unit includes an output unit that generates an output related to visual, auditory, or tactile sensation, and the output unit includes a display unit that displays information processed by the parking guidance system and an acoustic signal related to a function performed by the parking guidance system. The parking guidance system according to claim 3, further comprising an acoustic output module for output, an alarm unit for notifying the occurrence of an event in the parking guidance system, a haptic module, and a projector module. 前記ハプティックモジュールは、前記駐車誘導システムのユーザが感じられる様々な触覚効果を発生させることを特徴とする請求項6に記載の駐車誘導システム。 The parking guidance system according to claim 6, wherein the haptic module generates various tactile effects felt by the user of the parking guidance system. 前記プロジェクタモジュールは、前記制御部の制御信号によって、前記ディスプレイ部上に表示される映像と同一であるか、少なくとも一部が異なる映像を、外部スクリーン又は壁に表示可能であることを特徴とする請求項6又は請求項7に記載の駐車誘導システム。 The projector module is characterized in that an image that is the same as or at least partially different from the image displayed on the display unit can be displayed on an external screen or a wall by a control signal of the control unit. The parking guidance system according to claim 6 or 7.
JP2019504134A 2018-11-23 2018-12-07 Parking guidance system and its control method Active JP7012070B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2018-0146414 2018-11-23
KR1020180146414A KR101986463B1 (en) 2018-11-23 2018-11-23 Parking guidance system and method for controlling thereof
PCT/KR2018/015531 WO2020105784A1 (en) 2018-11-23 2018-12-07 Parking guidance system and method for controlling same

Publications (2)

Publication Number Publication Date
JP2021510428A JP2021510428A (en) 2021-04-22
JP7012070B2 true JP7012070B2 (en) 2022-01-27

Family

ID=66849750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019504134A Active JP7012070B2 (en) 2018-11-23 2018-12-07 Parking guidance system and its control method

Country Status (3)

Country Link
JP (1) JP7012070B2 (en)
KR (1) KR101986463B1 (en)
WO (1) WO2020105784A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102603732B1 (en) * 2021-11-01 2023-11-20 주식회사 베스텔라랩 Method of recognizing car parking, system for recognizing car parking, and computer program for the method
CN114530056B (en) * 2022-02-15 2023-05-02 超级视线科技有限公司 Parking management method and system based on positioning information and image information
KR20240063634A (en) * 2022-11-03 2024-05-10 한화비전 주식회사 Method and apparatus for setting a parking surface based on a full or empty area
KR102714531B1 (en) * 2023-10-18 2024-10-11 주식회사 넥스파시스템 Parking guidance system using full parking and vacant parking space beam for aisles

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013081013A (en) 2011-10-03 2013-05-02 Fujitsu Advanced Engineering Ltd Image recording device and method, and image recording program
JP2015514264A (en) 2012-03-28 2015-05-18 コーニンクレッカ フィリップス エヌ ヴェ System and method for traffic management using lighting networks

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250537A (en) * 1992-03-10 1993-09-28 Hitachi Plant Eng & Constr Co Ltd Method and device for settling account for fee of parking lot
KR100924784B1 (en) * 2007-12-27 2009-11-03 주식회사 인스프리트 Apparatus and method for counting vehicle using CCTV camera, and parking system using the same
KR100979752B1 (en) * 2008-06-25 2010-09-02 케이에스아이 주식회사 System and method for managing parking lot
KR20110136056A (en) * 2010-06-14 2011-12-21 윤주열 Parking guidance and parking location inquiry system
KR101565978B1 (en) 2015-03-18 2015-11-05 (주)테라테코 Method of identifying vehicle number and extracting photographic evidences using long distance captured image
JP5846565B1 (en) * 2015-08-28 2016-01-20 株式会社エスキュービズム・ホールディングス Parking management device and parking lot system
KR101875130B1 (en) * 2017-05-31 2018-08-02 한국과학기술연구원 PLA composition having improved mechanical property
KR101875180B1 (en) * 2017-11-20 2018-07-06 아마노코리아 주식회사 Method, apparatus and system for detecting vechicle and recognizing vechicle number of the vechicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013081013A (en) 2011-10-03 2013-05-02 Fujitsu Advanced Engineering Ltd Image recording device and method, and image recording program
JP2015514264A (en) 2012-03-28 2015-05-18 コーニンクレッカ フィリップス エヌ ヴェ System and method for traffic management using lighting networks

Also Published As

Publication number Publication date
WO2020105784A1 (en) 2020-05-28
JP2021510428A (en) 2021-04-22
KR101986463B1 (en) 2019-06-07

Similar Documents

Publication Publication Date Title
JP7012070B2 (en) Parking guidance system and its control method
US20240109514A1 (en) Recording video of an operator and a surrounding visual field
US10977917B2 (en) Surveillance camera system and surveillance method
KR102090907B1 (en) vehicle detection method and number cognition method using image enhancement and deep learning, and park systems using the method
KR101998052B1 (en) Parking lot management system and method using omnidirectional camera
CN108891413B (en) Vehicle-mounted fatigue driving prevention system, method, equipment and storage medium
KR101373854B1 (en) Parking guidance system using image improvement technique based on sensor
KR102355855B1 (en) Object tracking and service execution system with event rules and service settings for each Vid-Fence
CN113570013A (en) Service execution method and device
US9495869B2 (en) Assistance to law enforcement through ambient vigilance
KR101691312B1 (en) Method for showing parking lot and system
KR101743878B1 (en) System for providing services of parking management
KR101563542B1 (en) Parking information system using mobile terminal
CN112818839A (en) Method, device, equipment and medium for identifying violation behaviors of driver
CN114511315A (en) Vehicle-mounted camera mobile payment method and computer storage medium
CN112435494A (en) Roadside equipment and method for reducing safety risk of entering and exiting tunnel portal
US20220019824A1 (en) Method and Device for Monitoring a Passenger of a Vehicle, and System for Analyzing the Perception of Objects
US20220222473A1 (en) Vehicle communication systems and methods for detecting and capturing relevant object data
JP6649329B2 (en) Vehicle control device and method for recognizing traffic sign
US20220375235A1 (en) Information processing device and method, and program
JP3222136U (en) Unmanned parking lot management system
JP2020150295A (en) Vehicle crime prevention device
KR102302619B1 (en) Methods and systems for cracking down on violations of parking areas for persons with disabilities
KR101746303B1 (en) Mobilewireless teminal and system sharing user information based on car number
KR102120540B1 (en) multi-function black box device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210402

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R150 Certificate of patent or registration of utility model

Ref document number: 7012070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250