[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2023007588A1 - 情報処理装置、プログラム及び測位方法 - Google Patents

情報処理装置、プログラム及び測位方法 Download PDF

Info

Publication number
WO2023007588A1
WO2023007588A1 PCT/JP2021/027757 JP2021027757W WO2023007588A1 WO 2023007588 A1 WO2023007588 A1 WO 2023007588A1 JP 2021027757 W JP2021027757 W JP 2021027757W WO 2023007588 A1 WO2023007588 A1 WO 2023007588A1
Authority
WO
WIPO (PCT)
Prior art keywords
position information
imaging device
information
indicating
reference position
Prior art date
Application number
PCT/JP2021/027757
Other languages
English (en)
French (fr)
Inventor
巌 小澤
大 飯沼
Original Assignee
Ultimatrust株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ultimatrust株式会社 filed Critical Ultimatrust株式会社
Priority to EP21951798.4A priority Critical patent/EP4365870A4/en
Priority to JP2023537791A priority patent/JPWO2023007588A1/ja
Priority to PCT/JP2021/027757 priority patent/WO2023007588A1/ja
Publication of WO2023007588A1 publication Critical patent/WO2023007588A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • G01S19/41Differential correction, e.g. DGPS [differential GPS]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/51Relative positioning
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/146Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is a limited parking space, e.g. parking garage, restricted space

Definitions

  • the present invention relates to an information processing device, a program, and a positioning method.
  • a method of receiving a global positioning satellite system signal (hereinafter referred to as a GNSS (Global Navigation Satellite System) signal) from a positioning satellite to acquire position information of a mobile object.
  • GNSS Global Navigation Satellite System
  • RTK-GNSS Real Time Kinematic-GNSS
  • the positional information acquired by the mobile object from the GNSS signal is corrected using the reference point on the ground positioned with high positional accuracy.
  • the RTK-GNSS positioning method has centimeter accuracy.
  • Patent Document 1 describes this type of technology.
  • the present invention was made to solve the above problems, and its purpose is to accurately identify the position of a mobile object such as an automobile.
  • an information processing apparatus includes a reference position acquisition unit that acquires reference position information indicating the position of an imaging device, first position information indicating the current position; and second position information indicating the current position of a moving object moving around the imaging device based on a satellite positioning signal synchronized in time with the positioning signal of the first position information.
  • a position estimation unit that acquires relative position information indicating the positional relationship between the imaging device and the moving object based on , and outputs moving object position information indicating the current position of the moving object based on the relative position information and the reference position information; , provided.
  • the present invention it is possible to accurately identify the position of a mobile object such as an automobile. For example, in a situation where an imaging device such as a surveillance camera is installed, the position of a mobile object such as an automobile can be accurately specified using the reference position information of the imaging device.
  • FIG. 1 is a schematic diagram showing an imaging device, a mobile object, a server, and a positioning satellite according to one embodiment of the present invention
  • FIG. 1 is a block diagram showing the hardware configuration of an information processing apparatus according to one embodiment of the present invention
  • FIG. 1 is a block diagram showing functional configurations of an imaging device, a server, and a moving body according to an embodiment of the present invention
  • FIG. It is a plane schematic diagram which shows the relationship between the imaging device which concerns on one Embodiment of anti-invention, and a moving body.
  • FIG. 5 is a diagram showing an example of an image obtained by superimposing position information on an image captured by an imaging device according to an embodiment of the present invention
  • FIG. 5 is a diagram showing an example of an image obtained by superimposing position information on an image captured by an imaging device according to an embodiment of the present invention
  • FIG. 5 is a diagram showing a flow of processing for identifying position information and associating image information with the position information according to the embodiment of the present invention
  • 1 is a block diagram showing the functional configurations of an imaging device, a server, and a moving body according to an embodiment of the present invention, and in particular, a diagram showing an example in which an information processing function other than an information recording unit is incorporated into the imaging device
  • FIG. 1 is a block diagram showing functional configurations of an imaging device, a server, and a moving object according to an embodiment of the present invention, and in particular, a diagram showing an example in which an image information management section is arranged in the imaging device
  • FIG. 1 is a block diagram showing the functional configurations of an imaging device, a server, and a moving object according to an embodiment of the present invention, and in particular, a diagram showing an example in which an information processing function is mainly incorporated into the moving object;
  • FIG. 1 is a block diagram showing the functional configurations of an imaging device, a server, and a mobile body according to an embodiment of the present invention, and in particular, a diagram showing an example in which information processing functions are separately incorporated in the imaging device, the server, and the mobile body. .
  • the information processing apparatus 10 of the present embodiment exchanges electronic information between the imaging device 2 and the moving body 3 moving around the imaging device 2, for example.
  • the information processing device 10 has an information processing device communication device 19, the imaging device 2 has an imaging device communication device 29, and the moving body 3 has a moving body communication device 39, respectively.
  • Electronic information is exchanged mainly through the communication line 121 .
  • communication line 121 is wireless communication.
  • the communication line 121 is not limited to wireless communication.
  • the communication line 121 may use wired communication.
  • Reference position information 200, first position information 210, and second position information 310 are obtained as position information.
  • the reference position information 200 is position information obtained by accurately measuring the position of the imaging device 2 .
  • the first position information 210 is position information of the current position measured by GNSS representing the position of the imaging device 2 , and the position accuracy of the first position information alone is lower than that of the reference position information 200 .
  • the second position information 310 is the position information of the current position measured by GNSS representing the position of the moving body 3 , and the position accuracy of the second position information alone is lower than that of the reference position information 200 .
  • the first position information 210 and the second position information 310 are acquired based on positioning signals of satellites synchronized in time.
  • the synchronization of the times does not only mean that the times are completely matched. It is the time that associates the acquisition time of the first location information and the acquisition time of the second location information. More specifically, the difference in acquisition time is within the difference in time that can offset the GNSS radio wave reception status at the acquisition time of the first location information and the GNSS radio wave reception status at the acquisition time of the second location information. Examples include:
  • the reference position information 200 of the imaging device 2 is obtained by the reference position antenna 20 receiving the positioning signal from the reference position satellite 41 .
  • a reference position satellite positioning signal reception unit 401 receives an electrical signal from the reference position antenna 20, and a reference position positioning calculation unit 402 (not shown in FIG. 1) calculates and derives the reference position information 200. do.
  • the first position information 210 of the imaging device 2 is obtained when the first positioning antenna 21 of the imaging device 2 receives positioning signals from the first positioning satellites 42 .
  • a first positioning satellite positioning signal receiving unit 403 (not shown in FIG. 1) receives an electrical signal from the first positioning antenna 21, and a first positioning calculation unit 404 (not shown) calculates first position information. and derive
  • the moving body 3 has a second position antenna 31.
  • the second positioning antenna 31 receives positioning signals from the second positioning satellite 43 .
  • a second positioning satellite positioning signal receiving unit 405 (not shown) receives the electrical signal from the second positioning antenna 31, and a second positioning calculation unit 406 (not shown) calculates the second position information 310. derive
  • the first positioning satellite 42 and the second positioning satellite 43 require four satellites to calculate the position coordinates. The reason is that position coordinates and time are variables.
  • FIG. 1 shows an example in which five satellites are applied as the first positioning satellites 42, five satellites are applied as the second positioning satellites 43, and four satellites among them are common.
  • the information processing device 10 identifies the position of the moving body 3 based on the reference position information 200, the first position information 210, and the second position information 310.
  • the information processing apparatus 10 includes a processor 13, a ROM (Read Only Memory) 14, a RAM (Random Access Memory) 15, an input/output unit 11, a communication unit 12, and an input/output interface 17. and
  • the processor 13 performs various calculations and processes.
  • the processor 13 includes, for example, a CPU (central processing unit), MPU (micro processing unit), SoC (system on a chip), DSP (digital signal processor), GPU (graphics processing unit), ASIC (application technology), Examples include PLD (programmable logic device) or FPGA (field-programmable gate array).
  • processor 13 is a combination of several of these.
  • the processor 13 may be a combination of these with a hardware accelerator or the like.
  • the processor 13 , ROM 14 and RAM 15 are interconnected via a bus 16 .
  • the processor 13 executes various processes according to programs recorded in the ROM 14 or programs loaded in the RAM 15 . Part or all of the program may be incorporated within the circuitry of processor 13 .
  • the bus 16 is also connected to the input/output interface 17 .
  • the input/output unit 11 and the communication unit 12 are connected to the input/output interface 17 .
  • the input/output unit 11 is electrically connected to the input/output interface 17 by wire or wirelessly.
  • the input/output unit 11 includes, for example, an input unit such as a keyboard and a mouse, and an output unit such as a display for displaying images and a speaker for amplifying sounds. Note that the input/output unit 11 may have a configuration in which the display function and the input function are integrated like a touch panel.
  • the communication unit 12 is a device in which the processor 13 communicates with other devices (for example, the imaging device 2 and the mobile object 3) via the communication line 121.
  • the hardware configuration shown here is just an example, and it is not particularly limited to this configuration.
  • these various processors are combined with processing circuits such as ASIC (Application Specific Integrated Circuit) and FPGA (Field-Programmable Gate Array). may be employed as a processor to realize the functional configuration.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • FIG. 3 shows the functional configuration of the information processing device 10 of the present embodiment, and the imaging device 2, mobile object 3, etc. with which the information processing device 10 exchanges signals.
  • a functional configuration of the information processing device 10 is implemented by the processor 13 .
  • the functional configuration of the imaging device 2 is realized by electronic components mounted on the imaging device 2 and a processor of an information processing device such as a computer.
  • the functional configuration of the mobile body 3 is realized by an information processing device such as an electronic component computer mounted on the mobile body 3 .
  • the information processing device 10 here is separate from the imaging device 2 and the mobile object 3, and the server 1 includes all of the functional configurations. Although the details will be described later, the information processing apparatus 10 can also be configured such that a part thereof is incorporated in the imaging device 2 and the moving body 3 . These functional elements will now be described with appropriate reference to FIGS.
  • the reference position satellite positioning signal reception unit 401 receives satellite signals to position the reference position of the imaging device 2 .
  • the reference position positioning calculator 402 receives the signal from the reference position satellite positioning signal receiver 401 and calculates the reference position of the imaging device 2 .
  • the reference position satellite 41 for example, a satellite that provides an accurate position such as a quasi-zenith satellite is selected, and an accurate position is provided as the reference position.
  • the reference position antenna 20 for receiving radio waves from the reference position satellite 41 is generally relatively large, and it is preferable that the reference position antenna 20 be removed after the position is measured. It is preferable that the measurement device including the reference position antenna 20 and the reference position acquisition unit 103 is detachably connected to the imaging device 2 . Accordingly, after the reference position is measured, the reference position antenna 20 and the reference position acquisition unit 103 can be removed from the imaging device 2 .
  • the installation position of the imaging device 2 may be plotted on a map and the position coordinates may be specified from the map.
  • the position of the imaging device 2 is derived by a positioning system similar to the positioning system that the mobile body 3 can have, in addition to the positioning based on the reference position satellite 41 described above.
  • the current position of imaging device 2 is referred to herein as the first position.
  • a system similar to the positioning system that the moving body 3 can be equipped with has a first positioning antenna 21 , a first positioning satellite positioning signal receiving section 403 and a first positioning calculation section 404 .
  • the first positioning satellite positioning signal receiving unit 403 receives the positioning signal from the first positioning antenna 21
  • the first positioning calculation unit 404 calculates the first position of the imaging device 2 .
  • the first positioning satellite positioning signal receiving unit 403 and the first positioning calculation unit 404 are preferably provided in the imaging device 2 .
  • the reference position of the imaging device 2 may be obtained by long-term positioning or static positioning using the first positioning antenna 21, the first positioning satellite positioning signal receiving unit 403, and the first positioning calculation unit 404.
  • the image capturing device 2 has an image capturing unit 201, and captures, for example, the moving body 3 moving in the parking lot.
  • the information processing apparatus 10 includes an image information management unit 101, an information recording unit 102, a reference position acquisition unit 103, a first position information acquisition unit 104, a relative position information acquisition unit 105, a position estimation unit 106, and a second position information acquisition unit 107.
  • the moving body 3 is, for example, an automobile moving in a parking lot.
  • the current position of the mobile 3 is referred to herein as the second position.
  • the moving body 3 has a second positioning antenna 31, and further, as shown in FIG. It has an estimated position acquisition unit 301 .
  • the second positioning satellite positioning signal receiving unit 405 receives the positioning signal from the second positioning antenna 31, and the second positioning calculation unit 406 calculates the second position.
  • the estimated position acquisition unit 301 acquires an estimated position, which will be described later, from the position estimation unit 106 of the information processing device 10 .
  • the reference position acquisition unit 103 acquires the reference position calculated by the reference position positioning calculation unit 402 .
  • the first location information acquisition unit 104 acquires the first location information 210 calculated and derived by the first positioning calculation unit 404 .
  • the second location information acquisition unit 107 acquires the second location information 310 derived by the second positioning calculation unit 406 of the moving object 3 .
  • the relative position information acquisition unit 105 calculates the relative position between the first position of the imaging device 2 and the second position of the moving body 3. to derive
  • the first positioning satellite positioning signal receiving section 403 and the second positioning satellite positioning signal receiving section 405 use the same satellite for measurement.
  • the relative positional relationship between the two points is obtained by measuring the time difference between the radio signals from the satellites arriving at the respective receivers.
  • Each observation point receives radio waves from the same satellite, and the radio waves emitted from the satellite pass through similar weather conditions. This eliminates satellite position errors and delays in the troposphere and ionosphere. This provides an accurate relative position.
  • the first location information 210 and the second location information 310 are derived based on positioning signals from satellites. Then, the difference between these positions or the distance indicating the difference is acquired as the relative position information 230 . By adding this relative position information 230 to the reference position information 200, the position of the moving body 3 is estimated.
  • the position estimation unit 106 obtains the reference position from the reference position acquisition unit 103 and the relative position from the relative position information acquisition unit 105 . Then, by adding the relative position to the reference position, the accurate position of the moving body 3 is derived. The position of the mobile object 3 derived by the position estimation unit 106 is sent to the estimated position acquisition unit 301 and the image information management unit 101 .
  • the image information management unit 101 receives the reference position from the reference position acquisition unit 103, the image from the imaging unit 201 of the imaging device 2, and the estimated position of the moving object 3 from the position estimation unit 106, respectively. Then, the reference position information 200 is added to the captured image 240 captured by the imaging device 2, or the moving body position information is added to the image including the moving body 3. FIG. This information is then recorded in the information recording unit 102 .
  • FIG. 4 is a plan view of the moving body 3 moving in the parking lot and the imaging device 2.
  • FIG. FIG. 5 is an example of a captured image 240 captured by the imaging device 2 .
  • the latitude, longitude, and altitude, which are the reference positions of the imaging device 2 are assigned to the screen.
  • Fig. 6 shows the flow of processing according to the functional configuration.
  • the information processing device 10 acquires the reference position information 200 (step S401).
  • the imaging device 2 acquires image information (step S402).
  • the imaging device 2 acquires the first position information 210 of the imaging device 2 (step S403).
  • the moving body 3 acquires the second position information 310, which is the position information of the moving body 3 (step S404).
  • the relative position information 230 between the imaging device 2 and the moving body 3 is derived (step S405).
  • the position of the moving body 3 is estimated or the estimated position information 320 of the moving body 3 is derived (step S406).
  • the image information is associated with the estimated position information 320 and/or the reference position information 200 of the moving body 3 (step S407), and the information is recorded (step S408).
  • the estimated position information 320 is transmitted to the moving body 3 (step S409). If the moving object 3 is to be tracked continuously, the process returns to step S402. If not, the process ends (END).
  • the reference position information 200 is acquired prior to the first position information 210 of the imaging device 2 .
  • the order is not limited to this, and the order can be changed.
  • the reference position information 200 can be acquired after the relative position information 230 between the imaging device 2 and the mobile object 3 is acquired.
  • the information processing device 10 is independently incorporated in the server 1.
  • the information processing device 10 is not limited to this, and the entirety of the information processing device 10 can be incorporated in the imaging device 2 or the moving body 3 .
  • the imaging device 2 and the moving body 3 may be connected by a communication line 121, for example WiFi. benefits arise.
  • the communication line 121 with the information processing apparatus 10 becomes poorly connected due to bad weather or the like because the mobile body 3 has a calculation operation function and is closed. It is possible to prevent the occurrence of a situation in which the position of the moving body 3 cannot be specified.
  • FIG. 7 shows an example in which only the information recording unit 102 of the functional configuration constituting the information processing device 10 is incorporated in the server 1 and the other portions are incorporated in the imaging device 2 .
  • the imaging device 2 includes an imaging device communication device 29 that acquires the second position information 310 from the outside through the communication line 121, and together with the information processing function, constitutes a video system.
  • FIG. 8 shows an example in which the image information management unit 101 is incorporated in the imaging device 2 among the functional configurations that constitute the information processing device 10 .
  • the imaging device 2 is a device that handles video, and generally has a central processing unit (hereinafter referred to as an image engine as appropriate) that specializes in video processing.
  • an image engine a central processing unit
  • a video file and an information file containing data such as position information and orientation information are saved as separate files, and whether or not to superimpose information based on the information file on the video is arbitrarily selected during playback.
  • the image engine manage the image information, that is, to add characters of position information to the video, superimpose the video, and the like. It has the advantage that it is not necessary to prepare an image engine on the server 1 .
  • FIG. 9 shows an example in which the image information management unit 101 and the information recording unit 102 are incorporated in the server 1, and other functional configurations of the information processing device 10 are incorporated in the mobile body 3.
  • the moving object 3 has the information processing device 10 and acquires the first position information 210 from the imaging device 2 which is external via the communication line 121 .
  • a video file and an information file containing data such as position information and orientation information are saved as separate files, and whether or not to superimpose information on the video is arbitrarily selected during playback. If overlaying information on the video is chosen, combining the images and writing text onto the images requires an image engine, which may require a high performance central processing unit CPU, and generate heat. can be a problem.
  • FIG. 10 shows an example in which the position estimation unit 106 is mounted on the mobile object 3.
  • FIG. The moving body 3 calculates its own accurate position by itself. Since the relative position information acquisition unit 105 is located in the external server 1, the weight of the aircraft can be reduced. In addition, there is an advantage that it is possible to apply the operation of roughly grasping the position obtained by the second positioning calculation unit 406 and deriving the accurate position by the position estimation unit 106 as necessary. .
  • the series of processes described above can be executed by hardware or by software.
  • a program that constitutes the software is installed in a computer or the like from a network and a recording medium.
  • a recording medium containing such a program is not only composed of removable media distributed separately from the main body of the device in order to provide the program to the borrower, but is also provided to the borrower in a state pre-installed in the main body of the device. It consists of a recording medium, etc.
  • Removable media include, for example, magnetic disks (including floppy disks), optical disks, or magneto-optical disks.
  • Optical discs are composed of, for example, CD-ROMs (Compact Disk-Read Only Memory), DVDs (Digital Versatile Disks), Blu-ray (registered trademark) Discs (Blu-ray Discs), and the like.
  • the magneto-optical disk is composed of an MD (Mini-Disk) or the like.
  • the recording medium provided to the borrower in a state of being pre-installed in the device main body is composed of, for example, a program memory and a hard disk in which the program is recorded.
  • the information processing device 10, the loan support program, and the loan support method according to the embodiment described above have the following effects.
  • the information processing apparatus 10 includes a reference position acquisition unit 103 that acquires reference position information 200 indicating the position of the imaging device 2, and first position information 210 that indicates the current position of the imaging device 2 calculated based on satellite positioning signals. and second position information 310 indicating the current position of the moving object 3 moving around the imaging device 2 based on the positioning signal of the satellite whose time is synchronized with the positioning signal of the first position information 210.
  • the position of the moving object 3 such as an automobile can be specified accurately.
  • the position estimation unit 106 uses the distance indicating the difference between the current position of the imaging device 2 and the current position of the moving body 3 as the relative position information 230 based on the first position information 210 and the second position information 310. By adding the relative position information 230 to the reference position information 200, the current position of the moving body 3 is estimated.
  • the error is eliminated by taking the difference of the position information with the same error. As a result, the position of the moving body 3 can be specified more accurately.
  • the information processing device 10 includes an image information management unit 101 that adds reference position information 200 to a captured image 240 captured by the imaging device 2 .
  • the position of a mobile object 3 such as an automobile can be accurately identified using the reference position information 200 of the imaging device 2.
  • the information processing device 10 includes an image information management unit 101 that adds moving body position information to an image including the moving body 3 captured by the imaging device 2 .
  • the position of the moving body 3 can be identified without delay.
  • the reference position acquisition unit 103 acquires information measured by a measuring device detachably connected to the imaging device 2 as the reference position information 200.
  • a measuring device that provides reference position information 200 often uses a large antenna. By making it detachable and removing it after measuring once, the space saving property of the imaging device 2 can be realized.
  • the first location information 210 and the second location information 310 are calculated based on the positioning signals acquired from the same combination of satellites.
  • the first location information 210 and the second location information 310 are similarly affected, and taking the difference between them eliminates this influence. As a result, the accuracy of the difference itself is improved, and the accurate position of the moving body 3 can be derived.
  • the imaging system includes the information processing device 10 described above, a communication device that acquires the second position information from the outside through communication, and the imaging device 2 .
  • the imaging device 2 incorporates the information processing device 10 and can obtain necessary signals, it is possible to derive the position of the moving body 3 in a closed system of only the imaging device 2 .
  • the mobile object 3 includes the information processing device 10 and a communication device that acquires the first position information 210 from the outside through communication.
  • the program includes a reference position acquisition function for acquiring reference position information 200 indicating the position of the imaging device 2, and a first position information 210 for acquiring first position information 210 indicating the current position of the imaging device 2 calculated based on satellite positioning signals.
  • Second positional information 310 indicating the current position of the moving object 3 moving around the imaging device 2 based on the positional information acquisition function and the positioning signal of the satellite whose time is synchronized with the positioning signal of the first positional information 210.
  • the position of the moving object 3 such as an automobile can be specified accurately.
  • the positioning method includes a reference position obtaining step of obtaining reference position information 200 indicating the position of the imaging device 2, and obtaining first position information 210 indicating the current position of the imaging device 2 calculated based on satellite positioning signals. a first positional information acquisition step; and second positional information indicating the current position of the moving object 3 moving around the imaging device 2 based on the positioning signal of the satellite whose time is synchronized with the positioning signal of the first positional information 210.
  • the position of the moving object 3 such as an automobile can be specified accurately.
  • the present invention is not limited to the above-described embodiments, and can be modified as appropriate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

自動車等の移動体3の位置を正確に特定する。 情報処理装置10は、撮像装置2の位置を示す参照位置情報200を取得する参照位置取得部103と、衛星の測位信号に基づいて算出された撮像装置2の現在位置を示す第1位置情報210と、第1位置情報210の測位信号と時刻が同期している衛星の測位信号に基づいて撮像装置2の周囲を移動する移動体3の現在位置を示す第2位置情報310と、に基づいて撮像装置2と移動体3の位置関係を示す相対位置情報230を取得し、該相対位置情報230と参照位置情報200に基づいて移動体3の現在位置を示す推定位置情報320を出力する位置推定部106と、を備える。

Description

情報処理装置、プログラム及び測位方法
 本発明は、情報処理装置、プログラム及び測位方法に関する。
 従来、測位衛星からの全球測位衛星システム信号(以下、GNSS(Global Navigation Satellite System)信号)を受信して移動体の位置情報を取得する方法がある。GNSS信号の単独測位では位置精度がメートル単位であるため、位置精度を高める方法の1つとしてRTK-GNSS(Real Time Kinematic-GNSS)測位法がある。高い位置精度で測位された地上の基準点を用いて、移動体がGNSS信号から取得した位置情報を補正する。RTK-GNSS測位法では位置精度がセンチメートル単位である。例えばこの種の技術が記載されているものとして特許文献1がある。
特許第6821768号
 RTK対応GNSS受信器においては、複雑な処理をリアルタイムで実施する必要があり、大きなコンピューティング能力が必要である。結果、受信器は大型で重く、又、高価となるおそれがある。
 本発明は、上述の課題を解決するためになされたものであり、その目的は自動車等の移動体の位置を正確に特定することにある。
 上記目的を達成するため、本発明の一態様である情報処理装置は、撮像装置の位置を示す参照位置情報を取得する参照位置取得部と、衛星の測位信号に基づいて算出された撮像装置の現在位置を示す第1位置情報と、第1位置情報の測位信号と時刻が同期している衛星の測位信号に基づいて撮像装置の周囲を移動する移動体の現在位置を示す第2位置情報と、に基づいて撮像装置と移動体の位置関係を示す相対位置情報を取得し、該相対位置情報と参照位置情報に基づいて移動体の現在位置を示す移動体位置情報を出力する位置推定部と、を備える。
 本発明によれば、自動車等の移動体の位置を正確に特定することが出来る。例えば、監視カメラのような撮像装置が設置されている状況で、自動車等の移動体の位置を撮像装置の参照位置情報を利用して正確に特定できる。
本発明の一実施形態に係る撮像装置、移動体、サーバー、測位用衛星を示す模式図である。 本発明の一実施形態に係る情報処理装置のハード構成を示すブロック図である。 本発明の一実施形態に係る撮像装置、サーバー、移動体の機能的構成を示すブロック図である。 反発明の一実施形態に係る撮像装置と移動体との関係を示す平面模式図である。 本発明の一実施形態に係る撮像装置の撮影した映像に位置情報を重ねた映像の例を示す図である。 本発明の一実施形態にかかる位置情報の同定と画像情報との関連付けを行う処理の流れを示す図である。 本発明の一実施形態に係る撮像装置、サーバー、移動体の機能的構成を示すブロック図であり、特に、情報記録部以外の情報処理機能が撮像装置に組み込まれる例を示す図である。 本発明の一実施形態に係る撮像装置、サーバー、移動体の機能的構成を示すブロック図であり、特に、画像情報管理部が撮像装置に配置される例を示す図である。 本発明の一実施形態に係る撮像装置、サーバー、移動体の機能的構成を示すブロック図であり、特に、情報処理機能が主に移動体に組み込まれる例を示す図である。 本発明の一実施形態に係る撮像装置、サーバー、移動体の機能的構成を示すブロック図であり、特に、情報処理機能が撮像装置、サーバー、移動体に分かれて組み込まれる例を示す図である。
 以下、本発明の実施形態について図面を参照しながら説明する。
 図1に示すように、本実施形態の情報処理装置10は、撮像装置2と撮像装置2の周囲を移動する移動体3等との間で電子情報を交換する。情報処理装置10は情報処理装置用通信装置19を、撮像装置2は撮像装置用通信装置29を、移動体3は移動体用通信装置39をそれぞれ適宜有する。電子情報の交換は、主に通信回線121により行われる。この例では、通信回線121は無線通信である。なお、通信回線121が無線通信に限定される訳ではない。例えば、通信回線121が有線通信を利用していてもよい。
 以下、位置情報として、参照位置情報200、第1位置情報210、第2位置情報310が取得される。参照位置情報200は、撮像装置2の位置を正確に測定した位置情報である。第1位置情報210は、撮像装置2の位置を表すGNSSで測定した現在位置の位置情報であり、第1位置情報単独では、参照位置情報200と比して位置精度は低い。第2位置情報310は、移動体3の位置を表すGNSSで測定した現在位置の位置情報であり、第2位置情報単独では、参照位置情報200と比して位置精度は低い。これら第1位置情報210と第2位置情報310とは、時刻が同期している衛星の測位信号に基づいて取得される。ここで、時刻が同期とは、完全に時刻が一致していることだけを意味するものではない。第一位置情報の取得時刻と第2位置情報の取得時刻とを関連付けられる時刻である。より限定的には、第1位置情報の取得時刻におけるGNSS電波受信状況と第2位置情報の取得時刻におけるGNSS電波受信状況とを相殺し得る時刻の差に取得時刻の差が収まっていることが例として挙げられる。
 撮像装置2の参照位置情報200は、参照位置用アンテナ20が参照位置用衛星41からの測位信号を受信することで得られる。図示されていない参照位置用衛星測位信号受信部401が参照位置用アンテナ20からの電気信号を受信し、図1に図示されていない参照位置測位計算部402が参照位置情報200を計算して導出する。撮像装置2の第1位置情報210は、撮像装置2が具備する第1位置用アンテナ21が第1位置用衛星42からの測位信号を受信することで得られる。図1に図示されていない第1位置用衛星測位信号受信部403が第1位置用アンテナ21からの電気信号を受信し、図示されていない第1位置測位計算部404が第1位置情報を計算して導出する。
 移動体3は、第2位置用アンテナ31を有する。第2位置用アンテナ31は、第2位置用衛星43からの測位信号を受信する。図示されていない第2位置用衛星測位信号受信部405が第2位置用アンテナ31からの電気信号を受信し、図示されていない第2位置測位計算部406が第2位置情報310を計算して導出する。
 第1位置用衛星42と、第2位置用衛星43と、は位置座標を算出するためには4つの衛星が必要である。位置座標と時間が変数となることが理由である。図1においては、第1位置用衛星42として5つの衛星が、第2位置用衛星43として5つの衛星が適用され、そのうちの4つの衛星が共通である例が示されている。
 詳細は後述するが、情報処理装置10は、参照位置情報200と第1位置情報210と第2位置情報310とに基づいて移動体3の位置を特定する。
 図2に示すように、情報処理装置10は、プロセッサ13と、ROM(Read Only Memory)14と、RAM(Random Access Memory)15と、入出力部11と、通信部12と、入出力インターフェース17とを有する。
 プロセッサ13は、各種演算及び処理を行う。プロセッサ13は、例えば、CPU(central processing unit)、MPU(micro processing unit)、SoC(system on a chip)、DSP(digital signal processor)、GPU(graphics processing unit)、ASIC(application specific integrated circuit)、PLD(programmable logic device)又はFPGA(field-programmable gate array)等である。或いは、プロセッサ13は、これらのうちの複数を組み合わせたものである。又、プロセッサ13は、これらにハードウェアアクセラレーター等を組み合わせたものあっても良い。
 プロセッサ13、ROM14及びRAM15は、バス16を介して相互に接続されている。プロセッサ13は、ROM14に記録されているプログラム又はRAM15にロードされたプログラムに従って各種の処理を実行する。プログラムの一部又は全部は、プロセッサ13の回路内に組み込まれていても良い。
 バス16は入出力インターフェース17にも接続される。入出力インターフェース17には、入出力部11と、通信部12と、が接続されている。
 入出力部11は、有線又は無線により電気的に入出力インターフェース17に接続される。入出力部11は例えばキーボード及びマウス等の入力部と画像を表示するディスプレイ及び音声を拡声するスピーカ等の出力部とによって構成される。なお、入出力部11はタッチパネルのように表示機能と入力機能が一体的な構成であっても良い。
 通信部12は、プロセッサ13が、通信回線121を介して他の装置(例えば、撮像装置2、移動体3)との間で通信を行う装置である。
 ここで示したハードウェア構成は、あくまで一例であり、特にこの構成に限定されるわけではない。シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)及びFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものをプロセッサとして機能的構成を実現するものとして採用しても良い。
 図3は本実施形態の情報処理装置10、及び、情報処理装置10が信号の交換をする撮像装置2、移動体3等の機能的構成を示す。情報処理装置10の機能的構成は、プロセッサ13によって実現される。撮像装置2の機能的構成は、撮像装置2に搭載される電子部品やコンピュータ等の情報処理装置のプロセッサによって実現される。同様に、移動体3の機能的構成も、移動体3に搭載される電子部品コンピュータ等の情報処理装置によって実現される。
 情報処理装置10は、ここでは撮像装置2及び移動体3とは別体であり、サーバー1に機能的構成の全てが含まれている。詳細は後述するが、情報処理装置10は、撮像装置2、移動体3にその一部が組み込まれる構成も可能である。図1、2を適宜参照して、これら機能的要素について説明する。
 参照位置用衛星測位信号受信部401は、撮像装置2の参照位置を測位するために衛星信号を受信する。参照位置測位計算部402は、参照位置用衛星測位信号受信部401からの信号を受けて、撮像装置2の参照位置を計算する。ここで、参照位置用衛星41としては、例えば、準天頂衛星のような正確な位置を提供する衛星が選ばれ、参照位置として正確な位置が提供される。この参照位置用衛星41からの電波を受信する参照位置用アンテナ20は一般的に比較的大きく、位置の測定がなされた後は、参照位置用アンテナ20が取り外されることが好ましい。参照位置用アンテナ20及び参照位置取得部103等を有する測定装置は撮像装置2に着脱可能に接続されていることが好ましい。これにより、参照位置が測位された後は、参照位置用アンテナ20及び参照位置取得部103を撮像装置2から取り外すことができる。
 撮像装置2の参照位置の特定においては、準天頂衛星を使う例の他に、地図上に撮像装置2の設置位置をプロットし、地図から位置座標が特定されてもよい。
 撮像装置2の位置は、上記の参照位置用衛星41を基とする測位に加えて、移動体3が具備し得る測位システムと同様の測位システムにより導出される。本明細書では撮像装置2の現在の位置は第1位置と称される。この移動体3が具備し得る測位システムと同様のシステムは、第1位置用アンテナ21と第1位置用衛星測位信号受信部403と第1位置測位計算部404を有する。第1位置用衛星測位信号受信部403は第1位置用アンテナ21により測位信号を受信し、第1位置測位計算部404が撮像装置2の第1位置を計算する。この第1位置用衛星測位信号受信部403と第1位置測位計算部404とは撮像装置2に備えられることが好ましい。
 撮像装置2の参照位置は、第1位置用アンテナ21と第1位置用衛星測位信号受信部403と第1位置測位計算部404を用いて、長時間測位あるいはスタティック測位により求められてもよい。
 撮像装置2は撮像部201を有し、例えば駐車場内を移動する移動体3等を撮影する。
 情報処理装置10は、画像情報管理部101、情報記録部102、参照位置取得部103、第1位置情報取得部104、相対位置情報取得部105、位置推定部106、第2位置情報取得部107を有する。
 説明の都合上、先に移動体3の有する機能的構成について説明する。移動体3は、例えば駐車場を移動する自動車である。移動体3の現在の位置は、本明細書中では、第2位置と称される。移動体3は、図1に示すように、第2位置用アンテナ31を有し、更に、図3に示すように、第2位置用衛星測位信号受信部405と第2位置測位計算部406と推定位置取得部301を有する。
 第2位置用アンテナ31により第2位置用衛星測位信号受信部405が測位信号を受信し、第2位置測位計算部406が第2位置を計算する。推定位置取得部301は、後述する推定位置を情報処理装置10の有する位置推定部106から取得する。
 情報処理装置10の各機能的構成の機能について図3により説明する。信号の流れに沿って説明するため、説明する機能的構成の図3中の位置は左右上下に前後する。参照位置取得部103は、参照位置測位計算部402が計算した参照位置を取得する。第1位置情報取得部104は、第1位置測位計算部404が計算して導出した第1位置情報210を取得する。第2位置情報取得部107は、移動体3の有する第2位置測位計算部406の導出した第2位置情報310を取得する。相対位置情報取得部105は、第1位置情報取得部104と第2位置情報取得部107とからの情報を基に、撮像装置2の第1位置と移動体3の第2位置との相対位置を導出する。
 ここで、相対位置の導出においては、第1位置用衛星測位信号受信部403と第2位置用衛星測位信号受信部405とは、同一の衛星を用いて測定することが好ましい。衛星からの電波信号がそれぞれの受信部に到達する時間差を測定して、2点間の相対的な位置関係を求める。各観測点で同じ衛星の電波を受信しており、衛星から放出された電波が同様の気象条件の中を通過してくるため、2点の観測値の差を取ることにより、観測値に含まれる衛星の位置誤差や対流圏及び電離層での遅延量が消去される。これにより正確な相対位置が求められる。
 或いは、衛星からの測位信号に基づいて、第1位置情報210と第2位置情報310とが導出される。そしてこれらの位置の差分或いは差分を示す距離が相対位置情報230として取得される。この相対位置情報230を参照位置情報200に加えることにより、移動体3の位置が推定される。
 位置推定部106は、参照位置取得部103から参照位置を得、相対位置情報取得部105から相対位置を得る。そして、参照位置に対して相対位置を加えることにより移動体3の正確な位置が導出される。位置推定部106が導出した移動体3の位置は、推定位置取得部301と画像情報管理部101とに送出される。
 画像情報管理部101は、参照位置取得部103から参照位置を、撮像装置2の有する撮像部201から映像を、位置推定部106から移動体3の推定位置をそれぞれ受け取る。そして、撮像装置2によって撮像される撮像画像240に参照位置情報200が付与される、或いは、移動体3を含む画像に移動体位置情報が付与される。そして、この情報は情報記録部102に記録される。
 図4は、駐車場を移動する移動体3と撮像装置2との平面図である。図5は撮像装置2の撮影する撮像画像240の例である。図5においては、撮像装置2の参照位置である緯度と経度と高度とが画面に付与されている。
 図6は機能的構成による処理の流れを示す。処理がスタートすると、情報処理装置10が参照位置情報200を取得する(ステップS401)。次に、撮像装置2は画像情報を取得する(ステップS402)。更に、撮像装置2は撮像装置2の第1位置情報210を取得する(ステップS403)。一方、移動体3が移動体3の位置情報である第2位置情報310を取得する(ステップS404)。次に、撮像装置2と移動体3との相対位置情報230が導出される(ステップS405)。そして、参照位置情報200と相対位置情報230とを基に、移動体3の位置が推定される或いは移動体3の推定位置情報320が導出される(ステップS406)。次に、画像情報に移動体3の推定位置情報320或いは/且つ参照位置情報200が関連付けられ(ステップS407)、情報が記録される(ステップS408)。並行して、移動体3に推定位置情報320が伝達される(ステップS409)。引き続き移動体3を追尾する場合には、処理はステップS402に戻る。追尾しない場合には処理は終了する(END)。
 図6においては、撮像装置2の第1位置情報210に先んじて参照位置情報200が取得されている。これに限られることはなく、順番を入れ替えることも可能である。更には、参照位置情報200は、撮像装置2と移動体3との相対位置情報230が取得された後に取得することも可能である。
 ここまでの説明においては、情報処理装置10が独立してサーバー1に組み込まれている。これに限られる訳ではなく、情報処理装置10は、撮像装置2或いは移動体3にその全部が組み込まれることが可能である。例えば、情報処理装置10の全部が撮像装置2に組み込まれた場合には、ハード的には撮像装置2と移動体3とが、WiFiを一例とする通信回線121により接続されていれば良いという利点が生まれる。情報処理装置10の全部が移動体3に組み込まれた場合には、移動体3が計算演算機能を有して閉じているので、情報処理装置10との通信回線121が悪天候等で接続不良となり移動体3の位置が特定できない、というような事態の発生を防ぐことが出来る。
 情報処理装置10の一部のみ又は全てが撮像装置2或いは/且つ移動体3に組み込まれる構成も有効である。図7から図10はその例を示す。図3に示す情報処理装置10と同様に、情報処理装置10の機能的構成を表すブロックの枠線が太く記載されている。
 図7は、情報処理装置10を構成する機能的構成の内、情報記録部102のみがサーバー1に組み込まれ、その他の部分は撮像装置2に組み込まれる例を示す。情報処理装置10の全部が撮像装置2に組み込まれた場合に比して、情報記録部102がサーバー1に設けられているため、画像に位置情報の組み込まれた図5に示すような画像をサーバー1の操作のみで確認できるという利点を有する。撮像装置2は、図1に示すように、通信回線121を通して外部から第2位置情報310を取得する撮像装置用通信装置29を備え、情報処理機能と合わさって映像システムが構成されている。
 図8は、情報処理装置10を構成する機能的構成の内、画像情報管理部101が撮像装置2に組み込まれる例を示す。撮像装置2は、映像を扱う装置であり、映像処理に特化した中央演算装置(以下、適宜画像エンジンと称する。)を有することが一般的である。例えば、映像ファイルと位置情報および姿勢情報等のデータが含まれる情報ファイルとは別ファイルとして保存され、映像に情報ファイルに基づく情報を重ねるか否かは再生時に任意に選択される。映像に情報を重ねることが選択された場合、この画像エンジンに対して、画像情報の管理、即ち、映像に位置情報の文字を加える、映像を重ねる等の処理を担当させることが好ましい。画像エンジンをサーバー1に用意する必要がないという利点を有する。
 図9は、画像情報管理部101と情報記録部102とがサーバー1に組み込まれ、その他の情報処理装置10の機能的構成が移動体3に組み込まれた例を示す。移動体3は、情報処理装置10を有するとともに、第1位置情報210を外部である撮像装置2から通信回線121を介して取得する。例えば、映像ファイルと位置情報および姿勢情報等のデータが含まれる情報ファイルとは別ファイルとして保存され、映像に情報を重ねるか否かは再生時に任意に選択される。映像に情報を重ねることが選択された場合、画像の組み合わせ、及び、画像への文字の書き込みには画像エンジンが必要であり、高性能な中央演算装置CPUが必要な場合があり、熱の発生が問題となる可能性がある。移動体3に情報処理装置10の機能的構成全てを搭載した場合に比して、画像エンジンを移動体3から外したことで、移動体3の構造を簡素化し軽量化することが出来る利点がある。
 図10は、位置推定部106が移動体3に搭載される例を示す。移動体3が自己の正確な位置を自ら算出している。相対位置情報取得部105が外部であるサーバー1にあるので、機体の軽量化を図れる。又、第2位置測位計算部406で得られた位置で大まかに自己の位置を把握し、必要に応じて正確な位置を位置推定部106により導出するという運用を適用することが出来る利点がある。
 上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワーク及び記録媒体からインストールされる。このようなプログラムを含む記録媒体は、借り手にプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態で借り手に提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk),Blu-ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。又、装置本体に予め組み込まれた状態で借り手に提供される記録媒体は、例えば、プログラムが記録されているプログラムメモリ及びハードディスク等で構成される。
 以上説明した実施形態にかかる情報処理装置10、融資支援プログラム及び融資支援方法によれば以下のような効果が奏される。
 情報処理装置10は、撮像装置2の位置を示す参照位置情報200を取得する参照位置取得部103と、衛星の測位信号に基づいて算出された撮像装置2の現在位置を示す第1位置情報210と、第1位置情報210の測位信号と時刻が同期している衛星の測位信号に基づいて撮像装置2の周囲を移動する移動体3の現在位置を示す第2位置情報310と、に基づいて撮像装置2と移動体3の位置関係を示す相対位置情報230を取得し、該相対位置情報230と参照位置情報200に基づいて移動体3の現在位置を示す推定位置情報320を出力する位置推定部106と、を備える。
 自動車等の移動体3の位置を正確に特定することが出来る。
 情報処理装置10において、位置推定部106は、第1位置情報210と第2位置情報310に基づいて撮像装置2の現在位置と移動体3の現在位置の差分を示す距離を相対位置情報230として取得し、参照位置情報200に相対位置情報230を加えることにより、移動体3の現在位置を推定する。
 同様の誤差を有する位置情報の差分を取ることにより誤差が消去される。結果、移動体3の位置をより正確に特定することが出来る。
 情報処理装置10は、撮像装置2によって撮像される撮像画像240に参照位置情報200を付与する画像情報管理部101を備える。
 監視カメラのような撮像装置2が設置されている状況で、自動車等の移動体3の位置を撮像装置2の参照位置情報200を利用して正確に特定できる。
 情報処理装置10は、撮像装置2によって撮像される移動体3を含む画像に移動体位置情報を付与する画像情報管理部101を備える。
 画像中に移動体3と移動体3の位置とを同時に確認できるため、移動体3の位置の同定を滞りなく行うことが出来る。
 情報処理装置10において、参照位置取得部103は、撮像装置2に着脱可能に接続される測定装置によって測位された情報を参照位置情報200として取得する
 参照位置情報200をもたらす測定装置は大型のアンテナを用いることが多い。着脱可能として一度測定した後は外すことにより、撮像装置2の省スペース性を実現することが出来る。
 情報処理装置10において、同じ衛星の組合せから取得した測位信号に基づいて第1位置情報210及び第2位置情報310が算出される。
 取得する測位信号への外部環境の影響が同一とすると、第1位置情報210と第2位置情報310とに同様の影響が発生しており、これらの差分を取ると、この影響が消される。結果、差分自体の正確性が向上し、移動体3の正確な位置の導出が可能となる。
 撮像システムは、上記の情報処理装置10と、通信を介して前記第2位置情報を外部から取得する通信装置と、撮像装置2と、を備える。
 撮像装置2が情報処理装置10を内蔵し且つ必要な信号を取れるので、撮像装置2のみの閉じた系で移動体3の位置の導出が可能となる。
 移動体3は、情報処理装置10と、通信を介して第1位置情報210を外部から取得する通信装置と、を備える。
 移動体3が計算演算機能を有して閉じているので、情報処理装置10との通信回線121が悪天候等で接続不良となり移動体3の位置が特定できない、というような事態の発生を防ぐことが出来る。
 プログラムは、撮像装置2の位置を示す参照位置情報200を取得する参照位置取得機能と、衛星の測位信号に基づいて算出された撮像装置2の現在位置を示す第1位置情報210を取得する第1位置情報取得機能と、第1位置情報210の測位信号と時刻が同期している衛星の測位信号に基づいて撮像装置2の周囲を移動する移動体3の現在位置を示す第2位置情報310を取得する第2位置情報取得機能と、第1位置情報210と第2位置情報310に基づいて撮像装置2と移動体3の位置関係を示す相対位置情報230を取得し、該相対位置情報230と参照位置情報200に基づいて移動体3の現在位置を示す推定位置情報320を出力する位置推定機能と、を備える。
 自動車等の移動体3の位置を正確に特定することが出来る。
 測位方法は、撮像装置2の位置を示す参照位置情報200を取得する参照位置取得ステップと、衛星の測位信号に基づいて算出された撮像装置2の現在位置を示す第1位置情報210を取得する第1位置情報取得ステップと、第1位置情報210の測位信号と時刻が同期している衛星の測位信号に基づいて撮像装置2の周囲を移動する移動体3の現在位置を示す第2位置情報310を取得する第2位置情報取得ステップと、第1位置情報210と第2位置情報310に基づいて撮像装置2と移動体3の位置関係を示す相対位置情報230を取得し、該相対位置情報230と参照位置情報200に基づいて移動体3の現在位置を示す推定位置情報320を出力する位置推定ステップと、を備える。
 自動車等の移動体3の位置を正確に特定することが出来る。
 以上、本発明の実施形態について説明したが、本発明は、上述の実施形態に制限されるものではなく、適宜変更が可能である。例えば、上述の各実施形態の一部の機能的構成を省略したり、別の機能的構成を組み合わせたりすることもできる。
 1 サーバー、2 撮像装置、3 移動体、10 情報処理装置、11 入出力部、12 通信部、13 プロセッサ、14 ROМ、15 RAM、16 バス、17 入出力インターフェース、18 制御部、20 参照位置用アンテナ、21 第1位置用アンテナ、31 第2位置用アンテナ、41 参照位置用衛星、42 第1位置用衛星、43 第2位置用衛星、101 画像情報管理部、103 参照位置取得部、106 位置推定部、121 通信回線

Claims (10)

  1.  撮像装置の位置を示す参照位置情報を取得する参照位置取得部と、
     衛星の測位信号に基づいて算出された前記撮像装置の現在位置を示す第1位置情報と、前記第1位置情報の前記測位信号との時刻が同期している衛星の測位信号に基づいて前記撮像装置の周囲を移動する移動体の現在位置を示す第2位置情報と、に基づいて前記撮像装置と前記移動体の位置関係を示す相対位置情報を取得し、該相対位置情報と前記参照位置情報とに基づいて前記移動体の現在位置を示す移動体位置情報を出力する位置推定部と、
     を備える情報処理装置。
  2.  前記位置推定部は、前記第1位置情報と前記第2位置情報に基づいて前記撮像装置の現在位置と前記移動体の現在位置の差分を示す距離を前記相対位置情報として取得し、
     前記参照位置情報に前記相対位置情報を加えることにより、前記移動体の現在位置を推定する
     請求項1に記載の情報処理装置。
  3.  前記撮像装置によって撮像される撮像画像に参照位置情報を付与する画像情報管理部を備える請求項1又は2に記載の情報処理装置。
  4.  前記撮像装置によって撮像される前記移動体を含む画像に前記移動体位置情報を付与する画像情報管理部を備える
     請求項1から3の何れか1項に記載の情報処理装置。
  5.  前記参照位置取得部は、前記撮像装置に着脱可能に接続される測定装置によって測位された情報を前記参照位置情報として取得する
     請求項1から4の何れか1項に記載の情報処理装置。
  6.  同じ衛星の組合せから取得した測位信号に基づいて前記第1位置情報及び前記第2位置情報が算出される
     請求項1から5の何れか1項に記載の情報処理装置。
  7.  請求項1から6の何れか1項に記載の情報処理装置と、
     通信を介して前記第2位置情報を外部から取得する通信装置と、
     前記撮像装置と、
     を備える撮像システム。
  8.  請求項1から6の何れか1項に記載の情報処理装置と、
     通信を介して前記第1位置情報を外部から取得する通信装置と、
     を備える移動体。 
  9.  撮像装置の位置を示す参照位置情報を取得する参照位置取得機能と、
     衛星の測位信号に基づいて算出された前記撮像装置の現在位置を示す第1位置情報を取得する第1位置情報取得機能と、
     前記第1位置情報の前記測位信号と時刻が同期している衛星の測位信号に基づいて前記撮像装置の周囲を移動する移動体の現在位置を示す第2位置情報を取得する第2位置情報取得機能と、
     前記第1位置情報と前記第2位置情報に基づいて前記撮像装置と前記移動体の位置関係を示す相対位置情報を取得し、該相対位置情報と前記参照位置情報に基づいて前記移動体の現在位置を示す移動体位置情報を出力する位置推定機能と、
     を備えるプログラム。
  10.  撮像装置の位置を示す参照位置情報を取得する参照位置取得ステップと、
     衛星の測位信号に基づいて算出された前記撮像装置の現在位置を示す第1位置情報を取得する第1位置情報取得ステップと、
     前記第1位置情報の前記測位信号と時刻が同期している衛星の測位信号に基づいて前記撮像装置の周囲を移動する移動体の現在位置を示す第2位置情報を取得する第2位置情報取得ステップと、
     前記第1位置情報と前記第2位置情報に基づいて前記撮像装置と前記移動体の位置関係を示す相対位置情報を取得し、該相対位置情報と前記参照位置情報に基づいて前記移動体の現在位置を示す移動体位置情報を出力する位置推定ステップと、
     を備える測位方法。
PCT/JP2021/027757 2021-07-27 2021-07-27 情報処理装置、プログラム及び測位方法 WO2023007588A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21951798.4A EP4365870A4 (en) 2021-07-27 2021-07-27 INFORMATION PROCESSING DEVICE, PROGRAM AND POSITIONING METHOD
JP2023537791A JPWO2023007588A1 (ja) 2021-07-27 2021-07-27
PCT/JP2021/027757 WO2023007588A1 (ja) 2021-07-27 2021-07-27 情報処理装置、プログラム及び測位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/027757 WO2023007588A1 (ja) 2021-07-27 2021-07-27 情報処理装置、プログラム及び測位方法

Publications (1)

Publication Number Publication Date
WO2023007588A1 true WO2023007588A1 (ja) 2023-02-02

Family

ID=85086423

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/027757 WO2023007588A1 (ja) 2021-07-27 2021-07-27 情報処理装置、プログラム及び測位方法

Country Status (3)

Country Link
EP (1) EP4365870A4 (ja)
JP (1) JPWO2023007588A1 (ja)
WO (1) WO2023007588A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232690A (ja) * 2006-03-03 2007-09-13 Denso Corp 現在地検出装置、地図表示装置、および現在地検出方法
JP2008306464A (ja) * 2007-06-07 2008-12-18 Sony Corp 撮像装置、情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2014020949A1 (ja) * 2012-08-01 2014-02-06 日本電気株式会社 通信装置、通信機、通信システム、通信方法、位置特定方法および記録媒体
JP2015052548A (ja) * 2013-09-09 2015-03-19 富士重工業株式会社 車外環境認識装置
JP2016169974A (ja) * 2015-03-11 2016-09-23 国立大学法人電気通信大学 位置測定装置、位置測定方法、プログラム、および位置測定システム
JP2020129130A (ja) * 2020-04-27 2020-08-27 パイオニア株式会社 情報処理装置
JP6821768B1 (ja) 2019-11-13 2021-01-27 ソフトバンク株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0616888U (ja) * 1992-06-12 1994-03-04 東京コスモス電機株式会社 差動gps用固定局、移動体用gps測位機、ナビゲーション装置、及びgps測位機用ラジオ受信機
JP2002311123A (ja) * 2001-04-11 2002-10-23 Mitsui & Co Ltd 衛星測位システム
ATE538394T1 (de) * 2006-05-30 2012-01-15 Nokia Corp Unterstützung einer relativen positionierung
US8934008B2 (en) * 2009-12-07 2015-01-13 Cognitech, Inc. System and method for determining geo-location(s) in images
KR101444685B1 (ko) * 2013-02-04 2014-09-26 서울시립대학교 산학협력단 영상기반 멀티센서 데이터를 이용한 차량의 위치자세 결정 방법 및 장치
CN107018362B (zh) * 2017-03-29 2020-11-03 中国科学院上海高等研究院 反盗猎监控方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232690A (ja) * 2006-03-03 2007-09-13 Denso Corp 現在地検出装置、地図表示装置、および現在地検出方法
JP2008306464A (ja) * 2007-06-07 2008-12-18 Sony Corp 撮像装置、情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2014020949A1 (ja) * 2012-08-01 2014-02-06 日本電気株式会社 通信装置、通信機、通信システム、通信方法、位置特定方法および記録媒体
JP2015052548A (ja) * 2013-09-09 2015-03-19 富士重工業株式会社 車外環境認識装置
JP2016169974A (ja) * 2015-03-11 2016-09-23 国立大学法人電気通信大学 位置測定装置、位置測定方法、プログラム、および位置測定システム
JP6821768B1 (ja) 2019-11-13 2021-01-27 ソフトバンク株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2020129130A (ja) * 2020-04-27 2020-08-27 パイオニア株式会社 情報処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4365870A4

Also Published As

Publication number Publication date
EP4365870A1 (en) 2024-05-08
EP4365870A4 (en) 2024-08-28
JPWO2023007588A1 (ja) 2023-02-02

Similar Documents

Publication Publication Date Title
US10520605B2 (en) Satellite signal reception characteristic estimation apparatus, method thereof, and program thereof
CN107850673B (zh) 视觉惯性测距姿态漂移校准
WO2022174756A1 (zh) 一种车辆定位的方法、相关装置、设备以及存储介质
JP6546658B2 (ja) 衛星信号受信装置、衛星信号受信方法及びプログラム
CN113726409B (zh) 一种卫星下行信号的校正方法、装置、设备及存储介质
Sun et al. The precise multimode GNSS positioning for UAV and its application in large scale photogrammetry
CN111386477A (zh) 观测数据转换方法、设备、可移动平台及存储介质
WO2023007588A1 (ja) 情報処理装置、プログラム及び測位方法
US11727646B2 (en) Augmented reality image occlusion
JP2655136B2 (ja) 干渉型合成開口レーダ画像処理方法及び干渉型合 成開口レーダ装置
KR20130125562A (ko) 전자장치의 위치측정을 위한 방법 및 장치
JP2008249551A (ja) 情報処理装置及び情報処理方法及びプログラム
KR100498185B1 (ko) 아이지에스를 이용한 지피에스 위치오차 보정정보제공방법 및 그를 이용한 지피에스 위치오차 보정방법
CN115200573B (zh) 空间目标的测量装备定位方法、系统和存储介质
CN113281796B (zh) 位置确定方法、速度确定方法、装置、设备和存储介质
JPWO2005017552A1 (ja) 情報処理装置およびgps測位方法
WO2023008444A1 (ja) 情報処理装置、プログラム及び測位方法
US20230128046A1 (en) Detection method and computer-readable recording medium storing detection program
JP2004362333A (ja) 写真計測システム及び写真計測方法
Elsayed et al. From Stationary to Mobile: Unleashing the Full Potential of Terrestrial LiDAR through Sensor Integration
JPH11295411A (ja) Dgps位置標定システム
CN113960602B (zh) 轨道误差信息生成方法、装置、电子设备和可读介质
CN111428608B (zh) 交通工具定位方法、装置、计算机设备和存储介质
KR20010066599A (ko) 재밍효과측정장치
EP4365635A1 (en) Rover position computation using safe data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21951798

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023537791

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2021951798

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2021951798

Country of ref document: EP

Effective date: 20240131

NENP Non-entry into the national phase

Ref country code: DE