WO2020235401A1 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- WO2020235401A1 WO2020235401A1 PCT/JP2020/019020 JP2020019020W WO2020235401A1 WO 2020235401 A1 WO2020235401 A1 WO 2020235401A1 JP 2020019020 W JP2020019020 W JP 2020019020W WO 2020235401 A1 WO2020235401 A1 WO 2020235401A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- image processing
- unit
- display unit
- movement
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Definitions
- the present disclosure relates to an image processing apparatus, an image processing method, and a program. More specifically, the present invention relates to an image processing device that generates and displays a future predicted image, guidance information such as an explanation of predicted movement, and the like from an image captured by a camera, an image processing method, and a program.
- the shooting interval is 20 f / s, that is, about 20 frames per second, and the shot images at this interval are used. Whether or not the image at the timing you want to shoot is included is not known until you check the image after shooting. It is possible to perform high-speed continuous shooting and movie shooting, but there is a problem that the image quality is lower than that of a still image with high image quality.
- Patent Document 1 Japanese Unexamined Patent Publication No. 2000-322556
- This document discloses a processing example of generating and displaying a predicted future weather image such as the movement of rain clouds.
- the future prediction image generated by the processing disclosed in this patent document is a future prediction image several minutes to several hours ahead, and enables processing such as teaching the user who is the photographer of the camera the shutter operation timing. It's not a thing.
- the present disclosure has been made in view of the above-mentioned problems, for example, by displaying guidance information such as a future predicted image and an explanation of predicted movement on a display unit of a camera or a smartphone, and the photographer.
- guidance information such as a future predicted image and an explanation of predicted movement on a display unit of a camera or a smartphone, and the photographer.
- Provided are an image processing device, an image processing method, and a program that enable (user) to take a picture at an appropriate timing.
- the first aspect of the disclosure is Predicts the movement of moving subjects included in the input image from the image pickup unit, It is in an image processing apparatus having an image processing unit that generates a future prediction image and displays it on the display unit.
- the second aspect of the present disclosure is This is an image processing method executed in an image processing device.
- the image processing department Predicts the movement of moving subjects included in the input image from the image pickup unit, It is an image processing method that generates a future prediction image and displays it on the display unit.
- the third aspect of the present disclosure is A program that executes image processing in an image processing device.
- the image processing section Predicts the movement of moving subjects included in the input image from the image pickup unit,
- the program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an image processing device or a computer system that can execute various program codes.
- a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an image processing device or a computer system that can execute various program codes.
- system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
- motion prediction of a moving subject included in an input image from an imaging unit is executed, and a future prediction image is generated and displayed.
- the device and method of displaying on the unit are realized. Specifically, for example, it has an image processing unit that executes motion prediction of a moving subject included in an input image from an imaging unit, generates a future prediction image, and displays it on a display unit.
- the future prediction image to be displayed is an image that takes into account the delay time based on the delay factor that occurs from the user's preparation for shooting the subject to the completion of image shooting.
- the display delay for the display unit and the delay from shutter operation to image recording It is a predicted image of the future for the total delay time with time.
- the image processing unit further analyzes the state of the moving subject included in the input image, generates information explaining the state and information explaining the predicted movement, and displays it on the display unit.
- an example of appearance configuration of the image processing apparatus of the present disclosure will be described.
- an image pickup device camera
- the configuration and processing of the present disclosure are not limited to the imaging device, and can be applied to devices having a camera function and a display unit, such as a smartphone (smartphone) and a tablet terminal. It can also be used in a remote device that performs communication with an image pickup device and in a device that receives and processes a captured image of the image pickup device.
- the image processing apparatus of the present disclosure includes these various apparatus.
- FIG. 1 is a diagram showing a configuration example of an image pickup apparatus 10 which is an example of the image processing apparatus of the present disclosure.
- the image pickup apparatus 10 includes a lens 11, a shutter 12, various operation units 13 and 15, and a display unit (monitor unit) 14.
- the current subject image is displayed as an LV image (live view image (through image)) on the display unit 14 regardless of the operation of the shutter 12.
- LV image live view image (through image)
- the user sees the image displayed on the display unit 14 of the image pickup apparatus 10 and presses the shutter 12 at a predetermined timing.
- the image pickup apparatus 10 cannot acquire a captured image at a timing completely equal to the operation of the shutter 12, and there is a delay time between the shutter operation timing and the image capturing timing. Therefore, when taking a picture of a fast-moving subject, it is necessary to operate the shutter in consideration of this delay time. Further, the display image of the display unit 14 is also an image in which a delay has occurred, and even when shooting while looking at the monitor screen, a shutter operation in consideration of this delay time is required. Such a shooting process is difficult for a general user.
- the image processing device of the present disclosure displays guidance information such as a future predicted image and an explanation of predicted motion on the display unit 14.
- guidance information such as a future predicted image and an explanation of predicted motion on the display unit 14.
- the image processing device of the present disclosure displays information such as a predicted image of the future and a description of the predicted movement of the subject on the display unit 14.
- information such as a predicted image of the future and a description of the predicted movement of the subject on the display unit 14.
- specific examples of the following two processes will be described in sequence. (1) Specific example of the process of displaying the future prediction image on the display unit (2) Processing of displaying the explanation or prediction information of the movement of the subject on the display unit.
- the input image (a) shown in FIG. 2 is an image input to the image processing unit of the image pickup apparatus 10. That is, it is an image input via the image pickup device of the image pickup device 10, and usually this image is displayed on the display unit 14 of the image pickup device 10 as an LV image (through image).
- the image processing unit of the imaging device 10 of the present disclosure executes a process of generating a future predicted image and displaying it on the display unit 14 based on these input images.
- FIG. 2 shows three continuous shooting frames of the frame f (n-2), the frame f (n-1), and the frame f (n) as the input image (a). These are not images captured and recorded by the shutter operation by the user, but images input as LV images (through images) that are not to be recorded. It is assumed that the input timing of the frame f (n) is currently set.
- the image processing unit of the image pickup apparatus 10 of the present disclosure detects a moving subject in each image frame, that is, a "moving subject" for each input of each input image frame, and analyzes the motion of the detected moving subject. Specifically, skeleton (framework) analysis and center of gravity analysis are performed. This analysis result is a frame unit analysis image shown in FIG. 2 (b). As shown in FIG. 2B, the image processing unit analyzes the skeleton (framework) of the moving subject included in each image frame and the position of the center of gravity.
- the image processing unit uses a plurality of frame-based analysis images shown in FIG. 2B to analyze the amount and direction of movement and change of the skeleton and the center of gravity between frames, and "moves" after a predetermined time.
- the state of the "subject", that is, the position and orientation of the "moving subject” is estimated and analyzed.
- An example of the result of this analysis process (estimation process) is FIG. 2 (c), that is, (C) Data for future prediction image generation (skeleton image (framework image)) Is.
- the future prediction image generation data (skeleton image (frame image)) is data showing the structure and the position of the center of gravity of the skeleton (frame) of the moving subject in the captured image.
- the image processing unit receives the input images, for example, frames f (n-2) to f (n) with respect to "(c) Future prediction image generation data (skeleton image (framework image))".
- a future prediction image is generated by pasting an image of a moving subject obtained from the image. It is (d) future prediction image shown in FIG.
- the (d) future prediction image shown in FIG. 2 corresponds to an image three frames ahead (f (n + 3)) at the present (when the frame f (n) is input).
- the image processing unit displays the future prediction image on the display unit 14 of the imaging device 10.
- FIG. 3 shows a display example of a future prediction image on the display unit 14 of the image pickup device 10.
- the current captured image (LV image) is displayed on the display unit 14 of the image pickup apparatus 10.
- the future prediction image can be displayed on the display unit 14 instead of the currently captured image (LV image).
- the display unit 14 of the image pickup apparatus 10 is displayed with the future prediction image (frame f 3 frames ahead) instead of the currently captured image (frame f (n)). (N + 3) can be displayed.
- the user operates an image corresponding to the future prediction image displayed on the display unit 14, that is, the current input image frame f (n). ), But succeeds in capturing the future input image frame f (n + 3).
- the future prediction image displayed on the display unit 14 is, for example, a time corresponding to the total delay time in consideration of the display delay time for the display unit and the processing delay time from the shutter operation to the image capturing process.
- the image processing unit generates a future prediction image with such settings and displays it on the display unit 14. With this setting, the user can shoot and record the same image as the future prediction image displayed on the display unit 14 by checking the future prediction image displayed on the display unit 14 and operating the shutter. It becomes.
- FIG. 4 shows a diagram for explaining a delay factor that occurs when an image is taken by a user (photographer) using the image pickup device 10.
- FIG. 4 is a diagram illustrating a sequence from when the user (photographer) points the image pickup device 10 toward the subject until the actual image shooting (main shooting) is performed, and a delay factor that occurs during this sequence. is there.
- step S01 the image pickup device 10 is directed toward the subject and a photographed image (LV image) is captured in the image pickup device 10.
- step S02 the captured image (LV image) is displayed on the display unit 14.
- step S03 the user (photographer) recognizes the captured image (LV image) displayed on the display unit 14.
- step S04 the user (photographer) looks at the captured image (LV image) and predicts the imaging timing.
- step S05 the user (photographer) performs a shooting operation.
- step S06 image shooting is executed according to the shooting operation by the user (photographer).
- Delay factors (1) to (5) shown on the right side of FIG. 4 are delay factors that may occur during these processing sequences. That is, it is the following delay factor.
- the future prediction image generated by the image processing unit of the image processing device which is the image processing device of the present disclosure, causes the above-mentioned various delay factors that occur from the user's preparatory operation for shooting the subject to the completion of image shooting. It is a future prediction image considering the delay time based on.
- the image processing apparatus of the present disclosure considers these various delay factors and performs processing to make an image to be captured by the user and an actual captured image match.
- the user can set how much the future prediction image to be displayed on the display unit 14 should be the future image. This takes into consideration the difference in shutter operation speed depending on the user, the preference of the user, and the like.
- FIG. 5 shows the following two UI examples.
- A UI example 1 for adjusting the future prediction image setting time
- B UI example 2 for adjusting the future prediction image setting time
- (A) UI example 1 for adjusting the future prediction image setting time is an example of a basic UI.
- the user can set the future time of the future prediction image displayed on the display unit 14 between 10 ms and 1000 ms. By sliding the scroll bar 21 shown in the figure to the left or right, the future prediction image to be displayed on the display unit 14 can be arbitrarily set in the range of the image 10 ms ahead to the image 1000 ms ahead.
- the image processing unit of the image pickup apparatus 10 executes the process described above with reference to FIGS. 1 and 2 to generate a future prediction image according to the user's set time. , Displayed on the display unit 14.
- Future prediction image setting time adjustment UI example 2 is an example of a UI in which setting auxiliary information 22 is additionally displayed.
- the setting auxiliary information 22 is auxiliary information that guides the setting time of the optimum future prediction image estimated from the movement of the subject.
- the setting auxiliary information 22 is a time within a range calculated by analyzing the movement of the subject in the image processing unit of the image pickup apparatus 10.
- the display example of the future prediction image described with reference to FIG. 3 is an example in which the LV image is not displayed on the display unit 14 and only the future prediction image is displayed.
- the display mode of the future prediction image on the display unit 14 is ,
- the display example is not limited to this.
- Another display example of the future prediction image will be described with reference to FIG.
- FIG. 6 shows an image display example in the following two display modes as an image display example for the display unit 14. (1) Example of display image in future prediction image non-display mode (LV image (through image) display) (2) Example of display image in future prediction image display mode (LV image (through image) and future prediction image superimposed display or blend display)
- the display image shown in FIG. 6 (1) is an example in which only the LV image is displayed as in the conventional case.
- the display unit 14 displays the currently captured image, that is, the LV image, which is input from the image sensor, as in the conventional case.
- the display image shown in FIG. 6 (2) is an example of a display image in which a future prediction image generated by the image processing unit is superimposed or blended on the LV image.
- the "future prediction image display mode" is set, the future prediction image generated by the image processing unit is superimposed or blended on the display unit 14 with the currently captured image input from the image sensor, that is, the LV image. Is displayed.
- FIG. 7 shows the following UI example.
- A UI example for adjusting the blend rate setting of the LV image and the future prediction image
- the user uses the UI shown in FIG. 7 to determine how to display the image displayed on the display unit 14 by blending the LV image and the future prediction image from 100% of the LV image to 100% of the future prediction image. It can be adjusted within the range of. By sliding the scroll bar 23 shown in the figure to the left or right, the blend ratio of the image displayed on the display unit 14 can be adjusted.
- the image processing unit of the imaging device 10 blends the LV image and the future prediction image and displays them on the display unit 14 based on this user setting information.
- the configuration may be such that automatic display switching control is performed without performing such adjustment processing by the UI.
- the control is as follows. (1) When the user touches the shutter or presses the shutter halfway, the LV image is switched to the future prediction image and displayed.
- the camera may be provided with an operation unit (switch or the like) for switching between the LV image and the future prediction image, and switching may be performed according to the operation of the operation unit.
- FIG. 8 is an example of processing executed by the image processing unit of the image pickup apparatus 10 of the present disclosure, and is a diagram illustrating a processing example of displaying explanatory information regarding the movement of the subject on the display unit 14.
- FIG. 8 is an example in which a “bird” is included as a “moving subject” in the LV image input from the image sensor.
- FIG. 8 shows a state in which the user points the image pickup device (camera) 10 toward the bird and displays the LV image on the display unit 14 of the image pickup device 10.
- FIG. 8 shows the display data according to the time series of the times t1 to t3 in (1) to (3).
- the display image of the display unit 14 at time t1 is a display of only the LV image.
- the image processing unit of the image pickup apparatus 10 of the present disclosure displays explanatory information regarding the movement of the subject on the display unit 14.
- the user may perform the shutter operation in a hurry at the timing of time t3 shown in FIG. 8 (3), for example.
- a bird may fly away and an image taken out of the screen may be taken.
- the image processing unit of the image pickup apparatus 10 of the present disclosure outputs explanatory information about the movement of the moving subject included in the LV image together with the LV image.
- analysis data corresponding to the type of moving subject included in the LV image is required.
- analysis data such as a dictionary that can acquire what the posture and movement of the bird mean is required.
- the imaging device of the present disclosure stores this analysis data in a database in advance, refers to the recorded data in the database, and presents information according to the type of moving subject included in the LV image.
- the database stores analysis data on various types of moving subjects such as people, birds, dogs, cats, and so on. That is, data is stored in which the type of each moving subject, the posture and movement according to the processing executed by the moving subject, and the explanatory information of the state are associated with each other.
- FIG. 9 is a diagram illustrating a specific example of additionally displaying information on the display unit 14 together with the LV image, as in FIG. 8.
- the example shown in FIG. 9 is a specific example of the process of displaying the prediction information of the movement of the subject on the display unit 14.
- FIG. 9 shows each display example below.
- A Display example of only LV image
- B1 Example of additional display of motion prediction information of a moving subject (person) 1
- B2) Motion prediction information additional display example 2 of a moving subject (person)
- B3) Motion prediction information additional display example 3 of a moving subject (person)
- (B1) to (b3) are examples in which motion prediction information of a moving subject (person) is added and displayed in the image processing unit of the image pickup apparatus 10 of the present disclosure.
- Additional display example 1 of motion prediction information of a moving subject (person) is provided as motion prediction information of a moving subject (person). "Frame out after 7 seconds (3 km / h)" This is an example of additionally displaying this prediction information.
- the image processing unit of the image pickup apparatus 10 of the present disclosure analyzes the walking speed of the moving subject (person) by analyzing the continuously input LV image, and calculates the time until the moving subject (person) is framed out. .. Based on this calculation result, the display unit 14 "Frame out after 7 seconds (3 km / h)" This prediction information is additionally displayed.
- the user can perform various processes such as operating the shutter to shoot or changing the direction of the camera before the moving subject (person) frames out. It becomes.
- the motion prediction information additional display example 2 of the moving subject (person) is an example in which an arrow icon indicating the movement direction of the moving subject (person) is additionally displayed as the motion prediction information of the moving subject (person).
- the image processing unit of the imaging device 10 of the present disclosure analyzes the moving direction of the moving subject (person) by analyzing the continuously input LV image, and based on the analysis result, displays the moving subject (person) on the display unit 14. ) Is additionally displayed with an arrow indicating the direction of movement.
- the user can recognize the moving direction of the moving subject (person) and perform processing such as changing the direction of the camera.
- Additional display example 3 of motion prediction information of a moving subject (person) is provided as motion prediction information of a moving subject (person).
- "Image of a moving subject (person) after a predetermined time” Is an example of superimposing and displaying on an LV image.
- the image processing unit of the imaging apparatus 10 of the present disclosure analyzes the walking speed of the moving subject (person) by analyzing the continuously input LV image, and calculates the position of the moving subject (person) after a predetermined time. Based on this calculation result, the display unit 14 "Image of a moving subject (person) after a predetermined time" This prediction information is additionally displayed.
- the user can know in advance, for example, the optimum shooting timing of a moving subject (person), and can shoot an image envisioned by the user.
- FIG. 10 is a diagram illustrating a specific example of additionally displaying information on the display unit 14 together with the LV image, as in the case of FIGS. 8 and 9.
- the example shown in FIG. 10 is a display example of prediction information for hating that an image with eyes closed due to blinking is taken when a person's face is photographed.
- the figure shows an extracted region image of the eyes, which is a part of the human face image displayed on the display unit 14 of the imaging device 10.
- FIG. 10 (1) shows a part of the input image input from the image sensor of the image pickup device 10 to the image processing unit.
- the area image of the eyes, which is a part of the human face image, is extracted and shown.
- Four examples (1a) to (1d) are shown as input image examples.
- the image processing unit of the image pickup apparatus 10 of the present disclosure analyzes the state of the eyes included in the input images. Specifically, the condition of the eyes (X) A state in which it is determined that blinking does not occur immediately after the operation. (Y) A state in which it is determined to blink during or immediately after blinking. Which of these is determined.
- the condition of the eyes included in the input image is (X) A state in which it is determined that blinking does not occur immediately after the operation.
- An example determined to be in this state is an example shown in FIGS. 10 (1a) and 10 (2a).
- the image processing unit displays only the LV image shown in (2a) on the display unit 14.
- the state of the eyes included in the input image is (Y) A state in which it is determined to blink during or immediately after blinking. Examples determined to be in this state are the examples shown in FIGS. 10 (1b to 12) and (2b to 2d).
- the image processing unit displays the prediction information shown in (2b to 2d) on the display unit 14, that is, "Blinking attention" Display this forecast information.
- the user can confirm this information and stop shooting by shutter operation at this timing.
- the image processing unit of the image pickup apparatus 10 of the present disclosure outputs prediction information and explanatory information about the movement of a moving subject included in the LV image together with the LV image.
- the image processing unit acquires, for example, analysis data according to the type of the moving subject included in the LV image from the database and refers to it.
- analysis data such as a dictionary that can acquire what the posture and movement of the bird mean is required.
- the imaging device of the present disclosure stores this analysis data in a database in advance, refers to the recorded data in the database, and presents information according to the type of moving subject included in the LV image.
- the database stores analysis data on various types of moving subjects such as people, birds, dogs, cats, etc. That is, data is stored in which the type of each moving subject, the posture and movement according to the processing executed by the moving subject, and the explanatory information of the state are associated with each other.
- FIG. 11 and 12 are diagrams showing an example of processing for each scene executed by the image processing unit of the image pickup apparatus 10 of the present disclosure.
- the scene analysis is executed by the image processing unit by comparing the input LV image with the scene identification data stored in the database.
- the database stores, for example, feature data for scene identification corresponding to the seven scene categories shown in FIGS. 11 and 12.
- 11 and 12 are the scenes 1 to 7 shown in FIGS. That is, 1. 1. Sports in which people use multiple movable tools (tennis, baseball, badminton, golf) 2. 2. Sports where people use one movable tool (soccer, kendo) 3. 3. Sports where people do not use moving tools (athletics, swimming, dance, gymnastics, judo) 4. Portrait shooting 5. Animal photography 6. Moving object photography 7. Landscape photography
- the image processing unit of the image pickup apparatus 10 of the present disclosure first compares the LV image input from the image sensor with the scene identification data stored in the database, and the input LV image is any of the scenes 1 to 7 above. Is determined.
- the moving subject to be the motion analysis target in the scene is next specified.
- the moving subject is specified as a process of detecting the moving subject from the continuous input image.
- Items “(b) motion analysis target” in FIGS. 11 and 12 show examples of moving subjects detected in each scene, that is, moving subjects to be subjected to motion analysis processing.
- the moving object is a moving subject, that is, a moving subject to be subjected to motion analysis processing.
- the movement of the target object and the signs of its appearance are the targets of the motion analysis processing.
- the image processing unit identifies, for example, "(b) motion analysis target" corresponding to each scene, and then determines a specific motion prediction mode and prediction timing for these motion analysis targets. That is, for example, the specific processing of the "motion prediction mode and prediction timing" shown in FIGS. 11 and 12 (c) is executed.
- the timing at which the target appears is predicted, and the timing at which the target is at the optimum position is set as the motion prediction timing. Specifically, for example, the timing of the following events described in "Specific example” is predicted.
- the moment of thunder The moment when a shooting star is reflected beautifully, The moment the fireworks open wide The moment when the trajectory of the fireworks is reflected beautifully,
- FIG. 13 shows a learning device / discriminator 51 configured in the image processing device of the present disclosure and a database 52 for storing learning results.
- the learner of the learner / discriminator 51 uses time-series image data corresponding to various scenes as input data 40 and executes a learning process of estimating prediction data of future movements and changes.
- the learning result is stored in the database 52.
- various algorithms can be used. For example, Gaussian process, Bayesian neural network, support vector machine (SVM), logistic regression, etc. can be used.
- the discriminator of the learner / discriminator 51 uses the learning result stored in the database 52 to generate and output an output 60 composed of future prediction data.
- the future prediction image generated in each of the above-described embodiments is executed by using the learning data stored in the database 52.
- the learner of the learner / discriminator 51 executes a learning process for acquiring an output (predicted image or the like) corresponding to each scene in various scene units. For example, a large number of existing time-series images of a bird's flight scene are input as a specific scene, and a learning process is executed to estimate which image is the image at the moment when the bird takes off or the image immediately before the bird's flight.
- various people input a time-series image of kicking the ball, and which image is the image of the moment when the person kicks the ball or the image immediately before it. Performs a learning process to estimate.
- the learning result data corresponding to these scenes is stored in the database.
- the discriminator of the learner / discriminator 51 inputs a new processing target image (time-series image) for future prediction, first discriminates the scene, and uses the learning result corresponding to the scene stored in the database 52. Then, an output 60 composed of future prediction data is generated and output.
- a new processing target image time-series image
- the newly input processing target image is a bird image described with reference to FIG. 8
- the image frame immediately before the moment when the bird takes off is estimated, and the output processing of the explanatory information as described above with reference to FIG. 8 is executed.
- the learning process and the discrimination process (future prediction process) of the learner / discriminator 51 are executed as different processes for each scene. Specific examples of the input data and the output data for the learner / discriminator 51 shown in FIG. 13 will be described with reference to FIGS. 14 and 15.
- FIGS. 14 and 15 are diagrams showing specific examples of input data and output data for the learner / discriminator 51 for each scene, similar to FIGS. 11 and 12 described above.
- the scenes are the following scenes 1 to 7. 1.
- Sports in which people use multiple movable tools tennis, baseball, badminton, golf
- Sports where people use one movable tool (soccer, kendo)
- Sports where people do not use moving tools (athletics, swimming, dance, gymnastics, judo) 4.
- Portrait shooting 5.
- the “(b) motion analysis target” is a moving subject detected in each scene, that is, a moving subject to be subjected to motion analysis processing.
- “(P) Input data” is input data for the learner / discriminator 51. Specifically, it is time series image data.
- “(Q) Output data” is output data from the learner / discriminator 51. At the time of executing the learning process, the output data is estimated based on the input data, and the combination data of the input data and the output data is stored in the database 52.
- the discrimination process prediction process
- the database 52 is searched based on the input data, training data closer to the input data is selected, and prediction data as output data, for example, a prediction image is generated and output.
- the learner / discriminator 51 identifies "(b) motion analysis target” corresponding to each scene, and then executes a learning process by the learner or a discrimination process (prediction process) by the discriminator for these motion analysis targets. To do.
- the "(b) motion analysis target” corresponding to each scene to be processed by the learner / discriminator 51, the "(p) input data” for the learner / discriminator 51, and the learner / discriminator 51 A specific example of the “(q) output data” to be generated will be described.
- the "(b) motion analysis target" to be processed by the learner / discriminator 51 is the human body, the tool 1 (racket), and the tool 2 (sphere).
- the “(p) input data” for the learner / discriminator 51 is a time-series image of the movements of the tool 1 (racket) and the tool 2 (sphere).
- the "(q) output data” generated by the learner / discriminator 51 is a future image of the movement of the tool 1 (racket) and the tool 2 (sphere), the timing of impact, and the like.
- the learner / discriminator 51 uses, for example, the movement and timing of the following events described in "Specific Examples", that is, The movement and moment when the racket and the ball hit, The movement and moment when the bat and the ball hit, The movements and moments when the racket and shuttle hit, The moment it is determined that the ball has entered the goal,
- the learning device executes a learning process for estimating the movement and timing of these events, and stores the learning result in the database 52. Further, the discriminator generates prediction data by using the learning result stored in the database 52.
- the "(b) motion analysis target" to be processed by the learner / discriminator 51 is the human body and the tool 1 (sphere).
- the “(p) input data” for the learner / discriminator 51 is a time-series image of the movements of the person and the tool 1 (sphere).
- the “(q) output data” generated by the learner / discriminator 51 is a future image of the movement of the person and the tool 1 (sphere), the timing of impact, and the like.
- the learner / discriminator 51 uses, for example, the movement and timing of the following events described in "Specific Examples", that is, The movements and moments when the foot and the ball hit, The movements and moments when the hand and the ball hit, The movement and moment when the ball leaves the hand, The movements and moments when the bamboo sword hits the surface,
- the learning device executes a learning process for estimating the movement and timing of these events, and stores the learning result in the database 52. Further, the discriminator generates prediction data by using the learning result stored in the database 52.
- the “(b) motion analysis target” to be processed by the learner / discriminator 51 is a human body.
- the “(p) input data” for the learner / discriminator 51 is a time-series image of the movement of the human body.
- the “(q) output data” generated by the learner / discriminator 51 is a future image of the movement of the human body, the timing that a person wants to see in the sport, and the like.
- the learner / discriminator 51 uses, for example, the movement and timing of the following events described in "Specific Examples", that is, The moment you reach the goal The moment you overtake The apex of the long jump jump, The moment you decide to pose The moment the boxing punch hits, Movements and moments when the tackle hits, Movements and moments that are knocked down by tackles, The moment the body floats in the air with a throwing technique
- the learning device executes a learning process for estimating the movement and timing of these events, and stores the learning result in the database 52. Further, the discriminator generates prediction data by using the learning result stored in the database 52.
- the "(b) motion analysis target" to be processed by the learner / discriminator 51 is the human body and the face.
- the “(p) input data” for the learner / discriminator 51 is a time-series image of the movement of the human body and the face.
- the “(q) output data” generated by the learner / discriminator 51 is a future image of the movement of the human body and the face, the optimum posture & facial expression timing as a portrait, and the like.
- the learner / discriminator 51 uses, for example, the movement and timing of the following events described in "Specific Examples", that is, The moment you laugh The moment when multiple people are not closing their eyes The moment a person turns around The moment when the mouth is well-shaped during the speech and the eyes are not closed,
- the learning device executes a learning process for estimating the movement and timing of these events, and stores the learning result in the database 52. Further, the discriminator generates prediction data by using the learning result stored in the database 52.
- the “(b) motion analysis target” to be processed by the learner / discriminator 51 is an animal.
- the “(p) input data” for the learner / discriminator 51 is a time-series image of the movement of the animal.
- the “(q) output data” generated by the learner / discriminator 51 is a future image of animal movement. The timing of animal movements and outstanding movements.
- the learner / discriminator 51 uses, for example, the movement and timing of the following events described in "Specific Examples", that is, The movements and moments of the birds taking off, The moment the bird's feathers are fully extended, The movements and moments when animals start running, The movements and moments when animals see this, The moment the animal preys (opens its mouth wide), The moment it emerges from the surface of an aquatic animal,
- the learning device executes a learning process for estimating the movement and timing of these events, and stores the learning result in the database 52. Further, the discriminator generates prediction data using the learning result stored in the database 52.
- the “(b) motion analysis target” to be processed by the learner / discriminator 51 is a moving object.
- the “(p) input data” for the learner / discriminator 51 is a time-series image of the movement of a moving object.
- the “(q) output data” generated by the learner / discriminator 51 is a future image of the movement of the moving object, the timing at which the moving object is in the optimum composition, and the like.
- the learner / discriminator 51 uses, for example, the movement and timing of the following events described in "Specific Examples", that is, Front photo while the train is running, Goal scene in a car race, Airplane takeoff and landing scene,
- the learning device executes a learning process for estimating the movement and timing of these events, and stores the learning result in the database 52. Further, the discriminator generates prediction data by using the learning result stored in the database 52.
- the “(b) motion analysis target” to be processed by the learner / discriminator 51 is a sign of the movement or appearance of the object to be predicted.
- the “(p) input data” for the learner / discriminator 51 is a time-series image of the movement of the object to be predicted.
- the “(q) output data” generated by the learner / discriminator 51 is the timing at which the prediction target appears, the timing at which the target is at the optimum position, and the like.
- the learner / discriminator 51 uses, for example, the movement and timing of the following events described in "Specific Examples", that is, The moment of thunder, The moment when a shooting star is reflected beautifully, The moment the fireworks open wide The moment when the trajectory of the fireworks is reflected beautifully,
- the learning device executes a learning process for estimating the movement and timing of these events, and stores the learning result in the database 52. Further, the discriminator generates prediction data by using the learning result stored in the database 52.
- the learner of the learner / discriminator 51 executes the learning process for acquiring the output (predicted image or the like) corresponding to each scene in various scene units. Further, the discriminator of the learner / discriminator 51 inputs a new processing target image (time series image) for future prediction, first discriminates the scene, and stores the learning result corresponding to the scene stored in the database 52. Is used to generate and output an output 60 composed of future prediction data.
- FIG. 16 is a block diagram showing a configuration example of the image processing device (camera) 100 of the present disclosure.
- the image processing device 100 corresponds to the image pickup device 10 shown in FIG.
- the image processing device 100 includes a lens 101, an image sensor 102, an image processing unit 103, a database 104, a memory 105, a communication unit 106, a drive unit 107, a control unit 108, an input unit 109, and a display unit 110.
- the captured image is captured by the image sensor 102 via the lens 101.
- the image sensor 102 is, for example, a CCD (Charge Coupled Devices) image sensor, a CMOS (Complementary Metal Oxide MOSFET) image sensor, or the like.
- the image processing unit 103 inputs image data output from the image sensor 102, for example, an LV image, identifies the moving subject included in the above-mentioned processing, that is, the LV image, and further analyzes the state of the moving subject and predicts the movement. To generate future prediction images, state information of moving subjects, prediction information, and the like.
- the image processing unit 103 also has the function of the learner / discriminator 51 described above with reference to FIG. 13, and executes the learning process and the discrimination process (prediction process).
- the image processing unit 103 also executes signal processing associated with normal image capture. For example, signal processing in a general camera such as demosaic processing, white balance (WB) adjustment, and gamma correction is performed.
- the database 104 is referred to when the moving subject identification process executed by the image processing unit 103, the moving subject state analysis and motion prediction, the future prediction image generation, and the moving subject state information and prediction information generation processing.
- the database 104 stores analysis data related to various types of moving subjects such as people, birds, dogs, cats, and the like. That is, data is stored in which the type of each moving subject, the posture and movement according to the processing executed by the moving subject, and the explanatory information of the state are associated with each other.
- the memory 105 is a memory composed of a storage area for captured images, a processing program executed by the image processing device 100, a RAM, a ROM, and the like used as a storage area for various parameters and the like.
- the communication unit 106 is a communication unit used for communication processing with an external device, for example, a server or another information terminal.
- the drive unit 107 performs various drive processes necessary for image capture, such as lens drive for image capture and aperture control. This drive process is executed, for example, under the control of the control unit 108.
- the control unit 108 controls various processes such as image shooting, image analysis, discrimination processing as motion prediction, learning processing, and communication processing executed by the image processing device (camera) 100.
- the control unit 108 functions as a data processing unit that executes various processes according to the data processing program stored in the memory 105.
- the input unit 109 is an input unit for inputting various setting information by the user in addition to the shutter.
- the display unit 110 corresponds to the display unit 14 of the image pickup apparatus 10 shown in FIG. Display of LV image, display of future prediction image, display processing of moving subject information, prediction information, and the like are performed. It is also used to display the UI screen.
- the storage unit 111 is used as a storage area for captured images, and also as a storage area for various processing parameters, programs, and the like.
- a smartphone having a camera function also has the hardware configuration shown in FIG.
- the image processing unit 103 includes a scene discrimination unit 201, a moving subject identification unit 202, a moving subject state & motion analysis unit 203, a display information generation unit 204, and a recording information generation unit 205.
- the scene discrimination unit 201 discriminates the shooting scene based on the input image (LV image) 301 input from the image sensor 102.
- Scene discrimination is executed with reference to the scene discrimination data stored in the database 104. Specifically, for example, it is determined which of the following scenes 1 to 7 has been described with reference to FIGS. 11 and 12. 1.
- Sports in which people use multiple movable tools tennis, baseball, badminton, golf
- Sports where people use one movable tool (soccer, kendo)
- Sports where people do not use moving tools athleteics, swimming, dance, gymnastics, judo
- Portrait shooting 5.
- the scene discrimination result of the scene discrimination unit 201 is input to the moving subject identification unit 202 together with the input image (LV image) 301.
- the moving subject identification unit 202 detects the moving subject from the input image (LV image) 301 and identifies the moving subject to be the motion prediction target. In this moving subject identification process, the scene discrimination result of the scene discrimination unit 201 can be used.
- the database 104 stores moving subject information with high detectability corresponding to each scene. It is the data shown in the item (b) shown in FIGS. 11 and 12.
- the moving subject identification unit 202 determines a moving subject as a target for motion prediction from the input image (LV image) 301 with reference to the data stored in the database 104. For example, a target for predicting movement of a person, a bird, a human eye, or the like is specified.
- the moving subject identification information of the motion prediction processing target specified by the moving subject identification unit 202 is input to the moving subject state & motion analysis unit 203 together with the input image (LV image) 301.
- the moving subject state & motion analysis unit 203 performs state analysis and motion prediction of the motion prediction processing target specified by the moving subject identification unit 202.
- the analyzed data (learning result data) stored in the database 104 is used for this process.
- the database 104 stores analysis data relating to various types of moving subjects such as people, birds, dogs, cats, and the like. That is, data is stored in which the type of each moving subject, the posture and movement according to the processing executed by the moving subject, and the explanatory information of the state are associated with each other.
- the moving subject state & motion analysis unit 203 refers to the data stored in the database 104 for the motion prediction processing target specified by the moving subject identification unit 202, and performs state analysis and motion prediction of the moving subject.
- the data analyzed by the moving subject state & motion analysis unit 203 that is, the state analysis information and the motion prediction information of the moving subject specified as the analysis target by the moving subject identification unit 202 are input to the display information generation unit 204.
- the display information generation unit 204 displays a future prediction image to be displayed on the display unit 110 and a state of the moving subject based on the state analysis information and the motion prediction information of the moving subject input from the moving subject state & motion analysis unit 203. Generates information to explain, information to explain future movements of moving subjects, and the like.
- the display information generation unit 204 further outputs and displays the information (1) and (2) above to the display unit 110 together with the input image (LV image) input from the image sensor 102.
- the display mode for the display unit 110 is changed according to the setting information by the user via the input unit 109. For example, how much the future prediction image to be displayed is set to the future prediction image can be set by the user by using the UI described above with reference to FIG. Further, the blend ratio between the future prediction image and the LV image can be set by the user by using the UI described above with reference to FIG. 7.
- the display information generation unit 204 displays the display information on the display unit 110 that has generated the display information according to these user settings.
- the recording information generation unit 205 executes a process of recording an image input from the image sensor 102 in the storage unit 111 in response to an operation of the shutters constituting the input unit 109. In this image recording process, the same signal processing as that of the conventional image pickup apparatus is executed.
- an image applied to the scene discrimination process by the scene discrimination unit 201, the moving subject identification process by the moving subject identification unit 202, and the analysis processing by the moving subject state & motion analysis unit 203 is imaged.
- the input image (LV image) 301 input from the sensor 102 is used as it is.
- the image input to these processing units may be an image in which the amount of data is reduced by, for example, pixel thinning. ..
- An example of such a configuration is shown in FIG.
- the images output from the image sensor 102 are two types of images.
- a normal high-pixel input image (LV image) 301 is output to the display information generation unit 204 and the recording information generation unit 205.
- the image analysis processing execution unit below the scene discrimination unit 201 outputs an identification image 321 whose data amount is reduced by, for example, pixel thinning.
- a plurality of image pickup elements may be provided. For example, if two image pickup elements are provided at separated positions and the two images are analyzed, the subject distance can be calculated and the subject can be calculated. It is possible to analyze highly accurate three-dimensional movement of movement.
- a configuration capable of high-speed shooting a configuration provided with an infrared sensor and a distance measuring sensor, and a configuration in which movement of a moving subject is predicted using these high-speed captured images and sensor acquisition information may be used.
- the technology disclosed in the present specification can have the following configuration. (1) Predict the movement of a moving subject included in the input image from the imaging unit, An image processing device having an image processing unit that generates a future prediction image and displays it on the display unit.
- the image processing device is an image pickup device.
- the future prediction image generated by the image processing unit is The image processing device according to (1), which is a future predicted image in consideration of a delay time based on a delay factor that occurs from the user's preparatory operation for shooting a subject to the completion of image shooting with respect to the image pickup device.
- the image processing device is an image pickup device.
- the future prediction image generated by the image processing unit is The image processing apparatus according to (1) or (2), which is a predicted image of the future, for a time corresponding to the total delay time of the display delay for the display unit of the image pickup apparatus and the delay time from the shutter operation to the image recording. ..
- the image processing unit is The image processing apparatus according to any one of (1) to (3), which executes motion prediction of a moving subject based on a plurality of continuously captured images input from the image sensor.
- the image processing device is It has a configuration that allows the user to set how much the future prediction image displayed on the display unit by the image processing unit should be the future image.
- the image processing unit The image processing device according to any one of (1) to (4), which generates a future prediction image to be displayed on the display unit according to user setting information.
- the image processing unit is A live view image (LV image) which is an input image from the imaging unit is output to the display unit, and the live view image is switched to the future prediction image and output to the display unit (1) to (5).
- LV image live view image
- the image processing unit is The image processing apparatus according to any one of (1) to (6), wherein the live view image (LV image) which is an input image from the imaging unit and the future prediction image are superimposed or blended and output to the display unit.
- LV image live view image
- the image processing device is It has a configuration that allows the user to set the blending ratio between the live view image (LV image) and the future prediction image.
- the image processing unit The image processing apparatus according to (7), which generates a blended image to be displayed on a display unit according to user setting information.
- the image processing unit is The state of the moving subject included in the input image is analyzed.
- the image processing apparatus according to any one of (1) to (8), which generates explanatory information of the analyzed moving subject state and displays it on the display unit.
- the image processing unit is Refer to the data stored in the database
- the image processing unit is Predict the movement of the moving subject included in the input image,
- the image processing apparatus according to any one of (1) to (10), which generates explanatory information for explaining a motion prediction result and displays it on a display unit.
- An image processing method executed in an image processing apparatus Predicts the movement of moving subjects included in the input image from the image pickup unit, An image processing method that generates a future prediction image and displays it on the display unit.
- a program that executes image processing in an image processing device Predicts the movement of moving subjects included in the input image from the image pickup unit, A program that generates a future prediction image and displays it on the display.
- the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
- executing processing by software install the program that records the processing sequence in the memory in the computer built in the dedicated hardware and execute it, or execute the program on a general-purpose computer that can execute various processing. It can be installed and run.
- the program can be pre-recorded on a recording medium.
- LAN Local Area Network
- the various processes described in the specification are not only executed in chronological order according to the description, but may also be executed in parallel or individually as required by the processing capacity of the device that executes the processes.
- the system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
- a device that predicts the movement of a moving subject included in an input image from an imaging unit, generates a future prediction image, and displays it on the display unit.
- the method is realized. Specifically, for example, it has an image processing unit that executes motion prediction of a moving subject included in an input image from an imaging unit, generates a future prediction image, and displays it on a display unit.
- the future prediction image to be displayed is an image that takes into account the delay time based on the delay factor that occurs from the user's preparation for shooting the subject to the completion of image shooting. It is a predicted image of the future for the total delay time with time.
- the image processing unit further analyzes the state of the moving subject included in the input image, generates information explaining the state and information explaining the predicted movement, and displays it on the display unit.
- Imaging device 11 Lens 12 Shutter 13, 15 Various operation units 14 Display unit (monitor unit) 21, 23 Scroll bar 22 Setting auxiliary information 51 Learner / discriminator 52 Database 100 Image processing device 101 Lens 102 Image sensor 103 Image processing unit 104 Database 105 Memory 106 Communication unit 107 Drive unit 108 Control unit 109 Input unit 110 Display unit 111 Storage unit 201 Scene discrimination unit 202 Moving subject identification unit 203 Moving subject state & motion analysis unit 204 Display information generation unit 205 Recording information generation unit 301 Input image (LV image) 321 Identification image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
Abstract
撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する装置、方法を提供する。撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する画像処理部を有する。表示する未来予測画像は、ユーザによる被写体撮影開始準備動作から画像撮影完了までに発生する遅延要因に基づく遅延時間を考慮した画像であり、例えば表示部に対する表示遅延とシャッタ操作から画像記録までの遅延時間との総遅延時間分、未来の予測画像である。画像処理部は、さらに、入力画像に含まれる動被写体の状態を解析し、状態を説明する情報や予測される動きを説明する情報を生成して表示部に表示する。
Description
本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、カメラ撮影画像から、未来の予測画像や、予測される動きの説明等の案内情報を生成して表示する画像処理装置、および画像処理方法、並びにプログラムに関する。
多くの一般的なカメラはシャッタ操作から画像撮影までに遅延時間が存在する。従って、動きのある被写体の、ある特別な瞬間の写真を撮影しようとしてシャッタを操作しても、遅延時間分、遅れた写真が撮影されてしまうことがある。
さらに、最近のカメラや、カメラ機能を有するスマホは、表示部に表示される画像(LV画像(スルー画像))を見ながら撮影を行うものが多いが、表示部に対する画像表示処理にも所定の時間が必要であり、表示画像はわずかに遅延した画像となる。従って、ユーザがモニタ画面を見ながら、ある特別な瞬間の画像を撮影しようとしても、モニタ画面で見た画像とは異なるやや遅れた時間の画像が撮影されてしまうことがある。
具体的には、例えば鳥がはばたく瞬間を撮影しようとして、鳥がはばたく瞬間の画像を表示部で確認してシャッタ操作を行っても、撮影された画像は鳥が飛び立った後の画像になってしまうといったことがある。
鳥がはばたく瞬間の画像を確実に撮影するためには、鳥がはばたく直前に、鳥の動きを察知してシャッタを操作することが必要となる。
鳥がはばたく瞬間の画像を確実に撮影するためには、鳥がはばたく直前に、鳥の動きを察知してシャッタを操作することが必要となる。
プロのカメラマンであれば、遅延時間を考慮して、鳥がはばたく直前に鳥の動きを察知してシャッタを操作するといった撮影が可能かもしれないが、多くの一般ユーザにとって、このような高度な撮影は困難である。
連写モードで連続撮影を行えば、所定間隔の画像が撮影できるが、連写モードは一般的に例えば20f/s、すなわち1秒間に20フレーム程度の撮影間隔であり、この間隔の撮影画像に撮影したいタイミングの画像が含まれるか否かは撮影後の画像を確認するまで分からない。
高速連写や動画撮影を行うということも可能であるが、画質の高い静止画と比較すると、低画質になるという問題がある。
高速連写や動画撮影を行うということも可能であるが、画質の高い静止画と比較すると、低画質になるという問題がある。
このように、一般的なユーザは、カメラやスマホの表示部に表示された画像を確認してシャッタ操作を行うと、ユーザが想定した特別な瞬間の画像を撮影することが困難になるという問題がある。
この問題を解決するためには、現在より未来の状態をユーザに知らせることが有効である。
なお、未来の状態を予測して予測画像を表示部に表示する処理を開示した従来技術として例えば特許文献1(特開2000-322556号公報)がある。
この文献は、雨雲の動きなど予測される未来の天気画像を生成して表示する処理例を開示している。
なお、未来の状態を予測して予測画像を表示部に表示する処理を開示した従来技術として例えば特許文献1(特開2000-322556号公報)がある。
この文献は、雨雲の動きなど予測される未来の天気画像を生成して表示する処理例を開示している。
しかし、この特許文献に開示された処理によって生成する未来予測画像は、数分~数時間先の未来予測画像であり、カメラの撮影者であるユーザにシャッタ操作タイミングを教えるといった処理を可能とするものではない。
本開示は、例えば、上述の問題点に鑑みてなされたものであり、カメラやスマホの表示部に、未来の予測画像や、予測される動きの説明等の案内情報を表示して、撮影者(ユーザ)が適切なタイミングの写真を撮影することを可能とした画像処理装置、および画像処理方法、並びにプログラムを提供する。
本開示の第1の側面は、
撮像部からの入力画像に含まれる動被写体の動き予測を実行し、
未来予測画像を生成して表示部に表示する画像処理部を有する画像処理装置にある。
撮像部からの入力画像に含まれる動被写体の動き予測を実行し、
未来予測画像を生成して表示部に表示する画像処理部を有する画像処理装置にある。
さらに、本開示の第2の側面は、
画像処理装置において実行する画像処理方法であり、
画像処理部が、
撮像部からの入力画像に含まれる動被写体の動き予測を実行し、
未来予測画像を生成して表示部に表示する画像処理方法にある。
画像処理装置において実行する画像処理方法であり、
画像処理部が、
撮像部からの入力画像に含まれる動被写体の動き予測を実行し、
未来予測画像を生成して表示部に表示する画像処理方法にある。
さらに、本開示の第3の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
画像処理部に、
撮像部からの入力画像に含まれる動被写体の動き予測を実行させ、
未来予測画像を生成して表示部に表示させるプログラムにある。
画像処理装置において画像処理を実行させるプログラムであり、
画像処理部に、
撮像部からの入力画像に含まれる動被写体の動き予測を実行させ、
未来予測画像を生成して表示部に表示させるプログラムにある。
なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、本開示の一実施例の構成によれば、撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する装置、方法が実現される。
具体的には、例えば、撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する画像処理部を有する。表示する未来予測画像は、ユーザによる被写体撮影開始準備動作から画像撮影完了までに発生する遅延要因に基づく遅延時間を考慮した画像であり、例えば表示部に対する表示遅延とシャッタ操作から画像記録までの遅延時間との総遅延時間分、未来の予測画像である。画像処理部は、さらに、入力画像に含まれる動被写体の状態を解析し、状態を説明する情報や予測される動きを説明する情報を生成して表示部に表示する。
本構成により、撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する装置、方法が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
具体的には、例えば、撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する画像処理部を有する。表示する未来予測画像は、ユーザによる被写体撮影開始準備動作から画像撮影完了までに発生する遅延要因に基づく遅延時間を考慮した画像であり、例えば表示部に対する表示遅延とシャッタ操作から画像記録までの遅延時間との総遅延時間分、未来の予測画像である。画像処理部は、さらに、入力画像に含まれる動被写体の状態を解析し、状態を説明する情報や予測される動きを説明する情報を生成して表示部に表示する。
本構成により、撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する装置、方法が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
1.本開示の画像処理装置の外観構成例について
2.本開示の画像処理装置の実行する処理の具体例について
2-(1)表示部に未来予測画像を表示する処理の具体例について
2-(2)表示部に被写体の動きの説明または予測情報を表示する処理の具体例について
3.本開示の画像処理装置の画像処理部が実行するデータベースを参照した解析処理の具体例について
4.データベース格納データの生成処理として実行する学習処理と学習結果の利用処理について
5.本開示の画像処理装置の構成例について
6.本開示の構成のまとめ
1.本開示の画像処理装置の外観構成例について
2.本開示の画像処理装置の実行する処理の具体例について
2-(1)表示部に未来予測画像を表示する処理の具体例について
2-(2)表示部に被写体の動きの説明または予測情報を表示する処理の具体例について
3.本開示の画像処理装置の画像処理部が実行するデータベースを参照した解析処理の具体例について
4.データベース格納データの生成処理として実行する学習処理と学習結果の利用処理について
5.本開示の画像処理装置の構成例について
6.本開示の構成のまとめ
[1.本開示の画像処理装置の外観構成例について]
まず、本開示の画像処理装置の外観構成例について説明する。
なお、以下においては、本開示の画像処理装置の一例として撮像装置(カメラ)を利用した例を説明する。ただし、本開示の構成や処理は、撮像装置に限らず、例えばスマホ(スマートフォン)、タブレット端末等、カメラ機能と表示部を有する装置において適用可能である。
また、撮像装置と通信を実行するリモート装置において、撮像装置の撮影画像を受信して処理を行う装置においても利用可能である。本開示の画像処理装置は、これらの様々な装置を含むものである。
まず、本開示の画像処理装置の外観構成例について説明する。
なお、以下においては、本開示の画像処理装置の一例として撮像装置(カメラ)を利用した例を説明する。ただし、本開示の構成や処理は、撮像装置に限らず、例えばスマホ(スマートフォン)、タブレット端末等、カメラ機能と表示部を有する装置において適用可能である。
また、撮像装置と通信を実行するリモート装置において、撮像装置の撮影画像を受信して処理を行う装置においても利用可能である。本開示の画像処理装置は、これらの様々な装置を含むものである。
図1は、本開示の画像処理装置の一例である撮像装置10の構成例を示す図である。撮像装置10は、レンズ11、シャッタ12、各種操作部13,15、表示部(モニタ部)14を有する。
表示部14には、シャッタ12の操作に関わらず、現在の被写体画像がLV画(ライブビュー画像(スルー画像))として表示される。
画像を撮影する場合、例えば、ユーザは撮像装置10の表示部14に表示された画像を見て、所定のタイミングでシャッタ12を押下する。
画像を撮影する場合、例えば、ユーザは撮像装置10の表示部14に表示された画像を見て、所定のタイミングでシャッタ12を押下する。
しかし、前述したように、撮像装置10はシャッタ12の操作に完全に等しいタイミングの撮影画像を取得することはできず、シャッタ操作タイミングと画像撮影タイミングとの間には遅延時間が存在する。従って、動きの速い被写体の写真を撮影する場合、この遅延時間も考慮してシャッタを操作することが必要となる。
また、表示部14の表示画像も遅延が発生した画像であり、モニタ画面を見ながら撮影する場合も、この遅延時間を考慮したシャッタ操作が要求される。
このような撮影処理は一般ユーザには困難である。
また、表示部14の表示画像も遅延が発生した画像であり、モニタ画面を見ながら撮影する場合も、この遅延時間を考慮したシャッタ操作が要求される。
このような撮影処理は一般ユーザには困難である。
本開示の画像処理装置、例えば図1に示す撮像装置10は、表示部14に未来の予測画像や、予測される動きの説明等の案内情報を表示する。
以下、図2以下を参照して、本開示の撮像装置10が実行する処理の具体例について説明する。
以下、図2以下を参照して、本開示の撮像装置10が実行する処理の具体例について説明する。
[2.本開示の画像処理装置の実行する処理の具体例について]
次に、図2以下を参照して、本開示の画像処理装置の実行する処理の具体例について説明する。
次に、図2以下を参照して、本開示の画像処理装置の実行する処理の具体例について説明する。
前述したように、本開示の画像処理装置、例えば図1に示す撮像装置10は、表示部14に未来の予測画像や、予測される被写体の動きの説明等の情報を表示する。
以下、下記の2つの処理の具体例について、順次、説明する
(1)表示部に未来予測画像を表示する処理の具体例
(2)表示部に被写体の動きの説明または予測情報を表示する処理の具体例
以下、下記の2つの処理の具体例について、順次、説明する
(1)表示部に未来予測画像を表示する処理の具体例
(2)表示部に被写体の動きの説明または予測情報を表示する処理の具体例
[2-(1)表示部に未来予測画像を表示する処理の具体例について]
まず、表示部に未来予測画像を表示する処理の具体例について説明する。
まず、表示部に未来予測画像を表示する処理の具体例について説明する。
図2を参照して、本開示の撮像装置10の画像処理部が実行する処理の一例、すなわち、撮像装置10の表示部14に未来予測画像を表示する処理の具体例について説明する。
図2に示す(a)入力画像は、撮像装置10の画像処理部に入力する画像である。すなわち撮像装置10の撮像素子を介して入力される画像である、通常はこの画像がLV画像(スルー画像)として撮像装置10の表示部14に表示される。
図2に示す(a)入力画像は、撮像装置10の画像処理部に入力する画像である。すなわち撮像装置10の撮像素子を介して入力される画像である、通常はこの画像がLV画像(スルー画像)として撮像装置10の表示部14に表示される。
本開示の撮像装置10の画像処理部は、これらの入力画像に基づいて、未来の予測画像を生成して表示部14に表示する処理を実行する。
図2には、(a)入力画像として、フレームf(n-2)、フレームf(n-1)、フレームf(n)の3枚の連続撮影フレームを示している。
これらは、ユーザによるシャッタ操作によって撮影記録される画像ではなく、記録対象外のLV画像(スルー画像)として入力される画像である。
現在はフレームf(n)の入力タイミングであるとする。
これらは、ユーザによるシャッタ操作によって撮影記録される画像ではなく、記録対象外のLV画像(スルー画像)として入力される画像である。
現在はフレームf(n)の入力タイミングであるとする。
本開示の撮像装置10の画像処理部は、各入力画像フレームの入力毎に各画像フレーム内の動く被写体、すなわち「動被写体」を検出し、検出した動被写体の動き解析を行う。
具体的にはスケルトン(骨組み)解析や、重心解析を行う。
この解析結果が、図2(b)に示すフレーム単位解析画像である。
画像処理部は、図2(b)に示すように、各画像フレームに含まれる動被写体のスケルトン(骨組み)や、重心の位置を解析する。
具体的にはスケルトン(骨組み)解析や、重心解析を行う。
この解析結果が、図2(b)に示すフレーム単位解析画像である。
画像処理部は、図2(b)に示すように、各画像フレームに含まれる動被写体のスケルトン(骨組み)や、重心の位置を解析する。
さらに、画像処理部は、図2(b)に示すフレーム単位解析画像を、複数、用いて、フレーム間のスケルトンや重心の移動や変化の量、方向を解析して、所定時間後の「動被写体」の状態、すなわち「動被写体」の位置や姿勢を推定析する。
この解析処理(推定処理)の結果の一例が、図2(c)、すなわち、
(c)未来予測画像生成用データ(スケルトン画像(骨組み画像))
である。
この解析処理(推定処理)の結果の一例が、図2(c)、すなわち、
(c)未来予測画像生成用データ(スケルトン画像(骨組み画像))
である。
(c)未来予測画像生成用データ(スケルトン画像(骨組み画像))は、撮影画像中の動被写体のスケルトン(骨組み)の構造や重心位置を示したデータである。
最後に、画像処理部は、「(c)未来予測画像生成用データ(スケルトン画像(骨組み画像))」に対して、入力済みの画像、例えばフレームf(n-2)~f(n)の画像から得られる動被写体の画像を貼り付けて、未来予測画像を生成する。
図2に示す(d)未来予測画像である。
図2に示す(d)未来予測画像である。
この図2に示す(d)未来予測画像は、現在(フレームf(n)入力時)の3フレーム先(f(n+3))の画像に相当する。
画像処理部は、この未来予測画像を撮像装置10の表示部14に表示する。
画像処理部は、この未来予測画像を撮像装置10の表示部14に表示する。
図3は、撮像装置10の表示部14に対する未来予測画像の表示例を示している。
通常、撮像装置10の表示部14には現在の撮影画像(LV画像)が表示される。しかし、未来予測画像を表示する未来予測画像表示モードに設定することで、表示部14には、現在の撮影画像(LV画像)ではなく、未来予測画像を表示することができる。
通常、撮像装置10の表示部14には現在の撮影画像(LV画像)が表示される。しかし、未来予測画像を表示する未来予測画像表示モードに設定することで、表示部14には、現在の撮影画像(LV画像)ではなく、未来予測画像を表示することができる。
未来予測画像表示モードに設定した場合、図3に示すように撮像装置10の表示部14には、現在の撮影画像(フレームf(n))ではなく、未来予測画像(3フレーム先のフレームf(n+3)を表示することができる。
ユーザは、この表示部14に表示された未来予測画像を確認してシャッタを操作することで、この表示部14に表示された未来予測画像に相当する画像、すなわち現在の入力画像フレームf(n)ではなく、未来の入力画像フレームf(n+3)を撮影することに成功する。
ユーザは、この表示部14に表示された未来予測画像を確認してシャッタを操作することで、この表示部14に表示された未来予測画像に相当する画像、すなわち現在の入力画像フレームf(n)ではなく、未来の入力画像フレームf(n+3)を撮影することに成功する。
なお、表示部14に表示する未来予測画像は、例えば、表示部に対する表示遅延時間と、シャッタ操作から画像撮影処理までの処理遅延時間を考慮し、これらの総遅延時間分に相当する先の時間の未来予測画像とする。
画像処理部は、このような設定の未来予測画像を生成して表示部14に表示する。
この設定により、ユーザは、表示部14に表示された未来予測画像を確認してシャッタを操作することで、この表示部14に表示された未来予測画像と同じ画像を撮影、記録することが可能となる。
画像処理部は、このような設定の未来予測画像を生成して表示部14に表示する。
この設定により、ユーザは、表示部14に表示された未来予測画像を確認してシャッタを操作することで、この表示部14に表示された未来予測画像と同じ画像を撮影、記録することが可能となる。
なお、表示部14に表示する未来予測画像については、上述のように、シャッタ操作から画像撮影処理までの総遅延時間分に相当する先の時間の未来予測画像とする設定の他、様々な設定が可能である。
図4に、ユーザ(撮影者)による撮像装置10を利用した画像撮影時に発生する遅延要因を説明する図を示す。
図4に、ユーザ(撮影者)による撮像装置10を利用した画像撮影時に発生する遅延要因を説明する図を示す。
図4は、ユーザ(撮影者)が、撮像装置10を被写体に向けてから、実際の画像撮影(本撮影)が行われるまでのシーケンスと、このシーケンス中に発生する遅延要因を説明する図である。
ステップS01において、撮像装置10を被写体に向けて撮影画像(LV画像)を撮像装置10に撮りこむ。
ステップS02において、撮影画像(LV画像)を表示部14に表示する。
ステップS03において、ユーザ(撮影者)が、表示部14に表示された撮影画像(LV画像)を認識する。
ステップS04において、ユーザ(撮影者)が、撮影画像(LV画像)を見て撮影タイミングを予測する。
ステップS05において、ユーザ(撮影者)が、撮影操作を行う。
ステップS06において、ユーザ(撮影者)による撮影操作に応じた画像撮影が実行される。
ステップS02において、撮影画像(LV画像)を表示部14に表示する。
ステップS03において、ユーザ(撮影者)が、表示部14に表示された撮影画像(LV画像)を認識する。
ステップS04において、ユーザ(撮影者)が、撮影画像(LV画像)を見て撮影タイミングを予測する。
ステップS05において、ユーザ(撮影者)が、撮影操作を行う。
ステップS06において、ユーザ(撮影者)による撮影操作に応じた画像撮影が実行される。
基本的には、これらステップS01~S06の順番で処理が実行される。
これらの処理シーケンス中に発生する可能性がある遅延要因として、図4の右側に示す遅延要因(1)~(5)がある。すなわち、以下の遅延要因である。
これらの処理シーケンス中に発生する可能性がある遅延要因として、図4の右側に示す遅延要因(1)~(5)がある。すなわち、以下の遅延要因である。
遅延要因(1)カメラを向けた先のシーンが撮影画像(LV画像)として撮影されて表示部上に表示されるまでの遅延(EVF(electronic viewfinder)等の表示部において発生する)
遅延要因(2)ユーザが被写体を認識するまでの遅延(突発的に起こる事象や、認識しにくい被写体の場合に発生しやすい)
遅延要因(3)ユーザが被写体を行動、動作を予測できるまでの遅延(行動/動作を予測しながら撮影をする場合に発生しやすい)
遅延要因(4)ユーザが撮影を判断して、撮影のための操作を完了するまでの遅延
遅延要因(5)カメラに対するユーザの撮影操作が行われてから、実際の露光開始までの遅延
遅延要因(2)ユーザが被写体を認識するまでの遅延(突発的に起こる事象や、認識しにくい被写体の場合に発生しやすい)
遅延要因(3)ユーザが被写体を行動、動作を予測できるまでの遅延(行動/動作を予測しながら撮影をする場合に発生しやすい)
遅延要因(4)ユーザが撮影を判断して、撮影のための操作を完了するまでの遅延
遅延要因(5)カメラに対するユーザの撮影操作が行われてから、実際の露光開始までの遅延
例えば、これらの遅延要因がある。
これらの遅延要因は、ユーザの撮影したい画像と、実際の撮影画像を異なる画像にしてしまう原因となる。
例えば、本開示の画像処理装置である撮像装置の画像処理部が生成する未来予測画像は、撮像装置に対するユーザによる被写体の撮影開始準備動作から画像撮影完了までに発生する上記の様々な遅延要因に基づく遅延時間を考慮した未来の予測画像である。本開示の画像処理装置は、これらの様々な遅延要因を考慮して、ユーザの撮影したい画像と、実際の撮影画像を一致した画像にする処理を行う。
これらの遅延要因は、ユーザの撮影したい画像と、実際の撮影画像を異なる画像にしてしまう原因となる。
例えば、本開示の画像処理装置である撮像装置の画像処理部が生成する未来予測画像は、撮像装置に対するユーザによる被写体の撮影開始準備動作から画像撮影完了までに発生する上記の様々な遅延要因に基づく遅延時間を考慮した未来の予測画像である。本開示の画像処理装置は、これらの様々な遅延要因を考慮して、ユーザの撮影したい画像と、実際の撮影画像を一致した画像にする処理を行う。
なお、表示部14に表示する未来予測画像をどの程度、先の画像にするかについては、ユーザによる設定が可能である。これは、ユーザによるシャッタ操作スピードの差異や、ユーサの好み等を考慮したものである。
この設定のためのUI(ユーザインタフェース)の一例を図5に示す。
図5には、以下の2つのUI例を示している。
(a)未来予測画像設定時間調整用UI例1
(b)未来予測画像設定時間調整用UI例2
図5には、以下の2つのUI例を示している。
(a)未来予測画像設定時間調整用UI例1
(b)未来予測画像設定時間調整用UI例2
(a)未来予測画像設定時間調整用UI例1は、基本的なUIの例である。ユーザは、表示部14に表示する未来予測画像を、どの程度の未来時間にするかを、10ms~1000msの間で設定することができる。
図に示すスクロールバー21を左右にスライドすることで、表示部14に表示する未来予測画像を10ms先の画像から、1000ms先の画像の範囲で任意に設定することができる。
図に示すスクロールバー21を左右にスライドすることで、表示部14に表示する未来予測画像を10ms先の画像から、1000ms先の画像の範囲で任意に設定することができる。
撮像装置10の画像処理部は、このユーザ設定情報に基づいて、先に図1、図2を参照して説明した処理を実行して、ユーザの設定時間に応じた未来予測画像を生成して、表示部14に表示する。
(b)未来予測画像設定時間調整用UI例2は、設定補助情報22を追加表示したUIの例である。
設定補助情報22は、被写体の動きから推定される最適な未来予測画像の設定時間の目安を補助情報である。この設定補助情報22は、撮像装置10の画像処理部において、被写体の動きを解析して算出された範囲の時間である。
設定補助情報22は、被写体の動きから推定される最適な未来予測画像の設定時間の目安を補助情報である。この設定補助情報22は、撮像装置10の画像処理部において、被写体の動きを解析して算出された範囲の時間である。
図3を参照して説明した未来予測画像の表示例は、表示部14にLV画像を表示せず、未来予測画像のみを表示した例であるが、表示部14に対する未来予測画像の表示態様は、このような表示例には限らない。
図6を参照して、もう1つの未来予測画像の表示例について説明する。
図6を参照して、もう1つの未来予測画像の表示例について説明する。
図6に示す例は、表示部14にLV画像と、未来予測画像を重畳して表示した例である。
図6には、表示部14に対する画像表示例として、以下の2つの表示モードにおける画像表示例を示している。
(1)未来予測画像非表示モードにおける表示画像例(LV画像(スルー画像)表示)
(2)未来予測画像表示モードにおける表示画像例(LV画像(スルー画像)と、未来予測画像の重畳表示やブレンド表示)
図6には、表示部14に対する画像表示例として、以下の2つの表示モードにおける画像表示例を示している。
(1)未来予測画像非表示モードにおける表示画像例(LV画像(スルー画像)表示)
(2)未来予測画像表示モードにおける表示画像例(LV画像(スルー画像)と、未来予測画像の重畳表示やブレンド表示)
図6(1)に示す表示画像は、従来と同様、LV画像のみを表示した例である。「未来予測画像非表示モード」に設定した場合、表示部14には、従来と同様、撮像素子から入力される現在の撮影画像、すなわちLV画像が表示部14に表示される。
一方、図6(2)に示す表示画像は、LV画像に、画像処理部が生成した未来予測画像を重畳、またはブレンドして表示した表示画像の例である。「未来予測画像表示モード」に設定した場合、表示部14には、撮像素子から入力される現在の撮影画像、すなわちLV画像に、画像処理部が生成した未来予測画像が重畳、またはブレンドさされて表示される。
なお、LV画像と未来予測画像をブレンドして表示する場合、そのブレンド率はユーザによる調整が可能である。
この設定のためのUI(ユーザインタフェース)の一例を図7に示す。
図7には、以下のUI例を示している。
(a)LV画像と未来予測画像のブレンド率設定の調整用UI例
この設定のためのUI(ユーザインタフェース)の一例を図7に示す。
図7には、以下のUI例を示している。
(a)LV画像と未来予測画像のブレンド率設定の調整用UI例
ユーザは、図7に示すUIを利用して、表示部14に表示する画像を、LV画像と未来予測画像をどのようにブレンドして表示するかについて、LV画像100%~未来予測画像100%の範囲で調整することができる。
図に示すスクロールバー23を左右にスライドすることで、表示部14に表示する画像のブレンド率を調整することができる。
図に示すスクロールバー23を左右にスライドすることで、表示部14に表示する画像のブレンド率を調整することができる。
撮像装置10の画像処理部は、このユーザ設定情報に基づいて、LV画像と未来予測画像をブレンドして表示部14に表示する。
例えばLV画像100%の設定の場合は、図6(1)に示すような、未来予測画像非表示モードに対応する画像、すなわち、LV画像のみが表示される。
また、未来予測画像100%の設定の場合は、図3(e)に示すような、未来予測画像のみの画像が表示される。
さらに、ブレンド率50%の設定の場合は、例えば図6(2)に示すような、未来予測画像表示モードに対応する画像、すなわち、LV画像と未来予測画像を重畳した画像が表示される。
このように、ユーザは、ブレンド率調整UIを利用してユーザが調整することができる。
また、未来予測画像100%の設定の場合は、図3(e)に示すような、未来予測画像のみの画像が表示される。
さらに、ブレンド率50%の設定の場合は、例えば図6(2)に示すような、未来予測画像表示モードに対応する画像、すなわち、LV画像と未来予測画像を重畳した画像が表示される。
このように、ユーザは、ブレンド率調整UIを利用してユーザが調整することができる。
なお、このようなUIによる調整処理を行うことなく、自動的な表示切り替え制御を行う構成としてもよい。例えば、以下のような制御である。
(1)ユーザがシャッタに触れた場合や半押しを行った場合に、LV画像から未来予測画像に切り替えて表示する。
さらに、カメラにLV画像と未来予測画像の切り替え表示用の操作部(スイッチ等)を設けて、この操作部の操作に応じて切り替えを行う構成としてもよい。
(1)ユーザがシャッタに触れた場合や半押しを行った場合に、LV画像から未来予測画像に切り替えて表示する。
さらに、カメラにLV画像と未来予測画像の切り替え表示用の操作部(スイッチ等)を設けて、この操作部の操作に応じて切り替えを行う構成としてもよい。
[2-(2)表示部に被写体の動きの説明または予測情報を表示する処理の具体例について]
次に、表示部に被写体の動きの説明または予測情報を表示する処理の具体例について説明する。
次に、表示部に被写体の動きの説明または予測情報を表示する処理の具体例について説明する。
図8は、本開示の撮像装置10の画像処理部が実行する処理の一例であり、表示部14に、被写体の動きに関する説明情報を表示する処理例を説明する図である。
図8に示す例は、撮像素子から入力するLV画像内に「動被写体」として「鳥」が含まれる場合の例である。
図8には、ユーザが撮像装置(カメラ)10を鳥の方に向けて、LV画像を撮像装置10の表示部14に表示している状態を示している。
図8には、ユーザが撮像装置(カメラ)10を鳥の方に向けて、LV画像を撮像装置10の表示部14に表示している状態を示している。
図8には、(1)~(3)に時間t1~t3の時系列に従った表示データを示している。
まず、(1)時間t1の表示部14の表示画像は、LV画像のみの表示である。
次の(2)時間t2の表示部14の表示画像は、LV画像に併せて、動被写体(=鳥)の状態についての説明情報、すなわち、
説明情報=「飛び立ち準備」、
この説明情報を表示した表示データを示している。
まず、(1)時間t1の表示部14の表示画像は、LV画像のみの表示である。
次の(2)時間t2の表示部14の表示画像は、LV画像に併せて、動被写体(=鳥)の状態についての説明情報、すなわち、
説明情報=「飛び立ち準備」、
この説明情報を表示した表示データを示している。
次の(3)時間t3の表示部14の表示画像も、LV画像に併せて、動被写体(=鳥)の状態についての説明情報、すなわち、
説明情報=「飛び立ち開始」、
この説明情報を表示した表示データを示している。
説明情報=「飛び立ち開始」、
この説明情報を表示した表示データを示している。
このように、本開示の撮像装置10の画像処理部は、表示部14に被写体の動きに関する説明情報を表示する。
ユーザである撮影者は、例えば、(2)時間t2の表示部14の表示画像に追加表示された説明情報=「飛び立ち準備」を確認して、このタイミングでシャッタを操作すれば、その直後の画像、例えば、(3)に示す飛び立つ瞬間の画像を撮影することが可能となる。
ユーザである撮影者は、例えば、(2)時間t2の表示部14の表示画像に追加表示された説明情報=「飛び立ち準備」を確認して、このタイミングでシャッタを操作すれば、その直後の画像、例えば、(3)に示す飛び立つ瞬間の画像を撮影することが可能となる。
このような説明がないと、ユーザは例えば図8(3)に示す時間t3のタイミングであわててシャッタ操作を行う可能性がある。この場合、鳥が飛び立って画面から外に出た画像が撮影されるといった事態になりかねない。
このように、本開示の撮像装置10の画像処理部は、LV画像内に含まれる動被写体の動きについての解説情報をLV画像に併せて出力する。
なお、この処理を行うためには、LV画像に含まれる動被写体の種類に応じた解析データが必要となる。
なお、この処理を行うためには、LV画像に含まれる動被写体の種類に応じた解析データが必要となる。
例えばLV画像に含まれる動被写体が鳥である場合、鳥の姿勢や動きが何を意味するかを取得可能な辞書のような解析データが必要となる。本開示の撮像装置は、この解析データを、事前にデータベースに格納しておき、データベースの記録データを参照して、LV画像に含まれる動被写体の種類に応じた情報を提示する。
データベースには、例えば人、鳥、犬、猫・・・等、様々な種類の動被写体に関する解析データが格納されている。すなわち、各動被写体の種類や、その動被写体の実行する処理に応じた姿勢、動きと、その状態の解説情報を対応付けたデータが格納されている。
データベースには、例えば人、鳥、犬、猫・・・等、様々な種類の動被写体に関する解析データが格納されている。すなわち、各動被写体の種類や、その動被写体の実行する処理に応じた姿勢、動きと、その状態の解説情報を対応付けたデータが格納されている。
図9は、図8と同様、表示部14にLV画像に併せて、情報を追加表示する具体例を説明する図である。図9に示す例は、表示部14に被写体の動きの予測情報を表示する処理の具体例である。
図9には、以下の各表示例を示している。
(a)LV画像のみの表示例、
(b1)動被写体(人)の動き予測情報追加表示例1、
(b2)動被写体(人)の動き予測情報追加表示例2、
(b3)動被写体(人)の動き予測情報追加表示例3、
(a)LV画像のみの表示例、
(b1)動被写体(人)の動き予測情報追加表示例1、
(b2)動被写体(人)の動き予測情報追加表示例2、
(b3)動被写体(人)の動き予測情報追加表示例3、
(b1)~(b3)は、本開示の撮像装置10の画像処理部内において、動被写体(人)の動き予測情報を追加して表示した例である。
(b1)動被写体(人)の動き予測情報追加表示例1は、動被写体(人)の動き予測情報として、
「7秒後にフレームアウト(時速3Km)」
この予測情報を追加表示した例である。
本開示の撮像装置10の画像処理部は、継続して入力するLV画像の解析により、動被写体(人)の歩行速度を解析し、動被写体(人)がフレームアウトするまでの時間を算出する。この算出結果に基づいて、表示部14に、
「7秒後にフレームアウト(時速3Km)」
この予測情報を追加表示する。
「7秒後にフレームアウト(時速3Km)」
この予測情報を追加表示した例である。
本開示の撮像装置10の画像処理部は、継続して入力するLV画像の解析により、動被写体(人)の歩行速度を解析し、動被写体(人)がフレームアウトするまでの時間を算出する。この算出結果に基づいて、表示部14に、
「7秒後にフレームアウト(時速3Km)」
この予測情報を追加表示する。
ユーザ(撮影者)は、この情報に基づいて、動被写体(人)がフレームアウトする前にシャッタを操作して撮影を行う、あるいはカメラの方向を変更する等の様々な処理を行うことが可能となる。
(b2)動被写体(人)の動き予測情報追加表示例2は、動被写体(人)の動き予測情報として、動被写体(人)の動き方向を示す矢印アイコンを追加表示した例である。
本開示の撮像装置10の画像処理部は、継続して入力するLV画像の解析により、動被写体(人)の移動方向を解析し、この解析結果に基づいて、表示部14に動被写体(人)の動き方向を示す矢印を追加表示する。
本開示の撮像装置10の画像処理部は、継続して入力するLV画像の解析により、動被写体(人)の移動方向を解析し、この解析結果に基づいて、表示部14に動被写体(人)の動き方向を示す矢印を追加表示する。
ユーザ(撮影者)は、この情報に基づいて、動被写体(人)の移動方向を認識し、カメラの方向を変更する等の処理を行うことが可能となる。
(b3)動被写体(人)の動き予測情報追加表示例3は、動被写体(人)の動き予予測情報として、
「所定時間後の動被写体(人)の画像」
をLV画像に重畳表示した例である。
本開示の撮像装置10の画像処理部は、継続して入力するLV画像の解析により、動被写体(人)の歩行速度を解析し、所定時間後の動被写体(人)の位置を算出する。この算出結果に基づいて、表示部14に、
「所定時間後の動被写体(人)の画像」
この予測情報を追加表示する。
「所定時間後の動被写体(人)の画像」
をLV画像に重畳表示した例である。
本開示の撮像装置10の画像処理部は、継続して入力するLV画像の解析により、動被写体(人)の歩行速度を解析し、所定時間後の動被写体(人)の位置を算出する。この算出結果に基づいて、表示部14に、
「所定時間後の動被写体(人)の画像」
この予測情報を追加表示する。
ユーザ(撮影者)は、この情報に基づいて、例えば最適な動被写体(人)の撮影タイミングを事前に知ることが可能となり、ユーザの思い描く画像を撮影することが可能となる。
さらに、図10は、図8や図9と同様、表示部14にLV画像に併せて、情報を追加表示する具体例を説明する図である。
図10に示す例は、人の顔を撮影する際に、まばたきにより目を閉じた状態の画像が撮影されてしまうことを帽子するための予測情報の表示例である。
図10に示す例は、人の顔を撮影する際に、まばたきにより目を閉じた状態の画像が撮影されてしまうことを帽子するための予測情報の表示例である。
図には、撮像装置10の表示部14に表示されている人の顔画像の一部である目の領域画像を抽出して示している。
図10(1)は、撮像装置10の撮像素子から画像処理部に入力される入力画像の一部を示している。人の顔画像の一部である目の領域画像を抽出して示している。入力画像例として(1a)~(1d)の4つの例を示している。
本開示の撮像装置10の画像処理部は、これらの画像が入力されると、入力画像に含まれる目の状態を解析する。具体的には、目の状態が、
(X)直後にまばたきを発生させることがないと判定される状態、
(Y)まばたき実行中、または直後にまばたきをすると判定される状態、
このいずれであるかを判定する。
(X)直後にまばたきを発生させることがないと判定される状態、
(Y)まばたき実行中、または直後にまばたきをすると判定される状態、
このいずれであるかを判定する。
入力画像に含まれる目の状態が、
(X)直後にまばたきを発生させることがないと判定される状態、
この状態であると判定された例が、図10(1a),(2a)に示す例である。
この場合、画像処理部は、表示部14に(2a)に示すLV画像のみを表示する。
(X)直後にまばたきを発生させることがないと判定される状態、
この状態であると判定された例が、図10(1a),(2a)に示す例である。
この場合、画像処理部は、表示部14に(2a)に示すLV画像のみを表示する。
一方、入力画像に含まれる目の状態が、
(Y)まばたき実行中、または直後にまばたきをすると判定される状態、
この状態であると判定された例が、図10(1b~12),(2b~2d)に示す例である。
この場合、画像処理部は、表示部14に(2b~2d)に示す予測情報、すなわち、
「まばたき注意」
この予測情報を表示する。
(Y)まばたき実行中、または直後にまばたきをすると判定される状態、
この状態であると判定された例が、図10(1b~12),(2b~2d)に示す例である。
この場合、画像処理部は、表示部14に(2b~2d)に示す予測情報、すなわち、
「まばたき注意」
この予測情報を表示する。
ユーザ(撮影者)は、この情報を確認し、このタイミングでのシャッタ操作による撮影を中止することができる。
なお、この処理も、先に説明したデータベース、すなわち、事前に解析済みの様々な動被写体の動き予測データを格納したデータベースの記録情報を参照して実行される。
[3.本開示の画像処理装置の画像処理部が実行するデータベースを参照した解析処理の具体例について]
次に、本開示の画像処理装置の画像処理部が実行するデータベースを参照した解析処理の具体例について説明する。
次に、本開示の画像処理装置の画像処理部が実行するデータベースを参照した解析処理の具体例について説明する。
先に説明したように、本開示の撮像装置10の画像処理部は、LV画像内に含まれる動被写体の動きについての予測情報や解説情報をLV画像に併せて出力する。
この処理を行うために、画像処理部は、例えば、LV画像に含まれる動被写体の種類に応じた解析データをデータベースから取得して参照する。
この処理を行うために、画像処理部は、例えば、LV画像に含まれる動被写体の種類に応じた解析データをデータベースから取得して参照する。
前述したように、例えばLV画像に含まれる動被写体が鳥である場合、鳥の姿勢や動きが何を意味するかを取得可能な辞書のような解析データが必要となる。本開示の撮像装置は、この解析データを、事前にデータベースに格納しておき、データベースの記録データを参照して、LV画像に含まれる動被写体の種類に応じた情報を提示する。
データベースには、例えば人、鳥、犬、猫・・・等、様々な種類の動被写体に関する解析データが格納されている。すなわち、各動被写体の種類や、その動被写体の実行する処理に応じた姿勢、動きと、その状態の解説情報を対応付けたデータが格納されている。
本開示の撮像装置10の画像処理部がデータベースに格納されたデータに基づいて実行する処理の具体例について、図11、図12を参照して説明する。
図11、図12は、本開示の撮像装置10の画像処理部が実行するシーン別の処理例を示す図である。
なお、シーン解析は、画像処理部が入力LV画像とデータベースに格納されたシーン特定用のデータを比較して実行する。
なお、シーン解析は、画像処理部が入力LV画像とデータベースに格納されたシーン特定用のデータを比較して実行する。
データベースには、例えば図11、図12に示す7つのシーンカテゴリに対応するシーン特定用の特徴データが格納されている。図11、図12に示す1~7の各シーンである。すなわち、
1.人が複数の可動道具を使うスポーツ(テニス、野球,バトミントン、ゴルフ)
2.人が1つの可動道具を使うスポーツ(サッカー、剣道)
3.人が可動道具を使わないスポーツ(陸上競技、水泳、ダンス、体操、柔道)
4.ポートレート撮影
5.動物撮影
6.移動物体撮影
7.風景撮影
1.人が複数の可動道具を使うスポーツ(テニス、野球,バトミントン、ゴルフ)
2.人が1つの可動道具を使うスポーツ(サッカー、剣道)
3.人が可動道具を使わないスポーツ(陸上競技、水泳、ダンス、体操、柔道)
4.ポートレート撮影
5.動物撮影
6.移動物体撮影
7.風景撮影
本開示の撮像装置10の画像処理部は、まず、撮像素子から入力するLV画像とデータベースに格納されたシーン特定用のデータを対比して、入力するLV画像が上記1~7のいずれのシーンであるかを判定する。
シーン判別が終了すると、次に、そのシーン内の動き解析対象となる動被写体を特定する。
動被写体の特定は、連続入力画像から動被写体を検出る処理として実行する。
図11、図12の項目「(b)動き解析対象」には、各シーンにおいて検出される動被写体、すなわち動き解析処理の対象となる動被写体の例を示している。
動被写体の特定は、連続入力画像から動被写体を検出る処理として実行する。
図11、図12の項目「(b)動き解析対象」には、各シーンにおいて検出される動被写体、すなわち動き解析処理の対象となる動被写体の例を示している。
「シーン1.人が複数の可動道具を使うスポーツ(テニス、野球,バトミントン、ゴルフ)」の場合、人体と道具1(ラケット)と道具2(球)が動被写体、すなわち動き解析処理の対象となる動被写体である。
「シーン2.人が1つの可動道具を使うスポーツ(サッカー、剣道)」の場合、人体と道具1(球)が動被写体、すなわち動き解析処理の対象となる動被写体である。
「シーン2.人が1つの可動道具を使うスポーツ(サッカー、剣道)」の場合、人体と道具1(球)が動被写体、すなわち動き解析処理の対象となる動被写体である。
「シーン3.人が可動道具を使わないスポーツ(陸上競技、水泳、ダンス、体操、柔道)」の場合、人体が動被写体、すなわち動き解析処理の対象となる動被写体である。
「シーン4.ポートレート撮影」の場合、人体と顔が動被写体、すなわち動き解析処理の対象となる動被写体である。
「シーン5.動物撮影」の場合、動物が動被写体、すなわち動き解析処理の対象となる動被写体である。
「シーン4.ポートレート撮影」の場合、人体と顔が動被写体、すなわち動き解析処理の対象となる動被写体である。
「シーン5.動物撮影」の場合、動物が動被写体、すなわち動き解析処理の対象となる動被写体である。
「シーン6.移動物体撮影」の場合、移動物体が動被写体、すなわち動き解析処理の対象となる動被写体である。
「シーン7.風景撮影」の場合、対象とする物体の動きや出現の兆候が動き解析処理の対象である。
「シーン7.風景撮影」の場合、対象とする物体の動きや出現の兆候が動き解析処理の対象である。
画像処理部は、例えば、各シーン対応の「(b)動き解析対象」を特定した後、これらの動き解析対象について、特定の動き予測態様と予測タイミングを決定する。すなわち、例えば図11、図12(c)に示す「動き予測態様と予測タイミング」の特定処理を実行する。
「シーン1.人が複数の可動道具を使うスポーツ(テニス、野球,バトミントン、ゴルフ)」の場合、道具1(ラケット)と道具2(球)の動き予測を行い、インパクトのタイミングを動き予測タイミングとする。
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
ラケットとボールの当たる動きや瞬間、
バットとボールの当たる動きや瞬間、
ラケットとシャトルの当たる動きや瞬間、
ゴールにボールが入ったと判定される瞬間、
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
ラケットとボールの当たる動きや瞬間、
バットとボールの当たる動きや瞬間、
ラケットとシャトルの当たる動きや瞬間、
ゴールにボールが入ったと判定される瞬間、
「シーン2.人が1つの可動道具を使うスポーツ(サッカー、剣道)」の場合、人と道具1(球)の動き予測を行い、インパクトのタイミングを動き予測タイミングとする。
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
足とボールの当たる動きや瞬間、
手とボールの当たる動きや瞬間、
ボールが手を離れる動きや瞬間、
竹刀が面にあたる動きや瞬間、
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
足とボールの当たる動きや瞬間、
手とボールの当たる動きや瞬間、
ボールが手を離れる動きや瞬間、
竹刀が面にあたる動きや瞬間、
「シーン3.人が可動道具を使わないスポーツ(陸上競技、水泳、ダンス、体操、柔道)」の場合、人体の動き予測を行い、もっともそのスポーツで人が見たいと思うようなタイミングを動き予測タイミングとする。
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
ゴールした瞬間、
追い越した瞬間、
走り幅跳びのジャンプの頂点、
ポーズを決めた瞬間、
ボクシングのパンチの当たった瞬間、
タックルが当たる動きや瞬間、
タックルで倒される動きや瞬間、
投げ技で体が宙に浮いた瞬間、
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
ゴールした瞬間、
追い越した瞬間、
走り幅跳びのジャンプの頂点、
ポーズを決めた瞬間、
ボクシングのパンチの当たった瞬間、
タックルが当たる動きや瞬間、
タックルで倒される動きや瞬間、
投げ技で体が宙に浮いた瞬間、
「シーン4.ポートレート撮影」の場合、人体と顔の動き予測を行い、ポートレートとして、最適な姿勢&表情のタイミングを動き予測タイミングとする。
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
笑った瞬間、
複数人が目をつむっていない瞬間、
人が振り向いた瞬間、
スピーチ中に口の形がよく、目をつむっていない瞬間、
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
笑った瞬間、
複数人が目をつむっていない瞬間、
人が振り向いた瞬間、
スピーチ中に口の形がよく、目をつむっていない瞬間、
「シーン5.動物撮影」の場合、動物の動き予測を行い、動物の動き出しや際立った動きのタイミングを動き予測タイミングとする。
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
鳥の飛び立つ動きや瞬間、
鳥の羽が伸び切っている瞬間、
動物の走りだす動きや瞬間、
動物がこちらを見る動きや瞬間、
動物の捕食(口を大きく開けた)瞬間、
水中動物の水面から出てくる瞬間、
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
鳥の飛び立つ動きや瞬間、
鳥の羽が伸び切っている瞬間、
動物の走りだす動きや瞬間、
動物がこちらを見る動きや瞬間、
動物の捕食(口を大きく開けた)瞬間、
水中動物の水面から出てくる瞬間、
「シーン6.移動物体撮影」の場合、移動物体の動き予測を行い、移動物体が最適な構図にいるタイミングを動き予測タイミングとする。
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
電車走行中の正面写真、
車のレースでのゴールシーン、
飛行機の離着陸シーン、
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
電車走行中の正面写真、
車のレースでのゴールシーン、
飛行機の離着陸シーン、
「シーン7.風景撮影」の場合、対象が出現したタイミング予測を行い、対象が最適な位置にいるタイミングを動き予測タイミングとする。
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
雷のおちた瞬間、
流れ星がきれいに映る瞬間、
花火が大きく開いた瞬間、
花火の軌跡がきれいに映る瞬間、
具体的には、例えば「具体例」に記載した以下の事象のタイミング予測を行う。
雷のおちた瞬間、
流れ星がきれいに映る瞬間、
花火が大きく開いた瞬間、
花火の軌跡がきれいに映る瞬間、
[4.データベース格納データの生成処理として実行する学習処理と学習結果の利用処理について]
次に、データベース格納データの生成処理として実行する学習処理と学習結果の利用処理について説明する。
データベースには、予め実行した機械学習処理によって取得したデータを格納する。本開示の画像処理装置は、様々なシーンに対応する様々な予測データを出力するための学習処理を実行し、この学習結果をデータベースに格納する。
図13以下を参照して、学習処理の具体例について説明する。
次に、データベース格納データの生成処理として実行する学習処理と学習結果の利用処理について説明する。
データベースには、予め実行した機械学習処理によって取得したデータを格納する。本開示の画像処理装置は、様々なシーンに対応する様々な予測データを出力するための学習処理を実行し、この学習結果をデータベースに格納する。
図13以下を参照して、学習処理の具体例について説明する。
図13には、本開示の画像処理装置に構成される学習器/判別器51と、学習結果を格納するデータベース52を示している。
学習器/判別器51の学習器は、様々なシーン対応の時系列画像データを入力データ40として、未来の動きや変化の予測データを推定する学習処理を実行する。学習結果はデータベース52に格納される。
なお、学習アルゴリズムとしては、様々なアルゴリズムが利用可能である。例えばガウス過程やベイジアンニューラルネット、サポートベクタマシーン(SVM:Support Vector Machine)やロジスティック回帰などが利用できる。
学習器/判別器51の学習器は、様々なシーン対応の時系列画像データを入力データ40として、未来の動きや変化の予測データを推定する学習処理を実行する。学習結果はデータベース52に格納される。
なお、学習アルゴリズムとしては、様々なアルゴリズムが利用可能である。例えばガウス過程やベイジアンニューラルネット、サポートベクタマシーン(SVM:Support Vector Machine)やロジスティック回帰などが利用できる。
また、学習器/判別器51の判別器は、データベース52に格納された学習結果を利用して未来予測データからなる出力60を生成して出力する。
上述した各実施例において生成される未来予測画像は、データベース52に格納された学習データを利用して実行される。
上述した各実施例において生成される未来予測画像は、データベース52に格納された学習データを利用して実行される。
学習器/判別器51の学習器は、様々なシーン単位で、各シーンに対応する出力(予測画像等)を取得するための学習処理を実行する。
例えば、特定シーンとして鳥の飛び立つシーンを撮影した既存の時系列画像を多数入力して、鳥が飛び立つ瞬間の画像やその直前の画像がどの画像となるかを推定する学習処理を実行する。
例えば、特定シーンとして鳥の飛び立つシーンを撮影した既存の時系列画像を多数入力して、鳥が飛び立つ瞬間の画像やその直前の画像がどの画像となるかを推定する学習処理を実行する。
すなわち、人がボールを蹴る瞬間を特定する場合は、様々な多数の人がボールを蹴る時系列画像を入力して、人がボールを蹴る瞬間の画像やその直前の画像がどの画像となるかを推定する学習処理を実行する。
これらのシーン対応の学習結果データはデータベースに格納される。
これらのシーン対応の学習結果データはデータベースに格納される。
学習器/判別器51の判別器は、未来予測を行う新たな処理対象画像(時系列画像)を入力して、まずシーン判別を行い、データベース52に格納されたそのシーン対応の学習結果を利用して未来予測データからなる出力60を生成して出力する。
例えば、新たに入力された処理対象画像(時系列画像)が、先に図8を参照して説明した鳥の画像である場合、データベース52に格納された鳥が飛び立つ瞬間のシーンを解析した学習データを参照して、鳥が飛び立つ瞬間の直前の画像フレームを推定し、先に図8を参照して説明したような説明情報の出力処理等を実行する。
例えば、新たに入力された処理対象画像(時系列画像)が、先に図8を参照して説明した鳥の画像である場合、データベース52に格納された鳥が飛び立つ瞬間のシーンを解析した学習データを参照して、鳥が飛び立つ瞬間の直前の画像フレームを推定し、先に図8を参照して説明したような説明情報の出力処理等を実行する。
このように、学習器/判別器51の学習処理や判別処理(未来予測処理)は、シーンごとに異なる処理として実行される。
図13に示す学習器/判別器51に対する入力データと出力データの具体例について、図14、図15を参照して説明する。
図13に示す学習器/判別器51に対する入力データと出力データの具体例について、図14、図15を参照して説明する。
図14、図15は、先に説明した図11、図12と同様、シーン別の学習器/判別器51に対する入力データと出力データの具体例を示す図である。
シーンは、以下の1~7の各シーンである。
1.人が複数の可動道具を使うスポーツ(テニス、野球, バトミントン、ゴルフ)
2.人が1つの可動道具を使うスポーツ(サッカー、剣道)
3.人が可動道具を使わないスポーツ(陸上競技、水泳、ダンス、体操、柔道)
4.ポートレート撮影
5.動物撮影
6.移動物体撮影
7.風景撮影
シーンは、以下の1~7の各シーンである。
1.人が複数の可動道具を使うスポーツ(テニス、野球, バトミントン、ゴルフ)
2.人が1つの可動道具を使うスポーツ(サッカー、剣道)
3.人が可動道具を使わないスポーツ(陸上競技、水泳、ダンス、体操、柔道)
4.ポートレート撮影
5.動物撮影
6.移動物体撮影
7.風景撮影
図14、図15には、これら各シーンに対応する
(b)動き解析対象と、
学習器/判別器51に対する、
(p)入力データ
(q)出力データ
を示している。
(b)動き解析対象と、
学習器/判別器51に対する、
(p)入力データ
(q)出力データ
を示している。
「(b)動き解析対象」は、各シーンにおいて検出される動被写体、すなわち動き解析処理の対象となる動被写体である。
「(p)入力データ」は、学習器/判別器51に対する入力データである。具体的には時系列画像データである。
「(q)出力データ」は、学習器/判別器51からの出力データである。学習処理実行時には、入力データに基づいて推定される出力データであり、入力データと出力データとの組み合わせデータをデータベース52に格納する。
判別処理(予測処理)実行時には、入力データに基づいてデータベース52を検索して、入力データにより近い学習データを選択して、出力データとしての予測データ、例えば予測画像を生成して出力する。
「(p)入力データ」は、学習器/判別器51に対する入力データである。具体的には時系列画像データである。
「(q)出力データ」は、学習器/判別器51からの出力データである。学習処理実行時には、入力データに基づいて推定される出力データであり、入力データと出力データとの組み合わせデータをデータベース52に格納する。
判別処理(予測処理)実行時には、入力データに基づいてデータベース52を検索して、入力データにより近い学習データを選択して、出力データとしての予測データ、例えば予測画像を生成して出力する。
学習器/判別器51は、各シーン対応の「(b)動き解析対象」を特定した後、これらの動き解析対象について、学習器による学習処理、または判別器による判別処理(予測処理)を実行する。
以下、学習器/判別器51が処理対象とする各シーン対応の「(b)動き解析対象」と、学習器/判別器51に対する「(p)入力データ」と、学習器/判別器51が生成する「(q)出力データ」の具体例について説明する。
以下、学習器/判別器51が処理対象とする各シーン対応の「(b)動き解析対象」と、学習器/判別器51に対する「(p)入力データ」と、学習器/判別器51が生成する「(q)出力データ」の具体例について説明する。
「シーン1.人が複数の可動道具を使うスポーツ(テニス、野球,バトミントン、ゴルフ)」の場合、
学習器/判別器51が処理対象とする「(b)動き解析対象」は、人体と道具1(ラケット)と道具2(球)である。
学習器/判別器51に対する「(p)入力データ」は、道具1(ラケット)と道具2(球)の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、道具1(ラケット)と道具2(球)の動きの未来画像やインパクトのタイミング等である。
学習器/判別器51が処理対象とする「(b)動き解析対象」は、人体と道具1(ラケット)と道具2(球)である。
学習器/判別器51に対する「(p)入力データ」は、道具1(ラケット)と道具2(球)の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、道具1(ラケット)と道具2(球)の動きの未来画像やインパクトのタイミング等である。
学習器/判別器51は、例えば「具体例」に記載した以下の事象の動きやタイミング、すなわち、
ラケットとボールの当たる動きや瞬間、
バットとボールの当たる動きや瞬間、
ラケットとシャトルの当たる動きや瞬間、
ゴールにボールが入ったと判定される瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
ラケットとボールの当たる動きや瞬間、
バットとボールの当たる動きや瞬間、
ラケットとシャトルの当たる動きや瞬間、
ゴールにボールが入ったと判定される瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
「シーン2.人が1つの可動道具を使うスポーツ(サッカー、剣道)」の場合、
学習器/判別器51が処理対象とする「(b)動き解析対象」は、人体と道具1(球)である。
学習器/判別器51に対する「(p)入力データ」は、人と道具1(球)の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、人と道具1(球)の動きの未来画像やインパクトのタイミング等である。
学習器/判別器51が処理対象とする「(b)動き解析対象」は、人体と道具1(球)である。
学習器/判別器51に対する「(p)入力データ」は、人と道具1(球)の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、人と道具1(球)の動きの未来画像やインパクトのタイミング等である。
学習器/判別器51は、例えば「具体例」に記載した以下の事象の動きやタイミング、すなわち、
足とボールの当たる動きや瞬間、
手とボールの当たる動きや瞬間、
ボールが手を離れる動きや瞬間、
竹刀が面にあたる動きや瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
足とボールの当たる動きや瞬間、
手とボールの当たる動きや瞬間、
ボールが手を離れる動きや瞬間、
竹刀が面にあたる動きや瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
「シーン3.人が可動道具を使わないスポーツ(陸上競技、水泳、ダンス、体操、柔道)」の場合、
学習器/判別器51が処理対象とする「(b)動き解析対象」は、人体である。
学習器/判別器51に対する「(p)入力データ」は、人体の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、人体の動きの未来画像、もっともそのスポーツで人が見たいと思うようなタイミング等である。
学習器/判別器51が処理対象とする「(b)動き解析対象」は、人体である。
学習器/判別器51に対する「(p)入力データ」は、人体の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、人体の動きの未来画像、もっともそのスポーツで人が見たいと思うようなタイミング等である。
学習器/判別器51は、例えば「具体例」に記載した以下の事象の動きやタイミング、すなわち、
ゴールした瞬間、
追い越した瞬間、
走り幅跳びのジャンプの頂点、
ポーズを決めた瞬間、
ボクシングのパンチの当たった瞬間、
タックルが当たる動きや瞬間、
タックルで倒される動きや瞬間、
投げ技で体が宙に浮いた瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
ゴールした瞬間、
追い越した瞬間、
走り幅跳びのジャンプの頂点、
ポーズを決めた瞬間、
ボクシングのパンチの当たった瞬間、
タックルが当たる動きや瞬間、
タックルで倒される動きや瞬間、
投げ技で体が宙に浮いた瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
「シーン4.ポートレート撮影」の場合、
学習器/判別器51が処理対象とする「(b)動き解析対象」は、人体と顔である。
学習器/判別器51に対する「(p)入力データ」は、人体と顔の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、人体と顔の動きの未来画像、ポートレートとして最適な姿勢&表情のタイミング等である。
学習器/判別器51が処理対象とする「(b)動き解析対象」は、人体と顔である。
学習器/判別器51に対する「(p)入力データ」は、人体と顔の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、人体と顔の動きの未来画像、ポートレートとして最適な姿勢&表情のタイミング等である。
学習器/判別器51は、例えば「具体例」に記載した以下の事象の動きやタイミング、すなわち、
笑った瞬間、
複数人が目をつむっていない瞬間、
人が振り向いた瞬間、
スピーチ中に口の形がよく、目をつむっていない瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
笑った瞬間、
複数人が目をつむっていない瞬間、
人が振り向いた瞬間、
スピーチ中に口の形がよく、目をつむっていない瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
「シーン5.動物撮影」の場合、
学習器/判別器51が処理対象とする「(b)動き解析対象」は、動物である。
学習器/判別器51に対する「(p)入力データ」は、動物の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、動物の動きの未来画像、
動物の動き出しや際立った動きのタイミング等である。
学習器/判別器51が処理対象とする「(b)動き解析対象」は、動物である。
学習器/判別器51に対する「(p)入力データ」は、動物の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、動物の動きの未来画像、
動物の動き出しや際立った動きのタイミング等である。
学習器/判別器51は、例えば「具体例」に記載した以下の事象の動きやタイミング、すなわち、
鳥の飛び立つ動きや瞬間、
鳥の羽が伸び切っている瞬間、
動物の走りだす動きや瞬間、
動物がこちらを見る動きや瞬間、
動物の捕食(口を大きく開けた)瞬間、
水中動物の水面から出てくる瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
鳥の飛び立つ動きや瞬間、
鳥の羽が伸び切っている瞬間、
動物の走りだす動きや瞬間、
動物がこちらを見る動きや瞬間、
動物の捕食(口を大きく開けた)瞬間、
水中動物の水面から出てくる瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
「シーン6.移動物体撮影」の場合、
学習器/判別器51が処理対象とする「(b)動き解析対象」は、移動物体である。
学習器/判別器51に対する「(p)入力データ」は、移動物体の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、移動物体の動きの未来画像、移動物体が最適な構図にいるタイミング等である。
学習器/判別器51が処理対象とする「(b)動き解析対象」は、移動物体である。
学習器/判別器51に対する「(p)入力データ」は、移動物体の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、移動物体の動きの未来画像、移動物体が最適な構図にいるタイミング等である。
学習器/判別器51は、例えば「具体例」に記載した以下の事象の動きやタイミング、すなわち、
電車走行中の正面写真、
車のレースでのゴールシーン、
飛行機の離着陸シーン、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
電車走行中の正面写真、
車のレースでのゴールシーン、
飛行機の離着陸シーン、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
「シーン7.風景撮影」の場合、
学習器/判別器51が処理対象とする「(b)動き解析対象」は、予測対象とする物体の動きや出現の兆候である。
学習器/判別器51に対する「(p)入力データ」は、予測対象とする物体の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、予測対象が出現したタイミング、対象が最適な位置にいるタイミング等である。
学習器/判別器51が処理対象とする「(b)動き解析対象」は、予測対象とする物体の動きや出現の兆候である。
学習器/判別器51に対する「(p)入力データ」は、予測対象とする物体の動きの時系列画像である。
学習器/判別器51が生成する「(q)出力データ」は、予測対象が出現したタイミング、対象が最適な位置にいるタイミング等である。
学習器/判別器51は、例えば「具体例」に記載した以下の事象の動きやタイミング、すなわち、
雷のおちた瞬間、
流れ星がきれいに映る瞬間、
花火が大きく開いた瞬間、
花火の軌跡がきれいに映る瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
雷のおちた瞬間、
流れ星がきれいに映る瞬間、
花火が大きく開いた瞬間、
花火の軌跡がきれいに映る瞬間、
これらの事象の動きやタイミングを推定する学習処理を学習器が実行して学習結果をデータベース52に格納する。さらに、判別器がデータベース52に格納した学習結果を利用して予測データを生成する。
上述したように、学習器/判別器51の学習器は、様々なシーン単位で、各シーンに対応する出力(予測画像等)を取得するための学習処理を実行する。
また、学習器/判別器51の判別器は、未来予測を行う新たな処理対象画像(時系列画像)を入力して、まずシーン判別を行い、データベース52に格納されたそのシーン対応の学習結果を利用して未来予測データからなる出力60を生成して出力する。
また、学習器/判別器51の判別器は、未来予測を行う新たな処理対象画像(時系列画像)を入力して、まずシーン判別を行い、データベース52に格納されたそのシーン対応の学習結果を利用して未来予測データからなる出力60を生成して出力する。
[5.本開示の画像処理装置の構成例について]
次に、本開示の画像処理装置の構成例について説明する。
図16は、本開示の画像処理装置(カメラ)100の一構成例を示すブロック図である。画像処理装置100は、図1に示す撮像装置10に相当する。
次に、本開示の画像処理装置の構成例について説明する。
図16は、本開示の画像処理装置(カメラ)100の一構成例を示すブロック図である。画像処理装置100は、図1に示す撮像装置10に相当する。
図16に示すように、画像処理装置100は、レンズ101、イメージセンサ102、画像処理部103、データベース104、メモリ105、通信部106、駆動部107、制御部108、入力部109、表示部110、記憶部111を有する。
撮影画像は、レンズ101を介してイメージセンサ102に撮り込まれる。
イメージセンサ102は、例えばCCD(Charge Coupled Devices)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどである。
イメージセンサ102は、例えばCCD(Charge Coupled Devices)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどである。
画像処理部103は、イメージセンサ102から出力される画像データ、例えばLV画像を入力して、上述した処理、すなわちLV画像に含まれる動被写体を識別し、さらに、動被写体の状態解析や動き予測を行い、未来予測画像の生成、動被写体の状態情報や予測情報の生成等を行う。
画像処理部103は、先に図13を参照して説明した学習器/判別器51の機能も有しており、学習処理や判別処理(予測処理)を実行する。
なお、画像処理部103は、通常の画像撮影に伴う信号処理も実行する。例えば、デモザイク処理や、ホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行する。
画像処理部103は、先に図13を参照して説明した学習器/判別器51の機能も有しており、学習処理や判別処理(予測処理)を実行する。
なお、画像処理部103は、通常の画像撮影に伴う信号処理も実行する。例えば、デモザイク処理や、ホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行する。
データベース104は、画像処理部103において実行する動被写体の識別処理や、動被写体の状態解析や動き予測、未来予測画像の生成、さらに動被写体の状態情報や予測情報の生成処理の際に参照するデータが記録されたデータベースである。
すなわち、先に説明したように、データベース104には、例えば人、鳥、犬、猫・・・等、様々な種類の動被写体に関する解析データが格納されている。すなわち、各動被写体の種類や、その動被写体の実行する処理に応じた姿勢、動きと、その状態の解説情報を対応付けたデータが格納されている。
メモリ105は、撮影画像の格納、画像処理装置100において実行する処理プログラム、各種パラメータ等の格納領域として利用されるRAM,ROM等によって構成されるメモリである。
通信部106は、外部装置、例えばサーバや、他の情報端末との通信処理に利用する通信部である。
通信部106は、外部装置、例えばサーバや、他の情報端末との通信処理に利用する通信部である。
駆動部107は、画像撮影のためのレンズ駆動、絞り制御等、画像撮影に必要となる様々な駆動処理を行なう。この駆動処理は、例えば制御部108の制御の下で実行される。
制御部108は、画像処理装置(カメラ)100の実行する画像撮影、画像解析、動き予測としての判別処理、学習処理、通信処理等の様々な処理の制御を実行する。制御部108は、メモリ105に格納されたデータ処理プログラムに従って様々な処理を実行するデータ処理部として機能する。
制御部108は、画像処理装置(カメラ)100の実行する画像撮影、画像解析、動き予測としての判別処理、学習処理、通信処理等の様々な処理の制御を実行する。制御部108は、メモリ105に格納されたデータ処理プログラムに従って様々な処理を実行するデータ処理部として機能する。
入力部109は、シャッタの他、ユーザによる様々な設定情報を入力する入力部である。先に図5、図7を参照して説明した未来予測画像設定時間の調整やLV画像と未来予測画像のブレンド比率調整用データの入力処理に利用されるUIもこの入力部109の一部である。
表示部110は、図1に示す撮像装置10の表示部14に対応する。LV画像の表示、未来予測画像の表示、動被写体情報、予測情報の表示処理等が行われる。またUI画面の表示にも利用される。
記憶部111は、撮影画像の格納領域、さらに、様々な処理パラメータ、プログラム等の格納領域として利用される。
なお、カメラ機能を持つスマートフォンも、図16に示すハードウェア構成を有する。
なお、カメラ機能を持つスマートフォンも、図16に示すハードウェア構成を有する。
次に、図17を参照して、画像処理部103の詳細構成例について説明する。
図17に示すように、画像処理部103は、シーン判別部201、動被写体識別部202、動被写体状態&動き解析部203、表示情報生成部204、記録情報生成部205を有する。
図17に示すように、画像処理部103は、シーン判別部201、動被写体識別部202、動被写体状態&動き解析部203、表示情報生成部204、記録情報生成部205を有する。
シーン判別部201は、イメージセンサ102から入力する入力画像(LV画像)301に基づいて撮影シーンの判別を行う。データベース104に格納されたシーン判別用データを参照してシーン判別を実行する。
具体的には、例えば、先に図11、図12を参照して説明した以下の各シーン1~7のいずれであるかを判別する。
1.人が複数の可動道具を使うスポーツ(テニス、野球、バトミントン、ゴルフ)
2.人が1つの可動道具を使うスポーツ(サッカー、剣道)
3.人が可動道具を使わないスポーツ(陸上競技、水泳、ダンス、体操、柔道)
4.ポートレート撮影
5.動物撮影
6.移動物体撮影
7.風景撮影
具体的には、例えば、先に図11、図12を参照して説明した以下の各シーン1~7のいずれであるかを判別する。
1.人が複数の可動道具を使うスポーツ(テニス、野球、バトミントン、ゴルフ)
2.人が1つの可動道具を使うスポーツ(サッカー、剣道)
3.人が可動道具を使わないスポーツ(陸上競技、水泳、ダンス、体操、柔道)
4.ポートレート撮影
5.動物撮影
6.移動物体撮影
7.風景撮影
シーン判別部201のシーン判別結果は、入力画像(LV画像)301とともに動被写体識別部202に入力される。
動被写体識別部202は、入力画像(LV画像)301内から動被写体を検出し、動き予測対象となる動被写体を識別する。なお、この動被写体識別処理に際しては、シーン判別部201のシーン判別結果を利用可能である。データベース104には各シーンに対応する検出可能性の高い動被写体情報が格納されている。図11、図12に示す項目(b)に示すデータである。
動被写体識別部202は、入力画像(LV画像)301内から動被写体を検出し、動き予測対象となる動被写体を識別する。なお、この動被写体識別処理に際しては、シーン判別部201のシーン判別結果を利用可能である。データベース104には各シーンに対応する検出可能性の高い動被写体情報が格納されている。図11、図12に示す項目(b)に示すデータである。
動被写体識別部202は、このデータベース104格納データを参照して、入力画像(LV画像)301から動き予測を行う対象としての動被写体を決定する。
例えば、人、鳥、人の目等の動き予測を行う対象を特定する。
例えば、人、鳥、人の目等の動き予測を行う対象を特定する。
動被写体識別部202によって特定された動き予測処理対象の動被写体識別情報は、入力画像(LV画像)301とともに動被写体状態&動き解析部203に入力される。
動被写体状態&動き解析部203は、動被写体識別部202によって特定された動き予測処理対象の状態解析や動き予測を行う。この処理には、データベース104に格納された解析済みデータ(学習結果データ)が利用される。
動被写体状態&動き解析部203は、動被写体識別部202によって特定された動き予測処理対象の状態解析や動き予測を行う。この処理には、データベース104に格納された解析済みデータ(学習結果データ)が利用される。
先に説明したように、データベース104には、例えば人、鳥、犬、猫・・・等、様々な種類の動被写体に関する解析データが格納されている。すなわち、各動被写体の種類や、その動被写体の実行する処理に応じた姿勢、動きと、その状態の解説情報を対応付けたデータが格納されている。
動被写体状態&動き解析部203は、動被写体識別部202によって特定された動き予測処理対象について、データベース104に格納されたデータを参照して、動被写体の状態解析や動き予測を行う。
動被写体状態&動き解析部203は、動被写体識別部202によって特定された動き予測処理対象について、データベース104に格納されたデータを参照して、動被写体の状態解析や動き予測を行う。
動被写体状態&動き解析部203によって解析されたデータ、すなわち、動被写体識別部202によって解析対象として特定された動被写体の状態解析情報や動き予測情報は、表示情報生成部204に入力される。
表示情報生成部204は、動被写体状態&動き解析部203から入力する動被写体の状態解析情報や動き予測情報に基づいて、表示部110に表示するための未来予測画像や、動被写体の状態を説明する情報や、動被写体の未来の動きを説明する情報等を生成する。
具体的には、例えば、
(1)図2、図3、図6を参照して説明した未来予測画像、
(2)図8~図10を参照して説明した動被写体の状態を説明する情報や、動被写体の未来の動きを説明する情報
これらの表示用データを生成する。
表示情報生成部204は、さらに、イメージセンサ102から入力する入力画像(LV画像)に併せて、上記(1),(2)の情報を表示部110に出力して表示する。
(1)図2、図3、図6を参照して説明した未来予測画像、
(2)図8~図10を参照して説明した動被写体の状態を説明する情報や、動被写体の未来の動きを説明する情報
これらの表示用データを生成する。
表示情報生成部204は、さらに、イメージセンサ102から入力する入力画像(LV画像)に併せて、上記(1),(2)の情報を表示部110に出力して表示する。
なお、表示部110に対する表示態様は、ユーザによる入力部109を介した設定情報に応じて変更される。
例えば表示する未来予測画像をどの程度先の未来予測画像に設定するかについては、先に図5を参照して説明したUIを利用してユーザが設定可能である。
また、未来予測画像とLV画像とのブレンド比率については、先に図7を参照して説明したUIを利用してユーザが設定可能である。
表示情報生成部204は、これらのユーザ設定に応じて表示情報を生成した表示部110に表示する。
例えば表示する未来予測画像をどの程度先の未来予測画像に設定するかについては、先に図5を参照して説明したUIを利用してユーザが設定可能である。
また、未来予測画像とLV画像とのブレンド比率については、先に図7を参照して説明したUIを利用してユーザが設定可能である。
表示情報生成部204は、これらのユーザ設定に応じて表示情報を生成した表示部110に表示する。
記録情報生成部205は、入力部109を構成するシャッタの操作に応じて、イメージセンサ102から入力する画像を記憶部111に記録する処理を実行する。なお、この画像記録処理に際しては、従来の撮像装置と同様の信号処理が実行される。
なお、図17に示す構成では、シーン判別部201によるシーン判別処理や、動被写体識別部202における動被写体識別処理、さらに、動被写体状態&動き解析部203における解析処理に適用する画像を、イメージセンサ102から入力する入力画像(LV画像)301をそのまま利用する構成としている。
しかし、データ量が多いと、解析処理に必要となる時間が長くなるため、処理時間の短縮を図るため、これらの処理部に入力する画像を例えば画素間引きによりデータ量を削減した画像としてもよい。
このような構成とした例を図18に示す。
このような構成とした例を図18に示す。
図18に示す例は、イメージセンサ102から出力する画像を2種類の画像としている。表示情報生成部204や、記録情報生成部205に対しては通常の高画素の入力画像(LV画像)301を出力する。
一方、シーン判別部201以下の画像解析処理実行部には、例えば画素間引きによりデータ量を削減した識別用画像321を出力する。
この構成により、シーン判別部201以下の画像解析処理実行部における解析処理を短時間で実行することが可能となる。
一方、シーン判別部201以下の画像解析処理実行部には、例えば画素間引きによりデータ量を削減した識別用画像321を出力する。
この構成により、シーン判別部201以下の画像解析処理実行部における解析処理を短時間で実行することが可能となる。
さらに、撮像素子を複数、設けた構成としてもよい、例えば離間した位置に2つの撮像素子を設けて、これらの2つの画像を解析する構成とすれば、被写体距離の算出も可能となり、被写体の動きの高精度な3次元動きを解析することが可能となる。
さらに、例えば高速撮影可能な構成や、赤外線センサ、測距センサを備えた構成として、これらの高速撮影画像やセンサ取得情報を用いて動被写体の動き予測を行う構成としてもよい。
[6.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) 撮像部からの入力画像に含まれる動被写体の動き予測を実行し、
未来予測画像を生成して表示部に表示する画像処理部を有する画像処理装置。
(1) 撮像部からの入力画像に含まれる動被写体の動き予測を実行し、
未来予測画像を生成して表示部に表示する画像処理部を有する画像処理装置。
(2) 前記画像処理装置は撮像装置であり、
前記画像処理部が生成する未来予測画像は、
前記撮像装置に対するユーザによる被写体の撮影開始準備動作から画像撮影完了までに発生する遅延要因に基づく遅延時間を考慮した未来の予測画像である(1)に記載の画像処理装置。
前記画像処理部が生成する未来予測画像は、
前記撮像装置に対するユーザによる被写体の撮影開始準備動作から画像撮影完了までに発生する遅延要因に基づく遅延時間を考慮した未来の予測画像である(1)に記載の画像処理装置。
(3) 前記画像処理装置は撮像装置であり、
前記画像処理部が生成する未来予測画像は、
前記撮像装置の表示部に対する表示遅延と、シャッタ操作から画像記録までの遅延時間との総遅延時間に相当する時間分、未来の予測画像である(1)または(2)に記載の画像処理装置。
前記画像処理部が生成する未来予測画像は、
前記撮像装置の表示部に対する表示遅延と、シャッタ操作から画像記録までの遅延時間との総遅延時間に相当する時間分、未来の予測画像である(1)または(2)に記載の画像処理装置。
(4) 前記画像処理部は、
前記撮像素子から入力する複数の連続撮影画像に基づいて、動被写体の動き予測を実行する(1)~(3)いずれかに記載の画像処理装置。
前記撮像素子から入力する複数の連続撮影画像に基づいて、動被写体の動き予測を実行する(1)~(3)いずれかに記載の画像処理装置。
(5) 前記画像処理装置は、
前記画像処理部が表示部に表示する未来予測画像を、どの程度、先の画像とするかについて、ユーザによる設定を可能とした構成を有し、
前記画像処理部は、
ユーザ設定情報に従って、表示部に表示する未来予測画像を生成する(1)~(4)いずれかに記載の画像処理装置。
前記画像処理部が表示部に表示する未来予測画像を、どの程度、先の画像とするかについて、ユーザによる設定を可能とした構成を有し、
前記画像処理部は、
ユーザ設定情報に従って、表示部に表示する未来予測画像を生成する(1)~(4)いずれかに記載の画像処理装置。
(6) 前記画像処理部は、
撮像部からの入力画像であるライブビュー画像(LV画像)を表示部に出力するとともに、前記ライブビュー画像を前記未来予測画像に切り替えて表示部に出力する(1)~(5)いずれかに記載の画像処理装置。
撮像部からの入力画像であるライブビュー画像(LV画像)を表示部に出力するとともに、前記ライブビュー画像を前記未来予測画像に切り替えて表示部に出力する(1)~(5)いずれかに記載の画像処理装置。
(7) 前記画像処理部は、
撮像部からの入力画像であるライブビュー画像(LV画像)と、前記未来予測画像を重畳、またはブレンドして表示部に出力する(1)~(6)いずれかに記載の画像処理装置。
撮像部からの入力画像であるライブビュー画像(LV画像)と、前記未来予測画像を重畳、またはブレンドして表示部に出力する(1)~(6)いずれかに記載の画像処理装置。
(8) 前記画像処理装置は、
前記ライブビュー画像(LV画像)と、前記未来予測画像とのブレンド率について、ユーザによる設定を可能とした構成を有し、
前記画像処理部は、
ユーザ設定情報に従って、表示部に表示するブレンド画像を生成する(7)に記載の画像処理装置。
前記ライブビュー画像(LV画像)と、前記未来予測画像とのブレンド率について、ユーザによる設定を可能とした構成を有し、
前記画像処理部は、
ユーザ設定情報に従って、表示部に表示するブレンド画像を生成する(7)に記載の画像処理装置。
(9) 前記画像処理部は、
前記入力画像に含まれる動被写体の状態を解析し、
解析した動被写体状態の説明情報を生成して表示部に表示する(1)~(8)いずれかに記載の画像処理装置。
前記入力画像に含まれる動被写体の状態を解析し、
解析した動被写体状態の説明情報を生成して表示部に表示する(1)~(8)いずれかに記載の画像処理装置。
(10) 前記画像処理部は、
データベースに蓄積されたデータを参照して、
前記入力画像に含まれる動被写体の状態を解析する(9)に記載の画像処理装置。
データベースに蓄積されたデータを参照して、
前記入力画像に含まれる動被写体の状態を解析する(9)に記載の画像処理装置。
(11) 前記画像処理部は、
前記入力画像に含まれる動被写体の動き予測を実行し、
動き予測結果を説明する説明情報を生成して表示部に表示する(1)~(10)いずれかに記載の画像処理装置。
前記入力画像に含まれる動被写体の動き予測を実行し、
動き予測結果を説明する説明情報を生成して表示部に表示する(1)~(10)いずれかに記載の画像処理装置。
(12) 前記説明情報は、動被写体がフレームアウトするまでの時間を記述した情報である(11)に記載の画像処理装置。
(13) 前記説明情報は、動き方向を示すアイコンである(11)に記載の画像処理装置。
(14) 前記説明情報は、人の目のまばたきが実行されることを説明する注意情報である(11)に記載の画像処理装置。
(15) 画像処理装置において実行する画像処理方法であり、
画像処理部が、
撮像部からの入力画像に含まれる動被写体の動き予測を実行し、
未来予測画像を生成して表示部に表示する画像処理方法。
画像処理部が、
撮像部からの入力画像に含まれる動被写体の動き予測を実行し、
未来予測画像を生成して表示部に表示する画像処理方法。
(16) 画像処理装置において画像処理を実行させるプログラムであり、
画像処理部に、
撮像部からの入力画像に含まれる動被写体の動き予測を実行させ、
未来予測画像を生成して表示部に表示させるプログラム。
画像処理部に、
撮像部からの入力画像に含まれる動被写体の動き予測を実行させ、
未来予測画像を生成して表示部に表示させるプログラム。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する装置、方法が実現される。
具体的には、例えば、撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する画像処理部を有する。表示する未来予測画像は、ユーザによる被写体撮影開始準備動作から画像撮影完了までに発生する遅延要因に基づく遅延時間を考慮した画像であり、例えば表示部に対する表示遅延とシャッタ操作から画像記録までの遅延時間との総遅延時間分、未来の予測画像である。画像処理部は、さらに、入力画像に含まれる動被写体の状態を解析し、状態を説明する情報や予測される動きを説明する情報を生成して表示部に表示する。
本構成により、撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する装置、方法が実現される。
具体的には、例えば、撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する画像処理部を有する。表示する未来予測画像は、ユーザによる被写体撮影開始準備動作から画像撮影完了までに発生する遅延要因に基づく遅延時間を考慮した画像であり、例えば表示部に対する表示遅延とシャッタ操作から画像記録までの遅延時間との総遅延時間分、未来の予測画像である。画像処理部は、さらに、入力画像に含まれる動被写体の状態を解析し、状態を説明する情報や予測される動きを説明する情報を生成して表示部に表示する。
本構成により、撮像部からの入力画像に含まれる動被写体の動き予測を実行し、未来予測画像を生成して表示部に表示する装置、方法が実現される。
10 撮像装置
11 レンズ
12 シャッタ
13,15 各種操作部
14 表示部(モニタ部)
21,23 スクロールバー
22 設定補助情報
51 学習器/判別器
52 データベース
100 画像処理装置
101 レンズ
102 イメージセンサ
103 画像処理部
104 データベース
105 メモリ
106 通信部
107 駆動部
108 制御部
109 入力部
110 表示部
111 記憶部
201 シーン判別部
202 動被写体識別部
203 動被写体状態&動き解析部
204 表示情報生成部
205 記録情報生成部
301 入力画像(LV画像)
321 識別用画像
11 レンズ
12 シャッタ
13,15 各種操作部
14 表示部(モニタ部)
21,23 スクロールバー
22 設定補助情報
51 学習器/判別器
52 データベース
100 画像処理装置
101 レンズ
102 イメージセンサ
103 画像処理部
104 データベース
105 メモリ
106 通信部
107 駆動部
108 制御部
109 入力部
110 表示部
111 記憶部
201 シーン判別部
202 動被写体識別部
203 動被写体状態&動き解析部
204 表示情報生成部
205 記録情報生成部
301 入力画像(LV画像)
321 識別用画像
Claims (16)
- 撮像部からの入力画像に含まれる動被写体の動き予測を実行し、
未来予測画像を生成して表示部に表示する画像処理部を有する画像処理装置。 - 前記画像処理装置は撮像装置であり、
前記画像処理部が生成する未来予測画像は、
前記撮像装置に対するユーザによる被写体の撮影開始準備動作から画像撮影完了までに発生する遅延要因に基づく遅延時間を考慮した未来の予測画像である請求項1に記載の画像処理装置。 - 前記画像処理装置は撮像装置であり、
前記画像処理部が生成する未来予測画像は、
前記撮像装置の表示部に対する表示遅延と、シャッタ操作から画像記録までの遅延時間との総遅延時間に相当する時間分、未来の予測画像である請求項1に記載の画像処理装置。 - 前記画像処理部は、
前記撮像素子から入力する複数の連続撮影画像に基づいて、動被写体の動き予測を実行する請求項1に記載の画像処理装置。 - 前記画像処理装置は、
前記画像処理部が表示部に表示する未来予測画像を、どの程度、先の画像とするかについて、ユーザによる設定を可能とした構成を有し、
前記画像処理部は、
ユーザ設定情報に従って、表示部に表示する未来予測画像を生成する請求項1に記載の画像処理装置。 - 前記画像処理部は、
撮像部からの入力画像であるライブビュー画像(LV画像)を表示部に出力するとともに、前記ライブビュー画像を前記未来予測画像に切り替えて表示部に出力する請求項1に記載の画像処理装置。 - 前記画像処理部は、
撮像部からの入力画像であるライブビュー画像(LV画像)と、前記未来予測画像を重畳、またはブレンドして表示部に出力する請求項1に記載の画像処理装置。 - 前記画像処理装置は、
前記ライブビュー画像(LV画像)と、前記未来予測画像とのブレンド率について、ユーザによる設定を可能とした構成を有し、
前記画像処理部は、
ユーザ設定情報に従って、表示部に表示するブレンド画像を生成する請求項7に記載の画像処理装置。 - 前記画像処理部は、
前記入力画像に含まれる動被写体の状態を解析し、
解析した動被写体状態の説明情報を生成して表示部に表示する請求項1に記載の画像処理装置。 - 前記画像処理部は、
データベースに蓄積されたデータを参照して、
前記入力画像に含まれる動被写体の状態を解析する請求項9に記載の画像処理装置。 - 前記画像処理部は、
前記入力画像に含まれる動被写体の動き予測を実行し、
動き予測結果を説明する説明情報を生成して表示部に表示する請求項1に記載の画像処理装置。 - 前記説明情報は、動被写体がフレームアウトするまでの時間を記述した情報である請求項11に記載の画像処理装置。
- 前記説明情報は、動き方向を示すアイコンである請求項11に記載の画像処理装置。
- 前記説明情報は、人の目のまばたきが実行されることを説明する注意情報である請求項11に記載の画像処理装置。
- 画像処理装置において実行する画像処理方法であり、
画像処理部が、
撮像部からの入力画像に含まれる動被写体の動き予測を実行し、
未来予測画像を生成して表示部に表示する画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
画像処理部に、
撮像部からの入力画像に含まれる動被写体の動き予測を実行させ、
未来予測画像を生成して表示部に表示させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/610,827 US20220217276A1 (en) | 2019-05-21 | 2020-05-12 | Image processing device, image processing method, and program |
EP20809902.8A EP3975542A4 (en) | 2019-05-21 | 2020-05-12 | IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM |
JP2021520725A JP7424375B2 (ja) | 2019-05-21 | 2020-05-12 | 画像処理装置、および画像処理方法、並びにプログラム |
CN202080035431.5A CN113812139A (zh) | 2019-05-21 | 2020-05-12 | 图像处理设备、图像处理方法和程序 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019095155 | 2019-05-21 | ||
JP2019-095155 | 2019-05-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020235401A1 true WO2020235401A1 (ja) | 2020-11-26 |
Family
ID=73458467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/019020 WO2020235401A1 (ja) | 2019-05-21 | 2020-05-12 | 画像処理装置、および画像処理方法、並びにプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220217276A1 (ja) |
EP (1) | EP3975542A4 (ja) |
JP (1) | JP7424375B2 (ja) |
CN (1) | CN113812139A (ja) |
WO (1) | WO2020235401A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022259688A1 (ja) * | 2021-06-11 | 2022-12-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11831160B2 (en) * | 2019-06-21 | 2023-11-28 | Siemens Aktiengesellschaft | Power load data prediction method and device, and storage medium |
WO2021059747A1 (ja) * | 2019-09-26 | 2021-04-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、プログラム及び情報処理装置 |
WO2024087183A1 (en) * | 2022-10-28 | 2024-05-02 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Imaging device, imaging device control method, and computer program product |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000322556A (ja) | 1999-05-11 | 2000-11-24 | Nippon Telegr & Teleph Corp <Ntt> | 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体 |
JP2009218719A (ja) * | 2008-03-07 | 2009-09-24 | Panasonic Corp | 撮像装置及び撮像方法 |
JP2010204180A (ja) * | 2009-02-27 | 2010-09-16 | Nikon Corp | 電子カメラ |
JP2014103598A (ja) * | 2012-11-21 | 2014-06-05 | Canon Inc | 情報表示装置、その制御方法、撮影装置、およびプログラム |
JP2015100075A (ja) * | 2013-11-20 | 2015-05-28 | 株式会社東芝 | 画像処理装置、システムおよび方法 |
US20160080633A1 (en) * | 2014-09-15 | 2016-03-17 | Samsung Electronics Co., Ltd. | Method for capturing image and image capturing apparatus |
JP2017517165A (ja) * | 2014-03-10 | 2017-06-22 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 写真画像内の瞬きおよび逸視回避 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4677245B2 (ja) * | 2004-03-03 | 2011-04-27 | キヤノン株式会社 | 画像表示方法、プログラム、画像表示装置及び画像表示システム |
JP4573599B2 (ja) * | 2004-08-17 | 2010-11-04 | エイディシーテクノロジー株式会社 | 表示装置 |
JP4333685B2 (ja) * | 2006-03-29 | 2009-09-16 | セイコーエプソン株式会社 | カメラ、画像表示方法及びそのプログラム |
JP5482154B2 (ja) * | 2009-12-02 | 2014-04-23 | セイコーエプソン株式会社 | 撮像装置、撮像方法および撮像プログラム |
US20110149111A1 (en) * | 2009-12-22 | 2011-06-23 | Prentice Wayne E | Creating an image using still and preview |
JP5872981B2 (ja) * | 2012-08-02 | 2016-03-01 | オリンパス株式会社 | 撮影機器,動体の撮影方法,撮影プログラム |
JP6112846B2 (ja) * | 2012-12-11 | 2017-04-12 | 株式会社トプコン | 眼科装置 |
WO2018078868A1 (ja) * | 2016-10-31 | 2018-05-03 | 株式会社オプティム | コンピュータシステム、物体の診断方法及びプログラム |
CN109891475A (zh) * | 2016-11-09 | 2019-06-14 | 索尼公司 | 信息处理设备、信息处理方法、程序和移动体 |
US11158101B2 (en) * | 2017-06-07 | 2021-10-26 | Sony Interactive Entertainment Inc. | Information processing system, information processing device, server device, image providing method and image generation method |
JP7147835B2 (ja) * | 2018-02-20 | 2022-10-05 | 株式会社ソシオネクスト | 表示制御装置、表示制御システム、表示制御方法、及びプログラム |
-
2020
- 2020-05-12 US US17/610,827 patent/US20220217276A1/en not_active Abandoned
- 2020-05-12 WO PCT/JP2020/019020 patent/WO2020235401A1/ja unknown
- 2020-05-12 EP EP20809902.8A patent/EP3975542A4/en not_active Withdrawn
- 2020-05-12 JP JP2021520725A patent/JP7424375B2/ja active Active
- 2020-05-12 CN CN202080035431.5A patent/CN113812139A/zh not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000322556A (ja) | 1999-05-11 | 2000-11-24 | Nippon Telegr & Teleph Corp <Ntt> | 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体 |
JP2009218719A (ja) * | 2008-03-07 | 2009-09-24 | Panasonic Corp | 撮像装置及び撮像方法 |
JP2010204180A (ja) * | 2009-02-27 | 2010-09-16 | Nikon Corp | 電子カメラ |
JP2014103598A (ja) * | 2012-11-21 | 2014-06-05 | Canon Inc | 情報表示装置、その制御方法、撮影装置、およびプログラム |
JP2015100075A (ja) * | 2013-11-20 | 2015-05-28 | 株式会社東芝 | 画像処理装置、システムおよび方法 |
JP2017517165A (ja) * | 2014-03-10 | 2017-06-22 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 写真画像内の瞬きおよび逸視回避 |
US20160080633A1 (en) * | 2014-09-15 | 2016-03-17 | Samsung Electronics Co., Ltd. | Method for capturing image and image capturing apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022259688A1 (ja) * | 2021-06-11 | 2022-12-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020235401A1 (ja) | 2020-11-26 |
EP3975542A1 (en) | 2022-03-30 |
EP3975542A4 (en) | 2022-07-06 |
JP7424375B2 (ja) | 2024-01-30 |
US20220217276A1 (en) | 2022-07-07 |
CN113812139A (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7424375B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP6790177B2 (ja) | ビデオシーケンスのフレームを選択する方法、システム及び装置 | |
CN108307116B (zh) | 图像拍摄方法、装置、计算机设备和存储介质 | |
US9736356B2 (en) | Photographing apparatus, and method for photographing moving object with the same | |
US8180106B2 (en) | Image capturing apparatus and image capturing method | |
JP4970469B2 (ja) | デジタル画像を選択的に不適格とする方法及び装置 | |
US10515471B2 (en) | Apparatus and method for generating best-view image centered on object of interest in multiple camera images | |
US9367746B2 (en) | Image processing apparatus for specifying an image relating to a predetermined moment from among a plurality of images | |
US9282238B2 (en) | Camera system for determining pose quality and providing feedback to a user | |
JP4809904B2 (ja) | デジタル画像の選択的削除方法および装置 | |
JP2010119097A (ja) | 画像評価装置及びカメラ | |
JP5988113B2 (ja) | ステレオビジョンシステムの映像処理方法及びその装置 | |
US9934582B2 (en) | Image processing apparatus which identifies characteristic time points from variations of pixel values in images, image processing method, and recording medium | |
JP5754458B2 (ja) | 動画像抽出装置、動画像抽出方法及びプログラム | |
CN107395957B (zh) | 拍照方法、装置、存储介质及电子设备 | |
CN106791456A (zh) | 一种拍照方法及电子设备 | |
KR101938381B1 (ko) | 촬상 장치 및 촬상 방법 | |
JP4553384B2 (ja) | 撮像装置及びその制御方法、コンピュータプログラム、記憶媒体 | |
JP2005176274A (ja) | 撮像装置及び撮像制御方法 | |
US11785346B2 (en) | Imaging device and imaging control method | |
JP2021105850A (ja) | 画像処理装置及び方法、及び撮像装置 | |
US11523047B2 (en) | Imaging device, imaging method, and program | |
JP2023122427A (ja) | 画像処理装置及びその制御方法、プログラム、記憶媒体 | |
JP2023124598A (ja) | 主被写体判定装置、撮像装置、主被写体判定方法、及びプログラム | |
JP2023084461A (ja) | 主被写体判定装置、撮像装置、主被写体判定方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20809902 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2021520725 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2020809902 Country of ref document: EP Effective date: 20211221 |