WO2014156568A1 - 画像記録装置、画像記録方法及びプログラム - Google Patents
画像記録装置、画像記録方法及びプログラム Download PDFInfo
- Publication number
- WO2014156568A1 WO2014156568A1 PCT/JP2014/055999 JP2014055999W WO2014156568A1 WO 2014156568 A1 WO2014156568 A1 WO 2014156568A1 JP 2014055999 W JP2014055999 W JP 2014055999W WO 2014156568 A1 WO2014156568 A1 WO 2014156568A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- subject
- image
- data
- unit
- output
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/21—Intermediate information storage
- H04N1/2104—Intermediate information storage for one or a few pictures
- H04N1/2112—Intermediate information storage for one or a few pictures using still video cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/907—Television signal recording using static stores, e.g. storage tubes or semiconductor memories
Definitions
- the present invention relates to an image recording apparatus, an image recording method, and a program that can be easily operated.
- Patent Document 1 describes a technique for easily managing the growth record of a child as a subject by displaying and recording data associated with the elapsed time from the birthday of the subject on a captured image.
- Patent Document 1 requires a multi-step operation such as selecting a child to be a subject in order to select the “child mode” and specifying the child's birthday, which is troublesome for the user. Inconvenience that the number of operations increases.
- an object of the present invention is to provide an image recording apparatus, an image recording method, and a program that can solve the above-described problems.
- an image recording apparatus of the present invention includes a simulated image output control unit that displays a simulated subject image that is a simulated image representing a subject on an output unit, and a subject that is recorded in association with the simulated subject image.
- a storage unit that stores attribute data and subject-related data related to the subject attribute data; and the subject attribute data and the subject-related data from the storage unit based on an instruction operation on the simulated subject image displayed on the output unit
- a subject data acquisition unit that reads one or both of the above, an image data acquisition unit that acquires image data generated by photographing the subject, and the subject attribute data and the subject-related data read by the subject data acquisition unit Any one or both of them are output in association with the image data displayed on the output unit.
- an Utsushitai information output control section that displays a simulated subject image that is a simulated image representing a subject on an output unit, and a subject that is recorded in association with the simulated subject image.
- the image recording method of the present invention displays a simulated subject image, which is a simulated image representing a subject, on the output unit, and the simulated subject image from the storage unit based on an instruction operation on the simulated subject image displayed on the output unit.
- a simulated subject image which is a simulated image representing a subject
- the simulated subject image from the storage unit based on an instruction operation on the simulated subject image displayed on the output unit.
- One or both of the subject attribute data recorded in association with the subject attribute data and subject-related data related to the subject attribute data are read out, image data generated by photographing the subject is acquired, and the read subject attribute data And / or subject-related data are output in association with the image data displayed on the output unit.
- the program of the present invention provides a computer of the image recording apparatus to a simulated image output control unit that displays a simulated subject image that is a simulated image representing a subject on the output unit, and an instruction operation for the simulated subject image displayed on the output unit.
- a subject data acquisition unit that reads out one or both of the subject attribute data recorded in association with the subject simulated image and the subject-related data related to the subject attribute data from the storage unit, and is generated by photographing the subject Subject data that is output in association with one or both of the subject attribute data and subject-related data read by the subject data acquisition means in association with the image data displayed on the output unit. It functions as an output control unit.
- the present invention it is not necessary to perform a multi-step operation setting such as mode selection or subject selection, and the user can easily manage recording of the subject without troublesome operations.
- FIG. 1 is a block diagram illustrating a minimum configuration of an image recording apparatus according to an embodiment of the present invention.
- 1 is a block diagram illustrating a configuration of an image recording apparatus according to a first embodiment of the present invention. It is a data table which shows the example of the subject data which the memory
- 6 is a table showing an example of operation settings and face feature data of an image recording apparatus stored in association with an icon in the first embodiment. 6 is a diagram illustrating an example of an image displayed on an output unit at the time of shooting a subject in the first embodiment.
- FIG. FIG. 10 is a diagram illustrating another example of an image displayed on the output unit at the time of shooting a subject in the first embodiment.
- FIG. 10 is a diagram illustrating still another example of an image displayed on an output unit at the time of shooting a subject in the first embodiment.
- FIG. 10 is a diagram illustrating still another example of an image displayed on an output unit at the time of shooting a subject in the first embodiment.
- It is a flowchart which shows the process of the image recording device by 1st embodiment.
- It is a figure which shows an example of a user's operation in the image recording device by 1st embodiment.
- It is a figure which shows the further another example of the user's operation in the image recording device by 1st embodiment.
- It is a flowchart which shows the process of the image recording device by 2nd embodiment of this invention.
- FIG. 1 is a functional block diagram showing a minimum configuration of an image recording apparatus 10 according to an embodiment of the present invention.
- the image recording apparatus 10 of the present embodiment includes at least functional units of a simulated image output control unit 101, a subject data acquisition unit 102, an image data acquisition unit 103, and a subject information output control unit 104.
- the simulated image output control unit 101 outputs a subject simulated image, which is a simulated image showing the subject, to the output unit.
- the subject data acquisition unit 102 relates to the subject attribute data and subject attribute data recorded in association with the identification information of the subject simulated image from the storage unit based on the instruction operation for the subject simulated image displayed on the output unit. One or both of the subject related data to be read are read out.
- the image data acquisition unit 103 acquires image data generated by photographing a subject.
- the subject information output control unit 104 outputs either or both of the subject attribute data read by the subject data acquisition unit 102 and the subject related data related to the subject attribute data in association with the image data displayed on the output unit.
- the functional units of the simulated image output control unit 101, the subject data acquisition unit 102, the image data acquisition unit 103, and the subject information output control unit 104 are controlled by, for example, a control unit (for example, a CPU, Central Processing Unit) of the image recording apparatus 10. This is realized by executing
- FIG. 2 is a functional block diagram showing the configuration of the image recording apparatus 10 according to the first embodiment of the present invention.
- the image recording apparatus 10 according to the first embodiment includes a similarity determination unit 105, a subject attribute data recording unit, in addition to each functional unit showing the minimum configuration of the image recording apparatus 10 shown in FIG. 1. 106, an output control unit 107, an output unit 110, and a storage unit 111.
- the similarity determination unit 105 compares the facial feature data associated with the subject attribute data read by the subject data acquisition unit 102 with the facial feature data extracted from the image data acquired by the image data acquisition unit 103 to determine the similarity. judge.
- the subject attribute data recording unit 106 when the similarity determined by the similarity determination unit 105 is high, either or both of the subject attribute data output to the output unit and the subject related data related to the subject attribute data
- the image data output to the output unit is recorded in the storage unit 111 in association with the image data.
- the output control unit 107 outputs various image data to the output unit.
- the output unit 110 outputs various information based on the control of the output control unit 107.
- the output unit 110 includes a display unit 1101, a light emitting unit 1102, and a speaker 1103.
- the output unit 110 is, for example, a screen for displaying an image, a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like. When outputting sound or sound, the output unit 110 is a speaker or the like. Any output unit may be used as long as it can transmit the output information. Moreover, those combinations may be sufficient.
- the storage unit 111 stores various information necessary for the operation of the image recording apparatus 10.
- FIG. 3 is an example of a data table recorded by the storage unit 111 in the present embodiment.
- the storage unit 111 stores subject attribute data, subject-related data, and the like of a subject in association with each of icons A, B, C, D,.
- the subject attribute data is invariant information such as a subject name, date of birth, and relationship.
- the subject-related data is information that is associated with the subject attribute data but changes depending on the subject such as age and school year.
- both subject attribute data and subject-related data are collectively referred to as subject data.
- each of the icons A to C is associated with one subject data.
- the name “Taro”, the date of birth “ ⁇ year ⁇ month ⁇ day” as subject attribute data, and the age “10 months” as subject related data are associated with the icon A.
- the name “Hanako”, the date of birth “ ⁇ year ⁇ month ⁇ day” as subject attribute data, and the grade “third grader” as subject related data are associated with the icon B.
- the icon C is associated with the subject “Ichiro” as the subject attribute data, the date of birth “ ⁇ year ⁇ month ⁇ day”, and the age “10 years old” as subject related data.
- two icons of subject data “Taro” and “Hanako” may be associated with one icon, or three or more subjects may be associated with one icon. It may be associated.
- FIG. 4 is a table showing an example of operation settings of the image recording apparatus 10 associated with an icon.
- the setting A and the face feature data A are associated with the icon A.
- icon B has setting B and face feature data B
- icon C has setting C and face feature data C
- icon D has setting D and face feature data D.
- the facial feature data A in the data table shown in FIG. 4 is the face part for specifying “Taro” as the subject. It shows facial features such as the relative position and size of the eyes, the shape of the eyes, nose, cheekbones and jaws.
- the setting A is information including a parameter for determining whether to perform face recognition or the like using the face feature data A, and this parameter is set by the user.
- the setting A is information including a parameter for determining whether or not to display a predetermined title based on the subject data, for example, “Taro 10 months” on the output unit 110.
- settings B, C, D,... Are information including similar parameters, and are set by the user.
- 5A to 5D are diagrams illustrating examples of images displayed on the output unit 110 during subject photographing.
- the user captures “Taro”
- the user performs an operation of starting the image recording apparatus 10.
- the user operation here is the same operation as when the user activates the smartphone, for example, by sliding the power switch of the smartphone or pressing the power button of the smartphone.
- the image recording apparatus 10 is activated in response to the user operation.
- the output control unit 107 of the image recording apparatus 10 displays an initial screen on the output unit 110.
- the user performs an operation such as moving the folder so that the icon A is displayed on the output unit 110.
- the icon A has subject data for “Taro” and the image recording apparatus 10 recognize the face “Taro”, and based on the subject data for “Taro”.
- the setting A for displaying various information on the image is associated with the face feature data A used when the face of “Taro” is recognized.
- the similarity determination unit 105 sets the subject as “Taro” by image face recognition technology or the like as shown in FIG. 5A.
- the subject information output control unit 104 displays the characters “10 months” as the age near the face of “Taro” displayed on the output unit 110.
- the subject information output control unit 104 displays the title “Taro 10 months” on the output unit 110 according to the subject and age. Further, when the user shoots “Taro” and “Hanako”, the user performs an operation of tapping the icon D, and the setting D is validated in the image recording apparatus 10. In this case, as shown in FIG. 5D, the similarity determination unit 105 recognizes the subject as “Taro” and “Hanako” using an image face recognition technique or the like, and the subject information output control unit 104 is displayed on the output unit 110. In the vicinity of the face of “Taro”, the characters “10 months” corresponding to the age and the characters “younger brother” corresponding to the relationship are displayed.
- the subject information output control unit 104 displays the characters “third grader” corresponding to the school year and “sister” corresponding to the relationship near the face of “Hanako” displayed on the output unit 110.
- the user captures “Hanako” and performs an operation of tapping icon B to enable setting B in image recording apparatus 10
- an image as shown in FIG. 5B is displayed on output unit 110.
- the user captures “Ichiro” and taps icon C to enable setting C in image recording apparatus 10
- an image as shown in FIG. 5C is displayed on output unit 110.
- FIG. 6 is a flowchart showing processing of the image recording apparatus 10 according to the first embodiment of the present invention. Here, a processing flow when the user photographs “Taro” is shown.
- the simulated image output control unit 101 of the image recording apparatus 10 displays the icon A on the output unit 110 (step S1).
- the output unit 110 of the image recording apparatus 10 responds to the tap with a tap signal indicating that the icon A is tapped with the subject data acquisition unit 102.
- the subject data acquisition unit 102 acquires subject data corresponding to the icon A from the storage unit 111, and outputs the acquired subject data to the subject information output control unit 104 (step S2).
- the similarity determination unit 105 of the image recording apparatus 10 receives a tap signal, the similarity determination unit 105 acquires facial feature data A corresponding to the icon A from the storage unit 111 (step S3).
- the image data acquisition unit 103 of the image recording apparatus 10 acquires image data autofocused by a camera external to the image recording apparatus 10 (step S4). This step S4 is repeated, and the images acquired at that time are sequentially displayed by the process of step S4.
- the image data acquisition unit 103 acquires image data from the outside, the image data acquisition unit 103 outputs the image data to the output control unit 107.
- the output control unit 107 outputs the input image data to the display unit 1101 of the output unit 110 (step S5).
- the output control unit 107 extracts the facial feature data of “Taro” from the input image data (step S6).
- the output control unit 107 outputs the extracted face feature data of “Taro” to the similarity determination unit 105.
- the similarity determination unit 105 geometrically combines the facial feature data A indicating the facial feature of “Taro” corresponding to the icon A and the facial feature data input from the output control unit 107 acquired in step S3.
- the facial feature data is data indicating, for example, the relative positions and sizes of facial parts, and the shapes of eyes, nose, cheekbones, and jaws.
- the similarity determination unit 105 determines whether or not the similarity, which is a comparison result between the face feature data A and the face feature data from the output control unit 107, exceeds a predetermined threshold value (step S7). When the similarity does not exceed a predetermined threshold (in the case of “NO”), the similarity determination unit 105 determines that “Taro” is not reflected in the image data input from the output control unit 107, The process returns to step S6. When the similarity exceeds a predetermined threshold (in the case of “YES”), the similarity determination unit 105 determines that “Taro” is reflected in the image data input from the output control unit 107.
- the image data acquisition unit 103 outputs the input image to the output control unit 107.
- the output control unit 107 outputs a light emission signal for causing the light emitting unit 1102 to emit light or outputs a sound to the speaker 1103 so as to draw the attention of “Taro” and face the front. Also good.
- the action of drawing the attention of the subject performed by the output control unit 107 is performed by determining whether the age of the subject exceeds a threshold value. Based on the facial feature data extracted in step S6, the output control unit 107 determines whether or not the subject “Taro” faces the front (step S8). This determination can be performed using existing face recognition technology.
- step S8 When the output control unit 107 determines that “Taro” is not facing the front (in the case of “NO”), the process of step S8 is repeated.
- the output control unit 107 determines that “Taro” is facing the front (in the case of “YES”), the output control unit 107 outputs a continuous shooting signal instructing continuous shooting to the image data acquisition unit 103.
- the image data acquisition unit 103 starts continuous shooting (step S9).
- the image data acquisition unit 103 outputs the continuously shot images to the output control unit 107.
- the output control unit 107 specifies the best image from the input images (step S10).
- the identification of the best image performed by the output control unit 107 is based on an image with the best smile, an image without blinking, an image with the best image quality, an image selected by the user, and the like. Can be selected using the following techniques.
- the output control unit 107 outputs the identified best image to the similarity determination unit 105 and the subject attribute data recording unit 106.
- the similarity determination unit 105 specifies the display position of the subject data of “Taro” in the input image range, adds the display position coordinate data to the image data, and outputs the subject information. Output to the control unit 104.
- step S2 When the subject information output control unit 104 receives the image data to which the position coordinate data is added, the process of step S2 is performed on the image of “Taro” output to the output unit 110 by the output control unit 107 based on the input position coordinates.
- the subject data of “Taro” input in the above is associated and output to the output unit 110 (step S11).
- the image output by the output unit 110 at this time is, for example, the image shown in FIG. 5A, and the name, age, and the like based on the subject data are displayed near the subject's face. Note that in the image output by the output unit 110, either subject attribute data or subject-related data may be present near the subject's face.
- the subject information output control unit 104 may change the output position of the subject data displayed near the face of the subject based on a user operation such as a flick operation on the display location on the output unit 110. Good. Information based on subject data may be added as exif information or image titles, and what kind of information is added may be determined in advance by the user.
- the subject information output control unit 104 also outputs the same data as the processing in step S11 to the subject attribute data recording unit 106.
- the subject attribute data recording unit 106 records the image data acquired from the output control unit 107 and the subject data of “Taro” in the storage unit 111 in association with each other (step S12).
- step S8 the user may perform an operation to release the shutter in order to perform photographing. Further, it is not always necessary to perform continuous shooting as in step S9 in the present embodiment, and one or more shootings may be performed.
- the processing flow of the image recording apparatus 10 according to the embodiment of the present invention has been described above.
- the shooting function is activated and the shooting is started with the settings for recognizing the subject and displaying the name, age, and the like, and the best image is displayed. Identify and add subject information to the image for recording. Therefore, settings such as mode selection and subject selection are not required, and the user can easily take the best image. Further, since the image recording apparatus 10 identifies the best image and adds subject information to the image, the user can easily manage recording of the subject without troublesome operations.
- an image recording apparatus 10 according to the second embodiment of the present invention will be described.
- a case where the image recording apparatus 10 is set by a user operation different from the first embodiment will be described as an example.
- the user performs an operation for photographing “Taro” and “Hanako”.
- the configuration of the image recording apparatus 10 according to the second embodiment of the present invention is the same as that of the image recording apparatus 10 according to the first embodiment shown in FIG. To do.
- FIGS. 7A to 7C are diagrams illustrating examples of operations performed by the user when setting the image recording apparatus 10 according to the second embodiment.
- the icons A and B shown in this figure are the same as the icons A and B shown in FIGS. Therefore, the icon A shown in this figure is an icon selected by the user when operating the image recording apparatus 10 to identify “Taro” and display subject data of “Taro”.
- the icon B shown in this figure is an icon selected by the user when the image recording apparatus is operated so as to identify “Hanako” and display the subject data of “Hanako”.
- FIG. 7A when the user taps two icons at the same time, “Taro” and “Hanako” are simultaneously set in the image recording apparatus 10. That is, the same setting as the icon D in FIGS. 3 and 4 is performed on the image recording apparatus 10.
- the operation performed by the user may be flicked so that one icon is flicked to the other icon as shown in FIG. 7B or the icons are matched as shown in FIG. 7C.
- the simulated image output control unit 101 of the image recording apparatus 10 displays the icon A and “icon B” on the output unit 110 (step S13).
- the simulated image output control unit 101 displays an icon on the output unit 110. You may make it display icons other than A and the icon B.
- the output of the image recording device 10 is output.
- Unit 110 outputs a simultaneous tap signal indicating that icon A and icon B have been tapped simultaneously to subject data acquisition unit 102 and similarity determination unit 105.
- Subject data acquisition unit 102 receives the simultaneous tap signal.
- the subject data corresponding to the icon A and the icon B is acquired from the storage unit 111, and the acquired subject data is output as subject information. It outputs to the control part 104 (step S14)
- the similarity determination part 105 of the image recording apparatus 10 will receive the face feature data A corresponding to the icon A, and the face feature data B corresponding to the icon B, if a simultaneous tap signal is input. Obtained from the storage unit 111 (step S15).
- the image data acquisition unit 103 of the image recording apparatus 10 acquires image data autofocused by a camera external to the image recording apparatus 10 (step S4). This step S4 is repeated, and the images acquired at that time are sequentially displayed by the process of step S4.
- the image data acquisition unit 103 acquires image data from the outside
- the image data acquisition unit 103 outputs the image data to the output control unit 107.
- the output control unit 107 outputs the input image data to the display unit 1101 of the output unit 110 (step S5).
- the output control unit 107 extracts the facial feature data of “Taro” and “Hanako” from the input image data (step S16). Then, the output control unit 107 outputs the extracted facial feature data of “Taro” and “Hanako” to the similarity determination unit 105.
- the similarity determination unit 105 obtains the facial feature data A indicating the facial features of “Taro” corresponding to the icon A and the facial features of “Hanako” corresponding to the icon B acquired in step S15.
- the face feature data B shown and the face feature data of “Taro” and “Hanako” input from the output control unit 107 are compared geometrically or by statistically quantifying the images, and the comparison results are similar. It is determined whether or not the degree exceeds a predetermined threshold (step S17). When the similarity does not exceed a predetermined threshold (in the case of “NO”), the similarity determination unit 105 does not include “Taro” and “Hanako” in the image data input from the output control unit 107.
- the similarity determination unit 105 includes “Taro” and “Hanako” in the image data input from the output control unit 107. Is determined.
- the image data acquisition unit 103 outputs the input image to the output control unit 107.
- the output control unit 107 may output a light emission signal for causing the light emitting unit 1102 to emit light so as to draw the attention of “Taro” and face the front, or output sound to the speaker 1103. Good.
- the action of drawing the attention of the subject performed by the output control unit 107 is performed by determining whether the age of the subject exceeds a threshold value.
- the output control unit 107 determines whether or not the subjects “Taro” and “Hanako” are facing the front based on the facial feature data of “Taro” and “Hanako” extracted in Step S16 (Step S16). S18). This determination can be performed using existing face recognition technology.
- step S18 When the output control unit 107 determines that “Taro” and “Hanako” are not facing the front (in the case of “NO”), the process of step S18 is repeated.
- the output control unit 107 determines that “Taro” and “Hanako” face the front (in the case of “YES”), the output control unit 107 outputs a continuous shooting signal instructing continuous shooting to the image data acquisition unit 103. Output to.
- the image data acquisition unit 103 starts continuous shooting (step S9).
- the image data acquisition unit 103 outputs the continuously shot images to the output control unit 107.
- the output control unit 107 specifies the best image from the input images (step S10).
- the identification of the best image performed by the output control unit 107 is based on an image with the best smile, an image without blinking, an image with the best image quality, an image selected by the user, and the like. Can be selected using the following techniques.
- the output control unit 107 outputs the identified best image to the similarity determination unit 105 and the subject attribute data recording unit 106.
- the similarity determination unit 105 specifies the display positions of the subject data “Taro” and “Hanako” in the input image range, and adds the display position coordinate data to the image data. To the subject information output control unit 104.
- the output control unit 107 When the subject information output control unit 104 receives the image data to which the position coordinate data is added, based on the input position coordinates, the output control unit 107 outputs the “Taro” and “Hanako” images output to the output unit 110.
- the subject data “Taro” and “Hanako” input in the process of step S2 are associated with each other and output to the output unit 110 (step S19).
- the image output by the output unit 110 at this time is, for example, the image shown in FIG. 5D, and the name, age, and the like based on the subject data are displayed near the subject's face.
- the subject information output control unit 104 may change the output position of the subject data displayed near the face of the subject based on a user operation such as a flick operation on the display location on the output unit 110. Good. Information based on subject data may be added as exif information or image titles, and what kind of information is added may be determined in advance by the user.
- the subject information output control unit 104 outputs the same data as the processing in step S11 to the subject attribute data recording unit 106. Then, the subject attribute data recording unit 106 records the image data acquired from the output control unit 107 and the subject data of “Taro” and “Hanako” in the storage unit 111 in association with each other (step S20).
- the simultaneous tap operation of the icon A and the icon B performed by the user is performed by flicking one icon to the other icon as shown in FIGS. 7A to 7C or flicking the icons together. It may be an operation.
- the icons operated by the user may be three or more simultaneous taps or flicks, and settings associated with all the icons that are the operation targets are performed on the image recording apparatus 10.
- the user may perform an operation of releasing the shutter to perform shooting. Further, it is not always necessary to perform continuous shooting as in step S9 in the present embodiment, and one or more shootings may be performed.
- the processing flow of the image recording apparatus 10 according to the embodiment of the present invention has been described above. However, according to the processing of the image recording apparatus 10 described above, a predetermined operation such as tap or flick is performed on a plurality of icons.
- a predetermined operation such as tap or flick is performed on a plurality of icons.
- settings suitable for a plurality of subjects are made, and there is no need for multi-step operation settings such as mode selection and subject selection, and the user can easily shoot the best image. can get.
- the image recording apparatus 10 identifies the best image and adds subject information to the image, the user can easily manage recording of the subject without troublesome operations.
- the image recording apparatus 10 described above has a computer system inside.
- the process described above is stored in a computer-readable non-transitory recording medium in the form of a program, and the above process is performed by the computer reading and executing this program.
- the computer-readable non-transitory recording medium is a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
- the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
- the program may be for realizing a part of the functions described above. Furthermore, what can implement
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
特許文献1には、被写体の誕生日からの経過年月に関連付けられたデータを撮影画像に表示し記録することにより、被写体となる子供の成長記録を簡単に管理する技術が記載されている。
本実施形態の画像記録装置10は、図1で示すように、少なくとも模擬画像出力制御部101、被写体データ取得部102、画像データ取得部103、被写体情報出力制御部104の機能部を備える。
模擬画像出力制御部101は、被写体を示す模擬画像である被写体模擬画像を出力部に出力する。
被写体データ取得部102は、出力部に表示している被写体模擬画像に対する指示操作に基づいて、記憶部から被写体模擬画像の識別情報に関連付けられて記録されている被写体属性データ及び被写体属性データに関連する被写体関連データの何れか一方または両方を読み出す。
画像データ取得部103は、被写体の撮影により生成された画像データを取得する。
被写体情報出力制御部104は、被写体データ取得部102が読み出す被写体属性データ及び被写体属性データに関連する被写体関連データの何れか一方または両方を、出力部に表示された画像データに関連付けて出力する。
模擬画像出力制御部101、被写体データ取得部102、画像データ取得部103、被写体情報出力制御部104の各機能部は、例えば画像記録装置10の制御部(例えばCPU、Central Proccessing Unit)が制御プログラムを実行することにより、実現される。
図2は、本発明の第一の実施形態による画像記録装置10の構成を示す機能ブロック図である。
図2で示すように、第一の実施形態による画像記録装置10は、図1で示した画像記録装置10の最小構成を示す各機能部に加え、類似度判定部105、被写体属性データ記録部106、出力制御部107、出力部110、記憶部111を備える。
類似度判定部105は、被写体データ取得部102が読み出す被写体属性データに対応付けられた顔特徴データと、画像データ取得部103が取得する画像データから抽出した顔特徴データとを比較し類似度を判定する。
被写体属性データ記録部106は、類似度判定部105の判定する類似度が高い場合に、出力部に出力している被写体属性データ及び被写体属性データに関連する被写体関連データの何れか一方または両方と出力部に出力している画像データとを関連付けて記憶部111に記録する。
出力制御部107は、種々の画像データを出力部に出力する。
出力部110は、出力制御部107の制御に基づいて、種々の情報を出力する。この出力部110は、表示部1101と、発光部1102と、スピーカ1103とを備える。この出力部110は、例えば、画像を映すためのスクリーン、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイなどであるが、音や音声を出力する場合はスピーカなどであり、人間の五感を介して出力情報を伝えられるものであればどのような出力部であってもよい。また、それらの組合せであってもよい。
記憶部111は、画像記録装置10の動作に必要な種々の情報を記憶する。
図3に示すように、記憶部111は、アイコンA、B、C、D、・・・のそれぞれに被写体の被写体属性データや被写体関連データなどを関連付けてデータテーブルとして記憶している。ここで被写体属性データとは、被写体の名前、生年月日、続柄などの不変的な情報である。被写体関連データとは、被写体属性データに関連付けられているが被写体の年齢や学年などのその時々によって変化する情報である。なお、本発明の実施形態において、被写体属性データと被写体関連データの両方を合わせて被写体データと呼ぶ。
図3に示すデータテーブルにおいて、アイコンA~Cには、それぞれ1名の被写体データが関連付けられている。例えば、アイコンAには、被写体属性データとして名前「太郎」、生年月日「○年○月○日」、被写体関連データとして年齢「10ヶ月」が関連付けられている。また、アイコンBには、被写体属性データとして名前「花子」、生年月日「×年×月×日」、被写体関連データとして学年「小学3年生」が関連付けられている。また、アイコンCには、被写体属性データとして名前「一郎」、生年月日「△年△月△日」、被写体関連データとして年齢「10歳」が関連付けられている。この図で示すデータテーブルにおいて、アイコンDのように、1つのアイコンに「太郎」と「花子」の2名の被写体データが関連付けられていてもよいし、1つのアイコンに3名以上の被写体が関連付けられていてもよい。
図4に示すデータテーブルにおいて、アイコンAには設定Aと顔特徴データAとが関連付けられている。同様に、このデータテーブルにおいて、アイコンBには設定Bと顔特徴データBとが、アイコンCには設定Cと顔特徴データCとが、アイコンDには設定Dと顔特徴データDとがそれぞれ関連付けられている。
図3で示したように、アイコンAに関連付けられている被写体が「太郎」の場合、図4に示すデータテーブルにおける顔特徴データAは、被写体である「太郎」を特定するための顔のパーツの相対位置や大きさ、目や鼻や頬骨や顎の形状といった顔の特徴を示す。設定Aは、顔特徴データAを利用して顔認識などを行うか否かを決定するパラメータを含む情報であり、このパラメータはユーザにより設定される。また、設定Aは、被写体データに基づいた所定のタイトル、例えば「太郎10ヶ月」という文字を出力部110に表示するか否かを決定するパラメータを含む情報である。また、設定B、C、D、・・・も同様のパラメータを含む情報であり、ユーザにより設定される。
ユーザが「太郎」を撮影する際に、まず、ユーザは、画像記録装置10を起動する操作を行う。ここでのユーザ操作は、例えば、ユーザがスマートフォンの電源スイッチをスライドしたり、スマートフォンの電源ボタンを押下したりするなどしてスマートフォンを起動する場合と同様の操作である。画像記録装置10は、そのユーザ操作に応じて起動する。次に、画像記録装置10の出力制御部107は、出力部110に初期画面を表示する。ここでユーザは、アイコンAが出力部110に表示されるように、ファルダを移動するなどの操作を行う。図3および図4を参照して説明したように、アイコンAには「太郎」についての被写体データと、画像記録装置10に「太郎」を顔認識させ、「太郎」についての被写体データに基づいて種々の情報を画像に表示させるための設定Aと、「太郎」を顔認識する際に使用する顔特徴データAとが関連付けられている。
ユーザがアイコンAをタップする操作を行い画像記録装置10において設定Aが有効になった場合、類似度判定部105は、図5Aで示すように、画像顔認識技術などにより被写体を「太郎」と認識し、表示設定がオンの時に被写体情報出力制御部104は出力部110に表示された「太郎」の顔の付近に年齢として「10ヶ月」という文字を表示する。また、被写体情報出力制御部104は、被写体および年齢に応じたタイトル「太郎10ヶ月」という文字を出力部110に表示する。
また、ユーザが「太郎」と「花子」とを撮影する際に、ユーザはアイコンDをタップする操作を行い、画像記録装置10において設定Dを有効にする。この場合、類似度判定部105は、図5Dに示すように、画像顔認識技術などにより被写体を「太郎」と「花子」と認識し、被写体情報出力制御部104は出力部110に表示された「太郎」の顔の付近に年齢に応じた「10ヶ月」という文字と続柄に応じた「弟」という文字を表示する。また、被写体情報出力制御部104は、出力部110に表示された「花子」の顔の付近に学年に応じた「小学3年生」という文字と続柄に応じた「姉」という文字を表示する。同様に、ユーザが「花子」を撮影する際に、アイコンBをタップする操作を行い画像記録装置10において設定Bを有効にすると、図5Bで示すような画像が出力部110に表示される。ユーザが「一郎」を撮影する際に、アイコンCをタップする操作を行い画像記録装置10において設定Cを有効にすると、図5Cで示すような画像が出力部110に表示される。
次に、画像記録装置10の画像データ取得部103が画像記録装置10の外部のカメラによりオートフォーカスされた画像データを取得する(ステップS4)。このステップS4は繰り返され、ステップS4の処理により、その時に取得した画像を順次表示している。
画像データ取得部103は、外部から画像データを取得すると、その画像データを出力制御部107に出力する。出力制御部107は、入力した画像データを出力部110の表示部1101に出力する(ステップS5)。このとき、出力制御部107は、入力した画像データにおいて「太郎」の顔特徴データを抽出する(ステップS6)。出力制御部107は、抽出した「太郎」の顔特徴データを類似度判定部105に出力する。このとき、類似度判定部105は、ステップS3で取得した、アイコンAに対応する「太郎」の顔の特徴を示す顔特徴データAと、出力制御部107から入力した顔特徴データとを幾何学的な比較や画像を統計的に数値化した比較を行う。前述したように、顔特徴データとは、例えば、顔のパーツの相対位置や大きさ、目や鼻や頬骨や顎の形状を示すデータである。類似度判定部105は、顔特徴データAと出力制御部107からの顔特徴データとの比較結果である類似度が所定のしきい値を超えるか否かを判定する(ステップS7)。
この類似度が所定のしきい値を超えなかった場合(「NO」の場合)、類似度判定部105は、出力制御部107から入力した画像データに「太郎」が写っていないと判定し、ステップS6の処理に戻る。類似度が所定のしきい値を超えた場合(「YES」の場合)、類似度判定部105は、出力制御部107から入力した画像データに「太郎」が写っていると判定する。
出力制御部107は、ステップS6で抽出した顔特徴データに基づいて、被写体である「太郎」が正面を向いたか否かを判定する(ステップS8)。この判定は、既存の顔認識技術を用いて行うことができる。「太郎」が正面を向いていないと出力制御部107が判定した場合(「NO」の場合)、ステップS8の処理を繰り返す。「太郎」が正面を向いたと出力制御部107が判定した場合(「YES」の場合)、出力制御部107は、連写を指示する連写信号を画像データ取得部103に出力する。
この連写信号に応答して、画像データ取得部103は、連写を開始する(ステップS9)。次に、画像データ取得部103は、連写した画像を出力制御部107に出力する。出力制御部107は連写した画像を入力すると、入力した画像の中から最も良い画像を特定する(ステップS10)。ここで出力制御部107の行う最も良い画像の特定は、笑顔度が最も良い画像、瞬きをしていない画像、画質が最も良い画像、ユーザが選択した画像などを基準とするものであり、既知の技術を利用して選択することができる。
次に、出力制御部107は、特定した最も良い画像を類似度判定部105と被写体属性データ記録部106に出力する。類似度判定部105は、特定した最も良い画像データを入力すると、入力した画像範囲における「太郎」の被写体データの表示位置を特定し、その表示位置座標データを画像データに付加して被写体情報出力制御部104に出力する。被写体情報出力制御部104は、位置座標データの付加された画像データを入力すると、入力した位置座標に基づいて、出力制御部107が出力部110に出力する「太郎」の画像にステップS2の処理で入力した「太郎」の被写体データを関連付けて出力部110に出力する(ステップS11)。このときの出力部110が出力する画像は、例えば、図5Aで示したような画像であり、被写体データに基づく名前や年齢などが被写体の顔の近くに表示される。
なお、出力部110が出力する画像において、被写体の顔の近くには、被写体属性データまたは被写体関連データの何れか一方であってもよい。また、被写体情報出力制御部104は、ユーザが出力部110における表示箇所に対してフリック操作などのユーザ操作に基づいて、被写体の顔の近くに表示された被写体データの出力位置を変更してもよい。また、被写体データに基づく情報はexif情報や画像のタイトルとして付加してもよく、どのような情報を付加するかは予めユーザが決定すればよい。
被写体情報出力制御部104は、ステップS11の処理と同じデータを被写体属性データ記録部106にも出力する。被写体属性データ記録部106は、出力制御部107から取得した画像データと「太郎」の被写体データとを関連付けて記憶部111に記録する(ステップS12)。
次に、本発明の第二の実施形態による画像記録装置10について説明する。
本実施形態において、第一の実施形態とは異なるユーザ操作により画像記録装置10の設定を行う場合を例に説明する。なお、ここでは、ユーザは「太郎」と「花子」を撮影するための操作を行うものとする。
本発明の第二の実施形態による画像記録装置10の構成は、図2で示した第一の実施形態による画像記録装置10の構成と同一であるため、同一符号を付し、その説明を省略する。
この図で示すアイコンAとアイコンBとは図3と図4とで示したアイコンAとアイコンBと各々同一である。したがって、この図で示すアイコンAは、「太郎」を特定し、「太郎」の被写体データを表示するように画像記録装置10を動作させる際に、ユーザが選択するアイコンである。また、この図で示すアイコンBは、「花子」を特定し、「花子」の被写体データを表示するように画像記録装置を動作させる際に、ユーザが選択するアイコンである。
図7Aに示すように、ユーザが2つのアイコンを同時にタップすると、画像記録装置10において「太郎」と「花子」との設定が同時に行われる。すなわち、図3と図4におけるアイコンDと同様の設定が画像記録装置10に対して行われる。ここでユーザの行う操作は、図7Bに示すように、一方のアイコンを他方のアイコンへフリックする、あるいは、図7Cに示すように、アイコンを合わせるようにフリックするものであってもよい。
画像記録装置10の模擬画像出力制御部101は、上述したアイコンAと、「アイコンBとを出力部110に表示する(ステップS13)。なお、模擬画像出力制御部101は、出力部110にアイコンAとアイコンB以外のアイコンを表示するようにしてもよい。ユーザが出力部110に表示されているアイコンAとアイコンBを同時にタップすると、その同時タップ操作に応じて、画像記録装置10の出力部110は、アイコンAとアイコンBが同時タップされたことを示す同時タップ信号を被写体データ取得部102と類似度判定部105とに出力する。被写体データ取得部102は、同時タップ信号を入力すると、アイコンAとアイコンBとに対応する被写体データを記憶部111から取得し、取得した被写体データを被写体情報出力制御部104に出力する(ステップS14)。画像記録装置10の類似度判定部105は、同時タップ信号を入力すると、アイコンAに対応する顔特徴データAとアイコンBに対応する顔特徴データBを記憶部111から取得する(ステップS15)。
次に、画像記録装置10の画像データ取得部103が画像記録装置10の外部のカメラによりオートフォーカスされた画像データを取得する(ステップS4)。このステップS4は繰り返され、ステップS4の処理により、その時に取得した画像を順次表示する。
画像データ取得部103は、外部から画像データを取得すると、その画像データを出力制御部107に出力する。出力制御部107は、入力した画像データを出力部110の表示部1101に出力する(ステップS5)。また、このとき、出力制御部107は、入力した画像データにおいて「太郎」と「花子」の顔特徴データを抽出する(ステップS16)。そして、出力制御部107は、抽出した「太郎」と「花子」の顔特徴データを類似度判定部105に出力する。また、このとき、類似度判定部105は、ステップS15で取得した、アイコンAに対応する「太郎」の顔の特徴を示す顔特徴データAおよびアイコンBに対応する「花子」の顔の特徴を示す顔特徴データBと、出力制御部107から入力した「太郎」と「花子」の顔特徴データとを幾何学的な比較や画像を統計的に数値化した比較を行い、比較結果である類似度が所定のしきい値を超えるか否かを判定する(ステップS17)。
この類似度が所定のしきい値を超えなかった場合(「NO」の場合)、類似度判定部105は、出力制御部107から入力した画像データに「太郎」と「花子」が写っていないと判定し、ステップS17の処理に戻る。また、類似度が所定のしきい値を超えた場合(「YES」の場合)、類似度判定部105は、出力制御部107から入力した画像データに「太郎」と「花子」が写っていると判定する。
出力制御部107は、ステップS16で抽出した「太郎」と「花子」との顔特徴データに基づいて、被写体である「太郎」と「花子」とが正面を向いたか否かを判定する(ステップS18)。この判定は、既存の顔認識技術を用いて行うことができる。「太郎」と「花子」とが正面を向いていないと出力制御部107が判定した場合(「NO」の場合)、ステップS18の処理を繰り返す。「太郎」と「花子」とが正面を向いたと出力制御部107が判定した場合(「YES」の場合)、出力制御部107は、連写を指示する連写信号を画像データ取得部103に出力する。
この連写信号に応答して、画像データ取得部103は、連写を開始する(ステップS9)。次に、画像データ取得部103は、連写した画像を出力制御部107に出力する。出力制御部107は連写した画像を入力すると、入力した画像の中から最も良い画像を特定する(ステップS10)。ここで出力制御部107の行う最も良い画像の特定は、笑顔度が最も良い画像、瞬きをしていない画像、画質が最も良い画像、ユーザが選択した画像などを基準とするものであり、既知の技術を利用して選択することができる。
次に、出力制御部107は、特定した最も良い画像を類似度判定部105と被写体属性データ記録部106に出力する。類似度判定部105は、特定した最も良い画像データを入力すると、入力した画像範囲における「太郎」と「花子」の被写体データの表示位置を特定し、その表示位置座標データを画像データに付加して被写体情報出力制御部104に出力する。被写体情報出力制御部104は、位置座標データの付加された画像データを入力すると、入力した位置座標に基づいて、出力制御部107が出力部110に出力する「太郎」と「花子」の画像にステップS2の処理で入力した「太郎」と「花子」の被写体データを関連付けて出力部110に出力する(ステップS19)。このときの出力部110が出力する画像は、例えば、図5Dで示したような画像であり、被写体データに基づく名前や年齢などが被写体の顔の近くに表示される。
なお、被写体情報出力制御部104は、ユーザが出力部110における表示箇所に対してフリック操作などのユーザ操作に基づいて、被写体の顔の近くに表示された被写体データの出力位置を変更してもよい。また、被写体データに基づく情報はexif情報や画像のタイトルとして付加してもよく、どのような情報を付加するかは予めユーザが決定すればよい。
被写体情報出力制御部104は、ステップS11の処理と同じデータを被写体属性データ記録部106に出力する。そして、被写体属性データ記録部106は、出力制御部107から取得した画像データと「太郎」と「花子」の被写体データとを関連付けて記憶部111に記録する(ステップS20)。
また、本実施形態におけるステップS18の判定の代わりに、ユーザが撮影を行うためにシャッタを切る操作であってもよい。また、本実施形態におけるステップS9のように必ずしも連写である必要はなく、1枚以上の撮影であってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
101・・・模擬画像出力制御部
102・・・被写体データ取得部
103・・・画像データ取得部
104・・・被写体情報出力制御部
105・・・類似度判定部
106・・・被写体属性データ記録部
107・・・出力制御部
110・・・出力部
111・・・記憶部
Claims (7)
- 被写体を表す模擬画像である被写体模擬画像を出力部に表示する模擬画像出力制御部と、
前記被写体模擬画像に関連付けて記録された被写体属性データ及び前記被写体属性データに関連する被写体関連データを記憶する記憶部と、
前記出力部に表示された前記被写体模擬画像に対する指示操作に基づいて、前記記憶部から前記被写体属性データ及び前記被写体関連データの何れか一方または両方を読み出す被写体データ取得部と、
前記被写体の撮影により生成された画像データを取得する画像データ取得部と、
前記被写体データ取得部が読み出した前記被写体属性データ及び前記被写体関連データの何れか一方または両方を前記出力部に表示された前記画像データに関連付けて出力する被写体情報出力制御部と、
を備える画像記録装置。 - 前記被写体属性データに含まれる顔特徴データと、前記画像データ取得部が取得した画像データから抽出した顔特徴データとを比較し類似度を判定する類似度判定部を備え、
前記被写体情報出力制御部は、前記類似度判定部の判定する類似度に基づいて前記被写体属性データ及び前記被写体関連データの何れか一方または両方を前記出力部に出力された前記画像データに関連付けて出力する
請求項1に記載の画像記録装置。 - 前記類似度判定部が判定する類似度が予め定められた閾値よりも高い場合に、前記出力部に出力している被写体属性データ及び前記被写体関連データの何れか一方または両方と前記出力部に出力された前記画像データとを関連付けて記憶部に記録する被写体属性データ記録部を備える請求項2に記載の画像記録装置。
- 前記模擬画像出力制御部は、前記出力部に前記被写体模擬画像を複数表示し、
前記被写体情報出力制御部は、前記被写体模擬画像に対する指示操作の対象となる前記被写体模擬画像に対応する被写体の被写体属性データ及び前記被写体関連データの何れか一方または両方を前記記憶部から読み出し、読み出した被写体属性データ及び前記被写体関連データの何れか一方または両方をそれぞれ対応する被写体の画像データに関連付けて出力する
請求項1から請求項3の何れか一項に記載の画像記録装置。 - 前記被写体情報出力制御部は、前記出力部に出力している前記被写体属性データ及び前記被写体関連データの何れか一方または両方に対する指示操作に基づいて、当該被写体属性データ及び前記被写体関連データの何れか一方または両方の出力部における出力位置を変更する
請求項1から請求項4の何れか一項に記載の画像記録装置。 - 被写体を表す模擬画像である被写体模擬画像を出力部に表示し、
前記出力部に表示された前記被写体模擬画像に対する指示操作に基づいて、記憶部から前記被写体模擬画像に関連付けて記録された被写体属性データ及び前記被写体属性データに関連する被写体関連データの何れか一方または両方を読み出し、
前記被写体の撮影により生成された画像データを取得し、
前記読み出された被写体属性データ及び前記被写体関連データの何れか一方または両方を前記出力部に表示された前記画像データに関連付けて出力する、
画像記録方法。 - 画像記録装置のコンピュータを、
被写体を表す模擬画像である被写体模擬画像を出力部に表示する模擬画像出力制御部、
前記出力部に表示された前記被写体模擬画像に対する指示操作に基づいて、記憶部から前記被写体模擬画像に関連付けて記録された被写体属性データ及び前記被写体属性データに関連する被写体関連データの何れか一方または両方を読み出す被写体データ取得部、
前記被写体の撮影により生成された画像データを取得する画像データ取得部、
前記被写体データ取得手段が読み出した前記被写体属性データ及び前記被写体関連データの何れか一方または両方を前記出力部に表示された前記画像データに関連付けて出力する被写体情報出力制御部、
として機能させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015508242A JPWO2014156568A1 (ja) | 2013-03-28 | 2014-03-07 | 画像記録装置、画像記録方法及びプログラム |
US14/779,086 US20160050387A1 (en) | 2013-03-28 | 2014-03-07 | Image recording device and image recording method |
EP14773338.0A EP2981059A4 (en) | 2013-03-28 | 2014-03-07 | PICTURE RECORDING DEVICE, IMAGE RECORDING PROCESS AND PROGRAM |
CN201480017881.6A CN105229999A (zh) | 2013-03-28 | 2014-03-07 | 图像记录装置、图像记录方法以及程序 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-068312 | 2013-03-28 | ||
JP2013068312 | 2013-03-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014156568A1 true WO2014156568A1 (ja) | 2014-10-02 |
Family
ID=51623554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2014/055999 WO2014156568A1 (ja) | 2013-03-28 | 2014-03-07 | 画像記録装置、画像記録方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160050387A1 (ja) |
EP (1) | EP2981059A4 (ja) |
JP (1) | JPWO2014156568A1 (ja) |
CN (1) | CN105229999A (ja) |
WO (1) | WO2014156568A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015159511A (ja) * | 2014-02-25 | 2015-09-03 | オリンパス株式会社 | 撮影機器及び画像記録方法 |
KR102230267B1 (ko) * | 2014-09-04 | 2021-03-19 | 삼성전자주식회사 | 영상 표시 장치 및 방법 |
US9936127B2 (en) * | 2015-11-02 | 2018-04-03 | Paypal, Inc. | Systems and methods for providing attention directing functions in an image capturing device |
JP2019200729A (ja) * | 2018-05-18 | 2019-11-21 | シャープ株式会社 | 電子機器、制御装置、制御方法、及びプログラム |
WO2021020010A1 (ja) | 2019-07-26 | 2021-02-04 | 富士フイルム株式会社 | 撮像素子、撮像装置、撮像素子の作動方法、及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005109569A (ja) | 2003-09-26 | 2005-04-21 | Fuji Photo Film Co Ltd | 撮影装置 |
JP2006101111A (ja) * | 2004-09-29 | 2006-04-13 | Casio Comput Co Ltd | 撮影装置及びプログラム |
JP2007150603A (ja) * | 2005-11-25 | 2007-06-14 | Nikon Corp | 電子カメラ |
JP2007228608A (ja) * | 2007-03-27 | 2007-09-06 | Fujifilm Corp | デジタルスチルカメラ及びその制御方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1962497B1 (en) * | 2005-11-25 | 2013-01-16 | Nikon Corporation | Electronic camera and image processing device |
US7694885B1 (en) * | 2006-01-26 | 2010-04-13 | Adobe Systems Incorporated | Indicating a tag with visual data |
US8780227B2 (en) * | 2007-04-23 | 2014-07-15 | Sharp Kabushiki Kaisha | Image pick-up device, control method, recording medium, and portable terminal providing optimization of an image pick-up condition |
JP5274357B2 (ja) * | 2008-06-16 | 2013-08-28 | キヤノン株式会社 | 認証装置、撮像装置、認証方法、および、そのプログラム |
JP5402026B2 (ja) * | 2009-01-30 | 2014-01-29 | 株式会社ニコン | 電子カメラおよび画像処理プログラム |
-
2014
- 2014-03-07 US US14/779,086 patent/US20160050387A1/en not_active Abandoned
- 2014-03-07 EP EP14773338.0A patent/EP2981059A4/en not_active Withdrawn
- 2014-03-07 WO PCT/JP2014/055999 patent/WO2014156568A1/ja active Application Filing
- 2014-03-07 JP JP2015508242A patent/JPWO2014156568A1/ja active Pending
- 2014-03-07 CN CN201480017881.6A patent/CN105229999A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005109569A (ja) | 2003-09-26 | 2005-04-21 | Fuji Photo Film Co Ltd | 撮影装置 |
JP2006101111A (ja) * | 2004-09-29 | 2006-04-13 | Casio Comput Co Ltd | 撮影装置及びプログラム |
JP2007150603A (ja) * | 2005-11-25 | 2007-06-14 | Nikon Corp | 電子カメラ |
JP2007228608A (ja) * | 2007-03-27 | 2007-09-06 | Fujifilm Corp | デジタルスチルカメラ及びその制御方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP2981059A4 |
Also Published As
Publication number | Publication date |
---|---|
US20160050387A1 (en) | 2016-02-18 |
JPWO2014156568A1 (ja) | 2017-02-16 |
EP2981059A1 (en) | 2016-02-03 |
EP2981059A4 (en) | 2016-09-07 |
CN105229999A (zh) | 2016-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102230267B1 (ko) | 영상 표시 장치 및 방법 | |
JP6529267B2 (ja) | 情報処理装置及びその制御方法、プログラム、並びに記憶媒体 | |
KR101501028B1 (ko) | 개체가 삽입된 이미지를 생성하고 편집하는 방법 및 그 장치 | |
WO2022228412A1 (zh) | 拍摄方法、装置和电子设备 | |
CN106034206B (zh) | 电子设备及图像显示方法 | |
WO2014156568A1 (ja) | 画像記録装置、画像記録方法及びプログラム | |
US20160253298A1 (en) | Photo and Document Integration | |
US10459976B2 (en) | Method, apparatus and system for applying an annotation to a portion of a video sequence | |
JP2015126502A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2012165277A (ja) | 撮像装置及びその制御方法、プログラム並びに記憶媒体 | |
JP2017162371A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5820237B2 (ja) | コンテンツ管理システム、操作装置およびそれらの制御方法、プログラム | |
JP2006314010A (ja) | 画像処理装置及び画像処理方法 | |
US9736380B2 (en) | Display control apparatus, control method, and storage medium | |
US9591253B2 (en) | Imaging apparatus and method for controlling imaging apparatus | |
JP5818634B2 (ja) | コンテンツ管理装置、記録装置、操作装置、コンテンツ管理システムおよびそれらの制御方法 | |
EP3343562A1 (en) | Image management method and apparatus | |
JP6566804B2 (ja) | 電子機器、方法及びプログラム並びに記憶媒体 | |
US11363190B2 (en) | Image capturing method and device | |
US10122929B2 (en) | Digital image processing device which creates and displays an augmented reality (AR) image | |
JP6168133B2 (ja) | 情報処理端末、制御方法、プログラム | |
JP6150538B2 (ja) | 動画記録装置及びその制御方法 | |
JP2016110573A (ja) | 画像検索装置、画像検索方法及び画像検索プログラム | |
TWI590186B (zh) | 影像擷取裝置及其影像處理方法 | |
JP2006310944A (ja) | 撮影装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 201480017881.6 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14773338 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2015508242 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14779086 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
REEP | Request for entry into the european phase |
Ref document number: 2014773338 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2014773338 Country of ref document: EP |