[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2019208915A1 - 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법 - Google Patents

외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법 Download PDF

Info

Publication number
WO2019208915A1
WO2019208915A1 PCT/KR2019/001186 KR2019001186W WO2019208915A1 WO 2019208915 A1 WO2019208915 A1 WO 2019208915A1 KR 2019001186 W KR2019001186 W KR 2019001186W WO 2019208915 A1 WO2019208915 A1 WO 2019208915A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
posture
image
camera
processor
Prior art date
Application number
PCT/KR2019/001186
Other languages
English (en)
French (fr)
Inventor
이정재
구본민
김태균
이봉열
이우성
임배석
최윤형
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2019208915A1 publication Critical patent/WO2019208915A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Definitions

  • Various embodiments relate to an electronic device and a method thereof for obtaining an image using a plurality of cameras through adjustment of the position of an external device.
  • Such an electronic device may be exposed through at least a portion of a first camera exposed through at least a portion of a first surface on which the display of the electronic device is disposed and at least a portion of a second surface distinct from the first surface to provide a photographing function.
  • a second camera can be equiped.
  • An electronic device may include a plurality of cameras.
  • a first camera of the plurality of cameras is disposed on the same side as the display of the electronic device, while a second camera of the plurality of cameras is different from the side on which the display is disposed. May be disposed on a face.
  • the user may acquire an image to be obtained through the second camera due to the arrangement of the first camera and the second camera. You may not be able to see the preview image for.
  • An electronic device may include a housing, a display exposed through at least a portion of the first side of the housing, and a first exposed through at least another portion of the first side.
  • a camera a second camera exposed through at least a portion of the second surface opposite to the first surface, an interface for connecting to an external electronic device, and a processor, wherein the processor includes: Confirming a request for execution of a specified shooting mode while connected to the external electronic device through the interface, and executing one or more objects acquired through the first camera with respect to one or more objects during execution of the designated shooting mode; Displaying one preview images using the display, and based on the one or more first preview images, Display one or more second preview images obtainable through the second camera using the display, confirm a request for photographing using the second camera, and based at least on the request for photographing using the second camera.
  • the camera may be configured to acquire one or more images associated with the one or more objects based at least on the one or more second preview images.
  • an electronic device may include a memory for storing instructions, a communication module, a first camera disposed in a first direction, and a second direction different from the first direction.
  • a second camera a display visually exposed in the first direction, and at least one processor, wherein the at least one processor is a preview image of a first image acquired through the first camera Is displayed using the display, and while displaying the preview image, an input indicating that a second image having a second composition corresponding to a first composition of the first image is to be obtained through the second camera; And receiving the second posture from the first posture to a device that mounts the electronic device in a first position based on the reception.
  • Request to change to a second posture using the communication module identify that the posture of the electronic device is changed from the first posture to the second posture, and based on the identification, the first through the second camera It may be set to execute the stored instructions to obtain the second image having a two composition.
  • An electronic device may include a memory for storing instructions, a communication module, a first camera disposed in a first direction, a second camera disposed in a second direction different from the first direction, And a display visually exposed in the first direction, and at least one processor, wherein the at least one processor uses the display to display a preview image of the first image acquired through the first camera. Display the first image through the first camera, based on identifying whether the input received while displaying the preview image is a first input or a second input, and identifying that the input is the first input.
  • the first posture Request a change to the second posture using the communication module, identify that the posture of the electronic device is changed to the second posture, and based on the identification, a first composition of the first image through the second camera May be set to execute the stored instructions to obtain a second image having a second composition corresponding to.
  • An apparatus for mounting an electronic device may include a housing, a coupling portion disposed in the housing, configured to secure the electronic device, disposed in the housing, and an azimuth. a first motor configured to change the attitude of the electronic device by adjusting an angle, a second motor disposed in the housing and set to change the attitude of the electronic device by adjusting an elevation angle; A communication module disposed within the housing, and a processor disposed within the housing, the processor operatively coupled with the first motor, the second motor, and the communication module, wherein the processor is configured to include the first device of the electronic device.
  • a preview image of the first image acquired through the camera is displayed using the display of the electronic device and Used to request to change the first posture from the electronic device mounted in a first posture to a second posture for obtaining a second image having a second composition corresponding to the first composition of the first image; Receiving a signal including information for indicating the second posture by using the communication module, and based on at least the information, at least one of the azimuth angle and the altitude angle of the first motor or the second motor.
  • the posture of the electronic device is changed to the second posture, and a signal for indicating that the change to the second posture is completed is transmitted to the electronic device using the communication module. It can be set to.
  • a method of an electronic device may include: identifying a request for execution of a specified shooting mode while connected to an external electronic device through an interface of the electronic device, and performing one or more of the execution of the designated shooting mode.
  • One or more first preview images obtained through a first camera exposed through at least a portion of a first side of the housing of the electronic device in relation to objects using a display exposed through at least another portion of the first side.
  • the method may include acquiring the second image having the second composition through a second camera of the electronic device arranged in a second direction different from the first direction.
  • the method may include obtaining a second image having a second composition corresponding to the first composition of the first image through a second camera of the electronic device arranged in a second direction distinguished in a first direction.
  • a method of mounting an electronic device may include displaying a preview image of a first image acquired through a first camera of the electronic device using a display of the electronic device, and displaying the device.
  • Request to change the first posture from the electronic device mounted in the first posture to a second posture for obtaining a second image having a second composition corresponding to the first composition of the first image And receiving at least one of the azimuth angle and the altitude angle based at least on the information, the signal being used to receive a signal comprising information for indicating the second posture.
  • Changing the posture of the electronic device to the second posture by adjusting by using at least one of the two motors, and changing to the second posture And transmitting a signal to the electronic device to indicate that the alarm is completed.
  • an electronic device and a method thereof may be configured by adjusting a posture of the electronic device based on a user input received while displaying a preview image for a first image acquired through a first camera.
  • a second image having a second composition corresponding to the first composition of the first image may be acquired through a second camera having characteristics different from those of the first camera.
  • FIG. 1 is a block diagram of an electronic device in a network environment that may acquire an image using a plurality of cameras through posture adjustment of an external device according to various embodiments.
  • FIG. 2 is a block diagram of a camera module of an electronic device capable of acquiring an image using a plurality of cameras through posture adjustment of an external device according to various embodiments.
  • FIG 3 illustrates an example of an environment including an electronic device and an apparatus that passes through the electronic device according to various embodiments.
  • FIG. 4 illustrates an example of a device that mounts an electronic device according to various embodiments.
  • FIG. 5 illustrates an example of a configuration of an electronic device according to various embodiments.
  • 6A illustrates an example of an operation of an electronic device according to various embodiments.
  • 6B illustrates another example of an operation of an electronic device according to various embodiments.
  • FIG. 7 illustrates an example of an arrangement state between an electronic device and a device according to various embodiments.
  • FIG. 8 illustrates an example of an operation of an electronic device that identifies a change in posture according to various embodiments.
  • FIG. 9 illustrates another example of an operation of an electronic device for identifying that a change of posture is completed according to various embodiments.
  • FIG. 10 illustrates an example of an operation of an electronic device displaying a visual object for representing a second image, according to various embodiments.
  • FIG. 11 illustrates an example of a visual object displayed on an electronic device according to various embodiments of the present disclosure.
  • FIG. 12 illustrates another example of a visual object displayed in an electronic device according to various embodiments of the present disclosure.
  • FIG. 13 illustrates an example of an operation of an electronic device performed after acquiring the second image, according to various embodiments.
  • FIG. 14 is a view illustrating another example of an arrangement state between an electronic device and a device according to various embodiments.
  • 15 illustrates an example of an operation of an electronic device to switch a state of a display according to various embodiments.
  • 16 illustrates an example of an operation of an electronic device to receive an input indicating to acquire a second image, according to various embodiments.
  • FIG 17 illustrates an example of an operation of an electronic device that performs voice recognition according to various embodiments.
  • FIG 18 illustrates an example of an operation of an electronic device that guides photographing of an image, according to various embodiments.
  • FIG 19 illustrates another example of an operation of an electronic device according to various embodiments of the present disclosure.
  • FIG 20 illustrates an example of the operation of an apparatus according to various embodiments.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 that may acquire an image using a plurality of cameras through posture adjustment of an external device according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (for example, near field communication), or the second network 199 ( For example, it may communicate with the electronic device 104 or the server 108 through remote wireless communication.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 may include a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module ( 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, and antenna module 197. ) May be included.
  • a sensor module 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, and antenna module 197.
  • the components for example, the display device 160 or the camera module 180
  • some components such as, for example, in the case of a sensor module 176 (eg, fingerprint sensor, iris sensor, or illuminance sensor) embedded in the display device 160 (eg, display), It can be integrated.
  • the processor 120 may drive at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120 by driving software (eg, the program 140). It can control and perform various data processing and operations.
  • the processor 120 loads and processes the command or data received from another component (eg, the sensor module 176 or the communication module 190) into the volatile memory 132, and processes the result data in the nonvolatile memory 134.
  • the processor 120 operates independently of the main processor 121 (eg, central processing unit or application processor), and additionally or alternatively, uses less power than the main processor 121, Or a coprocessor 123 specialized for a designated function (eg, a graphics processing unit, an image signal processor, a sensor hub processor, or a communication processor).
  • the coprocessor 123 may be operated separately from the main processor 121 or embedded.
  • the coprocessor 123 may, for example, replace the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg At least one of the elements of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module) together with the main processor 121 while in the application execution state. 190) may control at least some of the functions or states associated with).
  • the coprocessor 123 e.g., image signal processor or communication processor
  • is implemented as some component of another functionally related component e.g., camera module 180 or communication module 190. Can be.
  • the memory 130 may include various data used by at least one component of the electronic device 101 (for example, the processor 120 or the sensor module 176), for example, software (for example, the program 140). ), And input data or output data for a command related thereto.
  • the memory 130 may include a volatile memory 132 or a nonvolatile memory 134.
  • the program 140 is software stored in the memory 130 and may include, for example, an operating system 142, a middleware 144, or an application 146.
  • the input device 150 is a device for receiving a command or data to be used for a component (for example, the processor 120) of the electronic device 101 from the outside (for example, a user) of the electronic device 101.
  • a component for example, the processor 120
  • the input device 150 may include a microphone, a mouse, or a keyboard.
  • the sound output device 155 is a device for outputting sound signals to the outside of the electronic device 101.
  • the sound output device 155 may include a speaker used for general purposes such as multimedia playback or recording playback, and a receiver used only for receiving a call. It may include. According to one embodiment, the receiver may be formed integrally or separately from the speaker.
  • the display device 160 is a device for visually providing information to a user of the electronic device 101.
  • the display device 160 may include a display, a hologram device, a projector, and a control circuit for controlling the device.
  • the display device 160 may include a pressure sensor capable of measuring the intensity of the pressure on the touch circuitry or the touch.
  • the audio module 170 may bidirectionally convert a sound and an electrical signal. According to an embodiment, the audio module 170 acquires sound through the input device 150, or an external electronic device (for example, a wired or wireless connection with the sound output device 155 or the electronic device 101). Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • an external electronic device for example, a wired or wireless connection with the sound output device 155 or the electronic device 101. Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • the sensor module 176 may generate an electrical signal or data value corresponding to an operating state (eg, power or temperature) inside the electronic device 101 or an external environmental state.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, Or an illumination sensor.
  • the interface 177 may support a specified protocol that may be connected to an external electronic device (for example, the electronic device 102) by wire or wirelessly.
  • the interface 177 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • audio interface an audio interface
  • the connection terminal 178 is a connector for physically connecting the electronic device 101 and an external electronic device (for example, the electronic device 102), for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
  • an HDMI connector for example, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that can be perceived by the user through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and videos. According to an embodiment, the camera module 180 may include one or more lenses, an image sensor, an image signal processor, or a flash.
  • the power management module 188 is a module for managing power supplied to the electronic device 101, and may be configured, for example, as at least part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 is a device for supplying power to at least one component of the electronic device 101 and may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 establishes a wired or wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108), and establishes the established communication channel. It can support to perform communication through.
  • the communication module 190 may include one or more communication processors that support wired communication or wireless communication that operate independently of the processor 120 (eg, an application processor).
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a near field communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg A local area network (LAN) communication module, or a power line communication module, comprising a local area network such as a first network 198 (eg, Bluetooth, WiFi direct, or infrared data association) using a corresponding communication module. Communication with an external electronic device via a communication network) or a second network 199 (eg, a telecommunication network such as a cellular network, the Internet, or a computer network (eg, a LAN or a WAN)).
  • the various types of communication modules 190 described above may be implemented as one chip or each separate chip.
  • the wireless communication module 192 may distinguish and authenticate the electronic device 101 in the communication network using the user information stored in the subscriber identification module 196.
  • the antenna module 197 may include one or more antennas for transmitting or receiving signals or power from the outside.
  • the communication module 190 (for example, the wireless communication module 192) may transmit a signal to or receive a signal from an external electronic device through an antenna suitable for a communication method.
  • peripheral devices eg, a bus, a general purpose input / output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input / output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101.
  • all or some of the operations performed by the electronic device 101 may be executed by another one or a plurality of external electronic devices.
  • the electronic device 101 may instead or additionally execute the function or service by itself.
  • At least some associated functions may be requested to the external electronic device.
  • the external electronic device may execute the requested function or additional function and transmit the result to the electronic device 101.
  • the electronic device 101 may process the received result as it is or additionally to provide the requested function or service.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • FIG. 2 is a block diagram 200 of a camera module 180 of an electronic device capable of acquiring an image using a plurality of cameras by adjusting an attitude of an external device according to various embodiments.
  • the camera module 180 may include a lens assembly 210, a flash 220, an image sensor 230, an image stabilizer 240, a memory 250 (eg, a buffer memory), or an image signal processor. 260 may include.
  • the lens assembly 210 may collect light emitted from a subject that is a target of image capturing.
  • the lens assembly 210 may include one or more lenses.
  • the camera module 180 may include a plurality of lens assemblies 210.
  • the camera module 180 may be, for example, a dual camera, a 360 degree camera, or a spherical camera.
  • the plurality of lens assemblies 210 have the same lens properties (eg, angle of view, focal length, auto focus, f number, or optical zoom), or at least one lens assembly is at least as different as the lens lens assembly. It can have one different lens property.
  • the lens assembly 210 may include, for example, a wide angle lens or a telephoto lens.
  • the flash 220 may emit a light source used to enhance light emitted from a subject. Flash 220 may include one or more light emitting diodes (eg, red-green-blue (RGB) LEDs, white LEDs, infrared LEDs, or ultraviolet LEDs), or xenon lamps.
  • RGB red-green-blue
  • the image sensor 230 may acquire an image corresponding to the subject by converting light transmitted from the subject through the lens assembly 210 into an electrical signal.
  • the image sensor 230 is the same as one image sensor selected from among image sensors having different properties, such as, for example, an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor.
  • image sensors having different properties such as, for example, an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor.
  • Each image sensor included in the image sensor 230 may be implemented as, for example, a charged coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor.
  • CCD charged coupled device
  • CMOS complementary metal oxide semiconductor
  • the image stabilizer 240 responds to the movement of the camera module 180 or the electronic device 101 including the lens to compensate for at least some of the negative effects (eg, image shaking) caused by the movement on the captured image.
  • At least one lens or image sensor 230 included in the assembly 210 may be moved or controlled (eg, adjusting read-out timing, etc.) in a specific direction.
  • the image stabilizer 240 may be implemented as, for example, an optical image stabilizer, and may include a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module 180. ) To detect the movement.
  • the memory 250 may at least temporarily store at least a portion of the image acquired through the image sensor 230 for the next image processing task. For example, if the image acquisition by the shutter is delayed or a plurality of images are obtained at high speed, the obtained original image (eg, a high resolution image) is stored in the memory 250 and a corresponding copy thereof. An image (eg, a low resolution image) may be previewed through the display device 160. Thereafter, if a specified condition is satisfied (eg, a user input or a system command), at least a part of the original image stored in the memory 250 may be acquired and processed by, for example, the image signal processor 260. According to an embodiment, the memory 250 may be configured as a separate memory operated as at least a part of the memory 130 or independently of the memory 130.
  • the image signal processor 260 may perform image processing (eg, depth map generation, three-dimensional modeling, panorama generation, feature point extraction) on an image acquired through the image sensor 230 or an image stored in the memory 250.
  • Image compositing, or image compensation e.g., noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening, or softening.
  • the 260 may perform control (eg, exposure time control, readout timing control, etc.) of at least one of the components included in the camera module 180 (eg, the image sensor 230).
  • Images processed by the signal processor 260 may be stored back in the memory 250 for further processing or may be external components of the camera module 180 (eg, the memory 130, the display device 160, the electronic device). 102, the electronic device 104, or the server 108.
  • the image signal processor 260 may be configured as at least a portion of the processor 120, or may be connected to the processor 120. In the case of a separate processor, the images processed by the image signal processor 260 are processed by the processor 120 as it is or after additional image processing. 160 may be displayed.
  • the electronic device 101 may include two or more camera modules 180 having different properties or functions.
  • at least one camera module 180 may be a wide angle camera or a front camera, and at least one other camera module may be a telephoto camera or a rear camera.
  • Electronic devices may be various types of devices.
  • the electronic device may include, for example, at least one of a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smartphone
  • a computer device e.g., a laptop, a desktop, a tablet, or a smart bracelet
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a portable medical device
  • a home appliance e.g., a portable medical device
  • any (eg first) component is said to be “(functionally or communicatively)” or “connected” to another (eg second) component, the other component is said other
  • the component may be directly connected or connected through another component (eg, a third component).
  • module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits.
  • the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
  • the module may be configured as an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of this document include instructions stored in a machine-readable storage media (eg, internal memory 136 or external memory 138) that can be read by a machine (eg, a computer). It may be implemented in software (eg, program 140).
  • the device may be a device capable of calling a stored command from a storage medium and operating in accordance with the called command, and may include an electronic device (eg, the electronic device 101) according to the disclosed embodiments.
  • the processor for example, the processor 120
  • the processor may perform a function corresponding to the command directly or by using other components under the control of the processor.
  • the instructions can include code generated or executed by a compiler or interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-temporary' means that the storage medium does not include a signal and is tangible, and does not distinguish that data is stored semi-permanently or temporarily on the storage medium.
  • a method may be provided included in a computer program product.
  • the computer program product may be traded between the seller and the buyer as a product.
  • the computer program product may be distributed online in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)) or through an application store (eg Play StoreTM).
  • a device-readable storage medium eg compact disc read only memory (CD-ROM)
  • an application store eg Play StoreTM
  • at least a portion of the computer program product may be stored at least temporarily on a storage medium such as a server of a manufacturer, a server of an application store, or a relay server, or may be temporarily created.
  • Each component eg, a module or a program
  • some components eg, modules or programs
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least some of the operations may be executed in a different order, omitted, or another operation may be added. Can be.
  • the electronic device may include the electronic device 101 shown in FIG. 1, and the device may include the electronic device 102 shown in FIG. 1.
  • the environment 300 may include the electronic device 101 and / or the electronic device 102 to provide an enhanced environment for acquiring an image to a user.
  • the environment 300 including the electronic device 101 and the electronic device 102 may mean that the electronic device 101 and the electronic device 102 work together to acquire an image.
  • the electronic device 101 can provide information.
  • the electronic device 101 may include a display (for example, the display device 160 illustrated in FIG. 1) to provide information.
  • the display of the electronic device 101 may be included in a housing for mounting the components of the electronic device 101.
  • the display of the electronic device 101 may be exposed through at least a portion of the first surface of the housing.
  • the display of the electronic device 101 may be disposed in the first direction.
  • the electronic device 101 may provide a photographing function.
  • the electronic device 101 may include a plurality of cameras (eg, the camera module 180) to provide a photographing function.
  • a first camera of the plurality of cameras may include a direction (eg, a portion of a planar region) at which a portion (eg, a portion of a planar region) of the display is visually exposed.
  • the front camera may be referred to as a front camera in a side in which the optical axis of the first camera is aligned.
  • the second camera to be described later may be referred to as a rear camera.
  • the preview image for the image acquired through the first camera may be displayed on the display. Since the first camera is exposed through the same surface as the display, when the user acquires a selfie through the first camera, the user may acquire a preview image of the selfie while acquiring the selfie. This can be confirmed through the display. For example, after checking the composition of the selfie through the preview image, the user may acquire the selfie by using a photographing input to the electronic device 101.
  • the selfie may refer to a self-portrait photograph including a self that is obtained while the user photographs herself.
  • a second camera of the plurality of cameras is directed to a rear camera, in terms of being exposed through a surface that is directed in a direction opposite to the direction in which the display is disposed or opposite to a surface on which the display is exposed. Reference may be made.
  • the preview image for the image acquired through the second camera may be displayed on the display. Since the second camera is exposed through a surface distinct from the surface on which the display is exposed, when the user acquires a selfie through the second camera, the user previews the selfie while acquiring the selfie. The image may not be visible through the display. Since the second camera and the display are disposed on different surfaces, when the user acquires the selfie through the second camera, the user's field of view may not include the display. For example, a user may acquire the selfie by using a photographing input to the electronic device 101 in a state where the composition of the selfie is not confirmed through the preview image. The user may feel discomfort due to such unconfirmedness.
  • characteristics of the second camera may be different from characteristics of the first camera.
  • the number of pixels associated with the second camera may be greater than the number of pixels associated with the first camera.
  • the picture quality of the image acquired using the second camera may be higher than the picture quality of the image obtained using the first camera.
  • the range of the field of view of the second camera eg, field of view, angle of view, etc.
  • the range of zoom that can be provided through the second camera may be wider than the range of zoom that can be provided through the first camera.
  • the electronic device 101 may acquire an image (eg, selfie) using the plurality of cameras including the first camera and the second camera by interworking with the electronic device 102. Can be.
  • the electronic device 101 may communicate with the electronic device 102 by wire or by wireless to acquire the image.
  • the electronic device 101 may be operatively coupled to the electronic device 102 to obtain the selfie by using the first camera.
  • the electronic device 101 may be operatively coupled to the electronic device 102 to obtain the selfie by using the second camera.
  • a detailed description of the association between the electronic device 101 and the electronic device 120 will be described with reference to FIGS. 4 through 20.
  • the electronic device 102 may provide various resources to the electronic device 101.
  • the electronic device 102 may provide the electronic device 101 with a space in which the electronic device 101 can be mounted.
  • the electronic device 102 may include a coupling unit for the mounting.
  • the coupling unit may be disposed in a housing for mounting the components of the electronic device 102.
  • the electronic device 102 may mount the electronic device 101 through the coupling unit.
  • the electronic device 102 may be referred to as a dock in terms of passing through the electronic device 101.
  • the electronic device 102 may provide the electronic device 101 with a function related to obtaining an image.
  • the function related to obtaining the image may include adjusting a position of the electronic device 101 that acquires the image.
  • the electronic device 102 may include at least one motor to adjust the posture of the electronic device 101 mounted by the electronic device 102.
  • the at least one motor may include a first motor for adjusting a posture related to a first direction of the electronic device 101 mounted by the electronic device 102.
  • the first motor may be used to adjust an azimuth angle of the electronic device 101 mounted by the electronic device 102.
  • the azimuth angle may refer to an angle associated with a direction substantially horizontal to the surface on which the electronic device 102 is placed.
  • the electronic device 102 may adjust a posture related to the horizontal direction of the electronic device 101 mounted by the electronic device 102 by using the first motor.
  • the at least one motor may include a second motor for adjusting a posture related to a second direction of the electronic device 101 mounted by the electronic device 102.
  • the second motor may be used to adjust an elevation angle of the electronic device 101 mounted by the electronic device 102.
  • the elevation angle may refer to an angle associated with a direction substantially perpendicular to the plane on which the electronic device 102 is placed.
  • the electronic device 102 may adjust a posture related to the vertical direction of the electronic device 101 mounted by the electronic device 102 using the second motor.
  • the electronic device 101 may acquire an image based on a user input in a state of being mounted by the electronic device 102.
  • the electronic device 101 may acquire an image based on a user input in a state where the posture of the electronic device 101 is adjusted by the electronic device 102.
  • the electronic device 102 may provide power to the electronic device 101.
  • the electronic device 101 may be configured to be portable.
  • the electronic device 102 may provide power for charging a battery included in the electronic device 101 to provide portability.
  • the electronic device 102 may be electrically connected to the electronic device 101.
  • the electronic device 102 may be electrically connected to the electronic device 101 through a wireless communication path (for example, a communication path for wireless charging).
  • the electronic device 102 may be electrically connected to the electronic device 101 through a wired communication path (eg, a communication path (eg, USB) for wired charging).
  • the electronic device 102 may be implemented in various forms for mounting the electronic device 101.
  • the electronic device 102 may be set in a form that a user can carry (for example, a selfie stick). However, it is not limited to this.
  • FIGS. 4 illustrates an example of a device that mounts an electronic device according to various embodiments.
  • the electronic device mounted by the device may include the electronic device 101 illustrated in FIGS. 1 and 3, and the device mounted on the electronic device may include the electronic device illustrated in FIGS. 1 and 3. 102).
  • the device 102 includes a processor 410, a communication module 420, a first motor 430-1, a second motor 430-2, a microphone 440, or a speaker 450. It may include.
  • the processor 410 can include the processor 120 shown in FIG. 1, the communication module 420 can include the communication module 190 shown in FIG. 1, and the microphone 440 is shown in FIG. 1.
  • the input device 150 shown in FIG. 1 may be included, and the speaker 450 may include the sound output device 155 shown in FIG. 1.
  • the processor 410 may communicate with the communication module 420, the first motor 430-1, the second motor 430-2, and the microphone to control the overall operation of the device 102. 440, and operatively coupled to the speaker 450.
  • the processor 410 may communicate with the electronic device 101 carried by the device 102 using the communication module 420.
  • the processor 410 may request a signal from the electronic device 101 carried by the device 102 to change the position of the electronic device 101 carried by the device 102. Can be received.
  • the posture may refer to a posture of the electronic device 101 at a timing of obtaining an image (eg, selfie).
  • the signal is from the electronic device 101 based on the electronic device 101 or the user input to the device 102 for adjusting the posture of the electronic device 101 to obtain an image. May be sent to the device 102.
  • the electronic device 101 is set as a voice signal or gesture, receives a user input for the electronic device 101 for adjusting the posture of the electronic device 101, and based on the received user input. The signal can be sent to the device 102.
  • the device 102 may receive a user input for the device 102 set as a voice signal or gesture and transmit information about the received user input to the device 101.
  • the electronic device 101 may recognize the user input and transmit the signal to the device 102 based on the recognition.
  • it is not limited thereto.
  • the signal may be transmitted from the electronic device 101 to the device 102 to adjust the composition of an image to be obtained through the camera of the electronic device 101. In various embodiments, the signal may be transmitted from the electronic device 101 to the device 102 to obtain an image using a camera disposed on a surface different from the display of the electronic device 101.
  • the signal may include information about the posture of the electronic device 101 to be changed.
  • the signal may include data for specifying a posture of the electronic device 101 to be changed.
  • the signal may include data representing a difference value of the azimuth angle required to change the attitude of the electronic device 101.
  • the signal may include data representing a change value of the elevation angle required to change the posture of the electronic device 101.
  • the device 102 receives the signal using the communication module 420, and based on the data included in the signal and representing the change in the azimuth angle, the first motor 430-1. By controlling the, the posture of the electronic device 101 can be changed.
  • the device 102 receives the signal using the communication module 420, and based on the data included in the signal and representing the change in the elevation angle, the second motor 430-2. ), The attitude of the electronic device 101 can be changed.
  • the processor 410 may request the electronic device 101 mounted by the device 102 to change the position of the electronic device 101 according to the signal. Signal may be transmitted to indicate that the posture change is completed.
  • the processor 410 controls the posture of the electronic device 101 placed by the device 102 by controlling at least one of the first motor 430-1 or the second motor 430-2. Based on the completion of the change, a signal indicating that the change of the posture of the electronic device 101 is completed may be transmitted to the electronic device 101.
  • the processor 410 may receive a signal indicating that the acquisition of the image of the electronic device 101 is completed from the electronic device 101 mounted by the device 102.
  • the signal for indicating that the acquisition of the image of the electronic device 101 is completed the image of the posture of the electronic device 101 mounted by the device 102 after the acquisition of the image is completed. It can be used to restore the posture before acquisition of.
  • the signal may include information about a posture of the electronic device 101 to be restored.
  • the signal may include data for specifying a posture of the electronic device 101 to be restored.
  • the signal may include data representing a difference value of the azimuth angle required to restore the posture of the electronic device 101.
  • the signal may include data representing a change value of the elevation angle required to restore the posture of the electronic device 101.
  • the device 102 receives the signal using the communication module 420, and based on the data included in the signal and representing the change in the azimuth angle, the first motor 430-1. By controlling this, the posture of the electronic device 101 can be restored.
  • the device 102 receives the signal using the communication module 420, and based on the data included in the signal and representing the change in the elevation angle, the second motor 430-2. ), The posture of the electronic device 101 can be restored.
  • the device 102 may store or temporarily store information about the previous posture of the electronic device 101 in a buffer included in the device 102 to restore the posture of the electronic device 101. Can be stored.
  • the device 102 may restore the posture of the electronic device 101 based on the information temporarily stored in the buffer.
  • the device 102 may request to change the posture of the data (eg, the electronic device 101) included in a signal for requesting to change the posture of the electronic device 101 that has been received from the electronic device 101.
  • the posture of the electronic device 101 may be restored based on at least one of data indicating a change value of the azimuth angle or data indicating a change value of the altitude angle included in the signal.
  • the device 102 may obtain reverse data from the data and restore the posture of the electronic device 101 based on the obtained reverse data.
  • the processor 410 may be configured to correspond to a composition of an image acquired through the first camera of the electronic device 101 exposed through the same surface on which the display of the electronic device 101 is exposed. From the electronic device 101 mounted by the device 102 to obtain an image having the second through the second camera of the electronic device 101 exposed through the surface opposite to the surface, the electronic device 101 of the The signal may be received to request a change in posture.
  • the processor 410 controls the at least one of the first motor 430-1 or the second motor 430-2 based on at least the signal, thereby allowing the electronic device 101 to be mounted by the device 102. You can change your posture.
  • the processor 410 may transmit a signal to the electronic device 101 indicating that the posture change is completed.
  • the electronic device 101 may acquire an image through the second camera based on receiving a signal indicating that the change of the posture is completed.
  • the electronic device 101 may transmit a signal to the device 102 to indicate that the acquisition of the image is completed, based on the acquisition of the image.
  • the processor 410 may restore the posture of the electronic device 101 in response to receiving a signal indicating that the acquisition of the image is completed.
  • processor 410 may receive user input via microphone 440.
  • the user input may be set as a voice signal.
  • the voice signal can include a wake-up command.
  • the wake-up command may indicate that the user initiates an interaction with the device 102.
  • the wake-up command may indicate that a voice command is to be received after the wake-up command.
  • the wake-up command may be a voice input used to activate a function for voice recognition of the device 102.
  • the wake-up command may be a voice input used to indicate that the voice command that may be received after the wake-up command is a voice signal associated with the device 102.
  • the wake-up command may be used to distinguish between a voice signal associated with the device 102 and a voice signal not associated with the device 102.
  • the wake-up command may be configured with at least one designated or specified keyword, such as "hey bixby.”
  • the wake-up command may be a voice input required to identify whether it corresponds to the at least one keyword.
  • the wake-up command may be a voice input that does not require natural language processing or requires a limited level of natural language processing.
  • the voice signal may further include a voice command after the wake-up command.
  • the voice command may be related to the purpose or reason for which the voice signal is caused by the user.
  • the voice command may include information for indicating a service that a user wants to be provided through the device 102.
  • the voice command "How is the weather today?" Or "What song is the song currently playing?" Etc., may be configured with at least one text for interaction between the user and device 102.
  • the voice command may be a voice input required to identify what the at least one text is.
  • the voice command may be a voice input for requesting natural language processing.
  • the processor 410 may provide the electronic device 101 with information about the voice signal or information about the voice command identified from the voice signal.
  • the processor 410 may output various kinds of audio signals through the speaker 450.
  • the audio signal may be output through speaker 450 to provide notification.
  • the processor 410 may output, via the speaker 450, a notification relating to the acquisition (or photographing) of an image based on the information received from the electronic device 101.
  • the audio signal may be output through the speaker 450 to provide feedback for the voice signal.
  • the processor 410 may receive information about the feedback identified based on the voice command from the electronic device 101, and output the feedback through the speaker 450 based on the received information. Can be.
  • the device 102 includes both a processor 410, a communication module 420, a first motor 430-1, a second motor 430-2, a microphone 440, or a speaker 450.
  • a processor 410 the communication module 420, the first motor 430-1, the second motor 430-2, the microphone 440, and the speaker 450 may be provided as follows. It may not be included in the device 102.
  • the device 102 may expose an electronic device 101 or a user associated with the device 102 through a surface opposite to a surface on which the display of the electronic device 101 is exposed.
  • the posture of the electronic device 101 mounted by the device 102 may be adjusted by using at least one motor so that the selfie may be obtained through the camera of the electronic device 101.
  • the device 102 may guide the electronic device 101 to acquire a selfie having a higher image quality.
  • FIG. 5 illustrates an example of a configuration of an electronic device according to various embodiments. Such a configuration may be included in the electronic device 101 shown in FIG. 1 or the electronic device 101 shown in FIG. 3.
  • the electronic device 101 may include a processor 120, a memory 130, a display 160, a sensor 176, a first camera 180-1, a second camera 180-2,
  • the communication module 190 may include a microphone 510, a speaker 520, and a sensor 530.
  • the processor 120 may include the processor 120 shown in FIG. 1, the memory 130 may include the memory 130 shown in FIG. 1, and the display 160 may be shown in FIG. 1.
  • Display device 160, communication module 190 may include communication module 190 shown in FIG. 1, and microphone 510 includes input device 150 shown in FIG. 1.
  • the speaker 520 may include the sound output device 155 illustrated in FIG. 1, and the sensor 530 may include the sensor module 176 illustrated in FIG. 1.
  • the first camera 180-1 may be exposed through at least a portion of the first surface of the housing of the electronic device 101 to which the display 160 is exposed.
  • the second camera 180-2 may be exposed through at least a portion of a second surface that is distinct from the first surface on which the display 160 is exposed.
  • the second surface may be opposite to the first surface.
  • the first direction of the optical axis of the lens of the first camera 180-1 eg, the optical axis 310 of FIG. 3
  • the first direction of the optical axis of the lens of the first camera 180-1 is a second direction of the optical axis of the lens of the second camera 180-2. It may be opposite the direction.
  • the characteristic of the second camera 180-2 may be different from that of the first camera 180-1.
  • the second camera 180-2 may acquire an image having a higher quality than the first camera 180-1.
  • the range of the field of view of the second camera 180-2 may be narrower than the range of the field of view of the first camera 180-1.
  • the second camera 180-2 may acquire an image having less noise than the first camera 180-1.
  • the apparatus 101 may acquire an image having a higher image quality than the image obtained by using the first camera 180-1, but may not provide a user with what composition the obtained image has.
  • the processor 120 of the electronic device 101 mounted by the device 102 may communicate with the device 102 while communicating with the device 102 while acquiring an image through the second camera 180-2.
  • a composition of an image to be acquired through the second camera 180-2 may be provided within a user's field of view.
  • the processor 120 may display the preview image for the first image acquired through the first camera 180-1 using the display 160.
  • the preview image may be displayed within a user interface of a camera application stored in memory 130.
  • the processor 120 displays a visual object for displaying an image having a second composition corresponding to the first composition of the first image together with the preview image for the first image. can do.
  • the image having the second composition may be displayed on the second image to be obtained through the second camera 180-2 after the posture of the electronic device 101 mounted by the device 102 is changed. May correspond.
  • the image having the second composition can be obtained by processing the first image.
  • the processor 120 may have the second composition by processing the first image based on a difference between the characteristics of the first camera 180-1 and the characteristics of the second camera 180-2. An image can be obtained.
  • the processor 120 may display the visual object for displaying an image having a second composition together with the preview image for the first image based on the acquisition.
  • the visual object is another preview of a second image having a second composition corresponding to the first composition of the first image to be obtained through the second camera 180-2.
  • the other preview image may be partially overlapped with the preview image or displayed around the preview image.
  • the visual object represents an area of the second image having the second composition corresponding to the first composition of the first image to be obtained through the second camera 180-2. It may also be set as an indicator for.
  • the processor 120 may be configured to correspond to a second composition corresponding to the first composition of the first image.
  • An input indicating that the second image having the second image is acquired through the second camera 180-2 may be received.
  • the input can be received after the first composition of the first image is confirmed by a user.
  • the input can have various types.
  • the input may include a voice signal received through the microphone 510 of the electronic device 101.
  • the voice signal may include a wake-up command.
  • the wake-up command may indicate that the user initiates an interaction with the electronic device 101.
  • the wake-up command may indicate that a voice command is to be received after the wake-up command.
  • the wake-up command may be a voice input used to activate a function for voice recognition of the electronic device 101.
  • the wake-up command may be a voice input used to indicate that a voice command that may be received after the wake-up command is a voice signal associated with the electronic device 101.
  • the wake-up command may be used to distinguish between a voice signal not associated with the electronic device 101 and a voice signal associated with the electronic device 101.
  • the wake-up command may be configured with at least one designated or specified keyword, such as "hey bixby.”
  • the wake-up command may be a voice input required to identify whether it corresponds to the at least one keyword.
  • the wake-up command may be a voice input that does not require natural language processing or requires a limited level of natural language processing.
  • the voice signal may further include a voice command after the wake-up command.
  • the voice command may be related to the purpose or reason for which the voice signal is caused by the user.
  • the voice command may include information for indicating a service that a user wants to be provided through the electronic device 101.
  • the voice command may be set to at least one text for interaction between the user and the electronic device 101, such as "take a selfie through a second camera” or "take a current preview image through a second camera.” (configured with)
  • the voice command may be a voice input required to identify what the at least one text is.
  • the voice command may be a voice input for requesting natural language processing.
  • the processor 120 recognizes the voice command to generate a second camera 180-2 with the second image having the second composition corresponding to the first composition of the first image. ) To identify what is to be acquired.
  • the processor 120 may identify the voice command from the voice signal and transmit information about the identified voice command to a server for voice recognition.
  • the processor 120 may generate, through the second camera 180-2, a second image having the second composition whose voice command corresponds to the first composition of the first image, based on the information received from the server. It can be identified that indicates what to obtain.
  • the input may include a gesture of a user acquired through the first camera 180-1 of the electronic device 101.
  • the processor 120 acquires an image including a gesture of a user through a first camera and recognizes the obtained image so that the gesture corresponds to a first composition of the first image. It may be identified that the second image having the second composition is to be acquired through the second camera 180-2.
  • the processor 120 may transmit information about the image (or information about a gesture extracted from the image) to a server for image recognition. The processor 120 based on the information received from the server, the second camera 180-2 with the second image having a second composition whose gesture included in the image corresponds to the first composition of the first image. ) To identify what is to be acquired.
  • the input may be an electronic device 104 (eg, a remote controller, etc.) that is distinguished from another electronic device (eg, the device 102 or the device 102) that is linked to the electronic device 101. It may be a signal received from)).
  • the processor 120 analyzes the received signal to generate a second camera 180-2 with the second image having the second composition corresponding to the first composition of the first image. ) To identify what is to be acquired.
  • the processor 120 transmits a second posture corresponding to the first composition of the first image to the device 102 that mounts the electronic device 101 in the first posture based on receiving the input.
  • the communication module 190 may request to change to a second posture for acquiring the second image having a composition.
  • the first posture may refer to the posture of the electronic device 101 at the timing of receiving the input.
  • the second posture may include the second image 180-1 corresponding to the first image acquired using the first camera 180-1 in the first posture. It may mean a posture required to obtain through.
  • the point where the optical axis of the second camera 180-2 of the electronic device 101 mounted on the device 102 in the second posture is positioned on the device 102 in the first posture. This may correspond to a point where an optical axis (for example, the optical axis 310 illustrated in FIG. 3) of the first camera 180-1 of the mounted electronic device 101 is located.
  • the processor 120 may identify the second posture using a database previously stored in the memory 130.
  • the database may be set as shown in Table 1 below.
  • the azimuth angle of the electronic device 101 in the first posture is set from 0 degrees to 180 degrees
  • the altitude angle of the electronic device 101 in the first posture is set from 0 degrees to 180 degrees
  • the azimuth angle of the electronic device 101 in the second posture may be set to 0 degrees to 180 degrees
  • the altitude angle of the electronic device 101 in the second posture may be set to 0 degrees to 180 degrees.
  • the processor 120 includes, in the data set as shown in Table 1, an azimuth angle of the electronic device 101 in the first posture and an electron in the first posture, which are identified based on the data acquired through the sensor 530.
  • an azimuth angle of the electronic device 101 in the first posture and an electron in the first posture are identified based on the data acquired through the sensor 530.
  • the elevation angle of the device 101 information about the azimuth angle of the electronic device 101 in the second posture and the elevation angle of the electronic device 101 in the second posture is obtained, thereby obtaining the second posture. Can be identified.
  • the processor 120 may identify the second posture using a function (or equation) previously stored in the memory 130.
  • the request transmitted from the electronic device 101 to the device 102 may include information related to the second posture.
  • the information related to the second posture may include at least one of an elevation angle of the electronic device 101 in the second posture and an azimuth angle of the electronic device 101 in the second posture. May contain data.
  • the information related to the second posture may include a difference value between the elevation angle of the electronic device 101 in the first posture and the elevation angle of the electronic device 101 in the second posture. It may also include data for indicating at least one of a difference value between the azimuth angle of the electronic device 101 in one posture and the azimuth angle of the electronic device 101 in the first posture.
  • the processor 120 may monitor or identify whether the posture of the electronic device 101 changes to the second posture. For example, processor 120, after providing the request to device 102, receives whether a message (or signal) is received from device 102 to indicate that the change to the second posture is complete. By monitoring, the electronic device 101 may monitor whether the posture of the electronic device 101 changes to the second posture. In another example, the processor 120 provides the request to the device 102, and then monitors data acquired through the sensor 530 of the electronic device 101, whereby the posture of the electronic device 101 is adjusted. It may be monitored whether it is changed to the second posture.
  • the processor 120 may determine the second image having the second composition through the second camera based on identifying that the posture of the electronic device 101 changes to the second posture. Can be obtained. For example, the processor 120 acquires the second image having the second composition through the second camera immediately after identifying that the posture of the electronic device 101 changes to the second posture. can do.
  • the processor 120 may provide various guide information through the speaker 520.
  • the processor 120 may provide the speaker with information for guiding the user not to move while the posture of the electronic device 101 is changed by the device 102 from the first posture to the second posture.
  • the output may be made through 520.
  • the processor 120 may determine a time remaining until the timing of acquiring the second image while the posture of the electronic device 101 is changed by the device 102 from the first posture to the second posture.
  • Information for guiding may be output through the speaker 520.
  • the processor 120 may provide information for guiding the remaining time until the timing of acquiring the second image immediately after the posture of the electronic device 101 is changed to the second posture by the device 102. May be output through the speaker 520.
  • the processor 120 may switch the state of the display 160 from an active state to an inactive state while the posture of the electronic device 101 is changed by the device 102 from the first posture to the second posture.
  • the active state may mean a state in which normal power is supplied to the display 160.
  • the active state may refer to a state in which information is displayed through the display 160.
  • the active state may refer to a state in which light is emitted through the display 160.
  • the inactive state may refer to a state in which limited power is supplied to the display 160.
  • the inactive state may mean a state in which the display 160 operates based on a low frame rate, or may indicate a state in which power supplied to the display 160 is cut off.
  • the inactive state may mean a state that requires booting up to restore the display 160 to the active state.
  • the posture of the electronic device 101 is changed by the device 102 from the first posture to the second posture, the information displayed through the display 160 may be outside of the user's field of view.
  • the processor 120 may deactivate the state of the display 160 from an active state while the posture of the electronic device 101 is changed by the device 102 from the first posture to the second posture. By switching to the state, the power consumed by the display 160 can be reduced.
  • Such a change of state of the display 160 may be transparent to the user because it may be outside the user's field of view.
  • the processor 120 may store instructions stored in the memory 130 to restore the posture of the electronic device 101 from the second posture to the first posture. Can be run. For example, the processor 120 may transmit a message (or signal) to the device 102 to indicate that the acquisition of the second image is complete, based on acquiring the second image.
  • the message may include information about the first posture (for example, data indicating the azimuth angle of the electronic device 101 in the first posture or the electronic device 101 in the first posture). And at least one of data for indicating an elevation angle of?).
  • the message may be a device ( It may include a command indicating to restore the second posture to the first posture by using information about the difference between the first posture and the second posture stored in the memory (or buffer) of the 102.
  • the processor 120 may monitor whether the second posture is restored to the first posture. The monitoring may be performed similarly to the operation of monitoring whether the posture of the electronic device 101 is changed from the first posture to the second posture.
  • the processor 120 may display the acquired second image on the display 160 based on monitoring or identifying the restoration to the first posture. In various embodiments, the processor 120 may display the acquired second image on the display 160 to determine whether the second image corresponds to the determined image. In various embodiments, the processor 120 may display the second image while the posture of the electronic device 101 is restored from the second posture to the first posture.
  • the electronic device 101 uses a preview image of an image acquired by using the first camera 180-1 disposed on the same surface as the display 160. After providing the information on the composition of the image to be obtained by using the second camera (180-2) to the device 102 via the electronic device 101 to change the posture of the electronic device 101 By providing the information, the attitude of the electronic device 101 can be changed. After the change of the posture is completed, the electronic device 101 has an image different from that of the first camera 180-1 and has an image different from that of the second camera 180-2 disposed on a surface different from the display 160. By acquiring, it is possible to provide an image having higher image quality in a state where the composition is confirmed.
  • the electronic device may include a housing, a display (eg, the display 160) exposed through at least a portion of the first surface of the housing. Exposing through a first camera (eg, first camera 180-1) exposed through at least another portion of the first face and at least a portion of a second face opposite to the first face; A second camera (eg, the second camera 180-2), an interface for connecting with an external electronic device (eg, the communication module 190), and a processor (eg, the processor 120).
  • the processor may be configured to, when connected to the external electronic device through the interface, identify a request for execution of a specified shooting mode, and execute the first camera with respect to one or more objects during execution of the designated shooting mode.
  • the one or more second preview images may partially overlap the one or more first preview images.
  • the number of pixels of the image sensor associated with the second camera may be greater than the number of pixels of the image sensor associated with the first camera.
  • the first preview images may be obtained through the first camera while the electronic device is mounted in a first position on the external electronic device, and the one or more images include: The electronic device may be acquired through the second camera while being mounted on the external electronic device in a second posture changed from the first posture.
  • the composition of the one or more images may correspond to the composition of the one or more first preview images.
  • the request for imaging may be configured with a voice signal, wherein the voice signal may include a wake-up command and a voice command following the wake-up command.
  • the voice command may indicate that the second camera is associated with acquiring the one or more images using the second camera.
  • the processor moves the external electronic device through the interface such that after acquiring the one or more images, the optical axis of the first camera is directed in the direction in which the one first preview images were acquired. Control the control panel and acquire the one or more images and display the obtained one or more images using the display.
  • An electronic device may include a memory (eg, the memory 130) that stores instructions, a communication module (eg, the communication module 190), and the like.
  • a sensing module a first camera (eg, first camera 180-1) disposed in a first direction, and a second camera (eg, arranged in a second direction distinct from the first direction) Second camera 180-2), a display visually exposed in the first direction (eg, display 160), and at least one processor (eg, processor 120).
  • At least one processor displays a preview image for the first image acquired through the first camera using the display, and corresponds to a first composition of the first image while displaying the preview image.
  • the communication module to receive the input and to change the first posture to a second posture for acquiring the second image to the device that mounts the electronic device in a first position based on the reception.
  • Request to use, identify the posture of the electronic device is changed from the first posture to the second posture through the sensing module, and based on the identification, having the second composition through the second camera It may be set to execute the stored instructions to obtain the second image.
  • the at least one processor receives a signal from the device to indicate that the posture of the electronic device is changed from the first posture to the second posture so that the posture of the electronic device is increased.
  • the stored instructions may be set to execute the stored instructions to identify the change from the first posture to the second posture.
  • the sensing module may further include at least one sensor (for example, a sensor 530) that may obtain information about a posture of the electronic device, and the at least one processor may include: The at least one sensor may be configured to execute the stored instructions to identify that the posture of the electronic device is changed from the first posture to the second posture.
  • at least one sensor for example, a sensor 530
  • the at least one sensor may be configured to execute the stored instructions to identify that the posture of the electronic device is changed from the first posture to the second posture.
  • the at least one processor is configured to transmit the first posture to the second posture by transmitting a signal to the device, the signal including information about a difference between the first posture and the second posture. May be configured to execute the stored instructions to request a change to the.
  • the information about the difference between the first posture and the second posture may include data on an azimuth angle between the first posture and the second posture or the first posture and the second posture. It may include at least one of the data for the elevation angle between (elevation angle).
  • the at least one processor requests the device that mounts the electronic device to the second posture after obtaining the second image to change the second posture to the first posture, Based on identifying that the posture of the electronic device is restored from the second posture to the first posture, the electronic device may further be configured to execute the stored instructions to display the obtained second image using the display. .
  • the at least one processor may be configured such that the posture of the electronic device is determined from the second posture from a first timing associated with a timing for identifying the posture of the electronic device is changed from the first posture to the second posture.
  • the electronic device may further include a microphone (eg, a microphone 510), and the at least one processor is configured to set a voice signal through the microphone ( configured to execute the stored instructions to receive the input, wherein the voice signal comprises a wake-up command and a subsequent to voice command. voice command), and the voice command may indicate that the second image is to be acquired.
  • a microphone eg, a microphone 510
  • the at least one processor is configured to set a voice signal through the microphone ( configured to execute the stored instructions to receive the input, wherein the voice signal comprises a wake-up command and a subsequent to voice command. voice command), and the voice command may indicate that the second image is to be acquired.
  • the electronic device may further include at least one speaker (eg, speaker 520), wherein the at least one processor is further configured to obtain the second image before the second image is acquired.
  • the stored instructions may be further configured to output a notification using the at least one speaker to inform the timing of acquiring a second image.
  • the electronic device may include a memory (eg, the memory 130) that stores instructions, and a communication module (eg, a communication module (eg, the electronic device 101). 190), a first camera disposed in a first direction (eg, the first camera 180-1), and a second camera disposed in a second direction that is distinct from the first direction (eg, a second camera).
  • a display visually exposed in the first direction eg, display 160
  • at least one processor eg, processor 120
  • the at least one The processor is configured to display a preview image of the first image acquired through the first camera using the display, and to identify whether an input received while displaying the preview image is a first input or a second input.
  • the first car Based on identifying that the input is the first input, the first car Acquiring the first image through the mera, and identifying the input as the second input, causing the device that mounts the electronic device to the first posture to change the first posture to the second posture; Make a request using a communication module, identify that the posture of the electronic device is changed to the second posture, and based on the identification, a second composition corresponding to the first composition of the first image through the second camera It may be set to execute the stored instructions to obtain a second image having a.
  • the at least one processor identifies a voice command following a wake-up command from the input set to a voice signal and transmits information about the identified voice command to a server using the communication module. And receiving information obtained by recognizing the voice command from the server using the communication module, and identifying whether the input is the first input or the second input based on the received information. It can be set to execute the stored instructions.
  • the first camera can be exposed through at least a portion of a first side of a housing of the electronic device, and the second camera is opposite to the first side.
  • the display may be exposed through at least a portion of the second side of the housing, and the display may be exposed through at least another portion of the first side.
  • the device that mounts the electronic device (e.g., the electronic device 101) includes a housing, a coupling portion disposed in the housing and configured to fix the electronic device;
  • a first motor eg, a first motor 430-1) disposed in the housing and set to change the attitude of the electronic device by adjusting an azimuth angle, and disposed in the housing, the elevation being a second motor (eg, second motor 430-2) set to change the attitude of the electronic device by adjusting an angle
  • a communication module eg, communication module 420
  • the processor may include a processor (eg, a processor 410) disposed in the housing and operatively coupled to the first motor, the second motor, and the communication module.
  • the signal for indicating may be set to be transmitted to the electronic device using the communication module.
  • FIG. 6A illustrates an example of an operation of an electronic device according to various embodiments.
  • the operation of the electronic device may include the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. It can be performed by).
  • the processor 120 may identify a request for execution of a specified photographing mode.
  • the processor 120 may confirm a request for execution of the designated shooting mode while connected to the device 102 through an interface (eg, the communication module 190) of the electronic device 101.
  • the designated shooting mode may mean executing a camera application stored in the memory 130.
  • the designated shooting mode may include a first camera 180-1 exposed through the same surface as the first surface of the housing of the electronic device 101 to which the display 160 is exposed using the camera application. ) May mean a mode for activating.
  • the designated shooting mode is one or more previews through the first camera 180-1 exposed through at least a portion of the first surface of the housing of the electronic device 101 to which the display 160 is exposed.
  • the one or more preview images via a second camera 180-2 exposed through at least a portion of the second side of the housing opposite the first side after providing the images and the one or more preview images It may refer to a mode for acquiring one or more images related to.
  • the designated photographing mode controls the posture of the electronic device 101 by controlling the device 102 passing through the electronic device 101 after displaying the one or more preview images, and controlling the control. It may mean a mode of acquiring the one or more images related to the one or more preview images based on the corrected posture.
  • the request for execution of the designated shooting mode can have various types of formats.
  • the request for execution of the designated shooting mode may be configured with a voice signal.
  • the request for execution of the designated shooting mode may be received through the microphone 510.
  • the request for execution of the designated shooting mode may be set as a gesture.
  • the request for execution of the designated photographing mode may be received through the first camera 180-1.
  • the request for execution of the designated photographing mode may be performed by the communication module from the other electronic device in response to a user input to another electronic device (for example, the electronic device 104) linked to the electronic device 101. And may be received via 190.
  • the processor 120 executes the camera application stored in the memory 130 based on confirming the request, thereby switching the first camera 180-1 in an inactive state to an active state. can do.
  • the processor 120 displays, via the display 160, one or more first preview images acquired through the first camera 180-1 with respect to one or more objects in the execution of the designated shooting mode.
  • the one or more objects may refer to a subject included in the one or more first preview images.
  • the one or more objects may include a person, an object, a background, and the like.
  • the processor 120 executes the camera application based on the execution of the designated shooting mode, and in response to executing the camera application, a first camera in relation to the one or more objects.
  • the one or more preview images acquired through 180-1 may be displayed.
  • the processor 120 displays one or more second preview images obtainable through the second camera 180-2 for the one or more objects based at least on the one or more first preview images. 160).
  • the processor 120 may determine the one or more first preview images based on the difference between the characteristics of the first camera 180-1 and the characteristics of the second camera 180-2 based on the execution of the designated shooting mode. Processing to generate or obtain the one or more second preview images.
  • the processor 120 may display the generated or acquired second preview images on the display 160.
  • the display of the one or more second preview images may be performed through various methods. For example, the one or more second preview images may be partially superimposed on the one or more first preview images being displayed. For another example, the one or more second preview images may be displayed around the one or more first preview images being displayed.
  • the one or more second preview images are not provided independently of the one or more first preview images being displayed, and superimpose an indication (or indicator) on the one or more first preview images. May be provided by displaying.
  • the indication may include the one or more first preview images. Superimposed on and may be set in the form of a frame or a figure (eg, a rectangle) for indicating a range of the one or more second preview images.
  • the processor 120 may identify a request for photographing using the second camera 180-2.
  • the request for photographing is performed between the user and the electronic device 101 indicating to acquire one or more images corresponding to the one or more second preview images by using the second camera 180-2. May mean interaction.
  • the request for shooting may be set in various types of formats.
  • the photographing request may be set as a voice signal.
  • the photographing request may be set to a gesture of a user acquired through the first camera 180-1.
  • the photographing request may be set to a signal received by the electronic device 101 from the other electronic device in response to a user input to the other electronic device.
  • the processor 120 may perform an interface (eg, the communication module 190) such that the optical axis of the second camera 180-2 points to at least some of the one or more objects based at least on the request of the shooting. Control the movement of the device 102.
  • the device 102 may refer to a device having a function of passing through the electronic device 101 and adjusting a position of the mounted electronic device 101.
  • the processor 120 may determine the posture of the electronic device 101 such that the optical axis of the second camera 180-2 faces at least some of the one or more objects based at least on the request of the photographing. And transmit information about the identified posture to the device 102 via the communication module 190.
  • the device 102 controls the at least one motor (eg, the first motor 430-1, the second motor 430-2, etc.) included in the device 102 based on the information about the posture.
  • the posture of the electronic device 101 may be changed.
  • the processor 120 may acquire one or more images through the second camera 180-2 after controlling the movement of the device 102.
  • the processor 120 may change the posture of the electronic device 101 by controlling the movement of the device 102.
  • the processor 120 may identify that the change of the posture of the electronic device 101 is completed, and acquire the one or more images based on the identification.
  • the one or more images include at least a portion of the one or more objects and May correspond to the one or more second preview images.
  • the electronic device 101 is based on a signaling between the electronic device 101 and the device 102, and is a second opposite to the first surface on which the display 160 is exposed. Even if an image is acquired through a camera that exposes a surface, a user experience (UX) for confirming the composition of the image to be acquired before the acquisition of the image may be provided.
  • UX user experience
  • FIG. 6B illustrates another example of an operation of an electronic device according to various embodiments.
  • the operation of the electronic device may include the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. It can be performed by).
  • the processor 120 may display a preview image of the first image acquired through the first camera 180-1 using the display 160.
  • the first image may mean an image to be obtained when a photographing command using the first camera 180-1 is received while the preview image is displayed.
  • the first image may mean an image having a higher image quality than the preview image.
  • the first image may be set as a still image, unlike the preview image configured as a moving image.
  • the preview image can be displayed using display 160 within the user interface of the camera application.
  • the electronic device 101 may be mounted on the device 102 in a first posture.
  • a user may be located in front of the display 160 of the electronic device 101 mounted on the device 102.
  • the processor 120 may acquire a first image acquired through the first camera 180-1 that is exposed through the same side as the display 160 while the user is positioned in front of the display 160.
  • the preview image for may be displayed on the display 160.
  • the electronic device 101 may be mounted by the device 102 in the first posture.
  • the first posture may refer to a posture of the electronic device 101 mounted by the device 102 before (or immediately before) reception of an input in operation 655 to be described below. have.
  • the first pose is mounted by the device 102 after the user confirms the composition of the image to be acquired via the second camera 180-2 based on the preview image. It may mean the posture of the electronic device 101.
  • the processor 120 may receive an input indicating to acquire a second image corresponding to the first image while displaying the preview image.
  • the processor 120 may receive an input indicating to acquire through the second camera 180-2 the second image having a second composition corresponding to the first composition of the first image.
  • the input can be set in various types of formats.
  • the input may be set as a voice signal.
  • the input may be set by the user's gesture.
  • the input may be set to a signal received through the communication module 190.
  • the input can be received via various paths.
  • the input may be directly received from the user to the electronic device 101.
  • the input may be received from the user to the electronic device 101 through another electronic device (for example, the device 102 or the electronic device 104).
  • the processor 120 may request the device 102 to change the first posture of the electronic device 101 to a second posture based on the reception of the input through the communication module 190.
  • the second posture may include the second camera 180 having the second image corresponding to the first composition of the first image acquired through the first camera 180-1. -2) may mean a posture to obtain.
  • the second posture may include the optical axis of the lens of the first camera 180-1 before (or immediately before) the reception of the input in the direction of the optical axis 715 of the second camera 180-2. It may mean a posture for adjusting (set or adjust) to the direction of (310).
  • the processor 120 may provide information about the second posture through the request.
  • the processor 120 identifies the second posture by using a database stored in the memory 130 as shown in Table 1, and sends the information about the second posture to the device 102 through the request. Can provide.
  • the processor 120 synchronizes the optical axis 715 of the lens of the second camera 180-2 stored in the memory 130 with the optical axis 310 of the lens of the first camera 180-1.
  • the second posture may be identified, and information about the second posture may be provided to the device 102 through the request.
  • the information about the second posture may include data about an azimuth angle of the electronic device 101 representing the second posture and an elevation angle of the electronic device 101 representing the second posture. have.
  • the information about the second posture may include a difference in azimuth angle of the electronic device 101 between the first posture and the second posture, and an electronic device between the first posture and the second posture. And data about the difference in the elevation angles of 101).
  • a difference in azimuth angle of the electronic device 101 between the first posture and the second posture and an electronic device between the first posture and the second posture.
  • data about the difference in the elevation angles of 101 may be included in various embodiments of the present disclosure.
  • the device 102 controls the at least one of the first motor 430-1 or the second motor 430-2 in response to receiving the request, thereby allowing the electronic device to be placed by the device 102.
  • the posture of 101 can be changed from the first posture to the second posture.
  • the device 102 controls the first motor 430-1 like the state 750 to determine the azimuth angle of the electronic device 101 mounted by the device 102. I can adjust it.
  • the device 102 controls the second motor 430-2, as shown in state 790, to determine the altitude angle of the electronic device 101 mounted by the device 102. I can adjust it.
  • the device 102 may change the posture of the electronic device 101 mounted by the device 102 from the first posture to the second posture.
  • FIG. 7 illustrates an example in which the elevation angle of the electronic device 101 is adjusted in the state 790 after adjusting the azimuth angle of the electronic device 101 in the state 750, but this is for convenience of description.
  • the device 102 may adjust the azimuth angle of the electronic device 101 after adjusting the altitude angle of the electronic device 101.
  • the device 102 may simultaneously adjust the altitude angle of the electronic device 101 and the azimuth angle of the electronic device 101, or may adjust them regardless of the order.
  • the processor 120 may identify that the posture of the electronic device 101 is changed from the first posture to the second posture. For example, the processor 120 changes the posture of the electronic device 101 to (or immediately after) the posture of the electronic device 101 based on a message indicating that the change to the second posture received from the device 102 is completed. The posture of the electronic device 101 may be changed from the first posture to the second posture. For another example, the processor 120 obtains data related to the attitude of the electronic device 101 by using the sensor 530 of the electronic device 101, and based on the data, the processor 120 of the electronic device 101 may be used. It can be identified that the posture is changed from the first posture to the second posture. However, it is not limited thereto.
  • the processor 120 may acquire the second image having the second composition through the second camera 180-2 based on the identification. In various embodiments, the processor 120 may acquire the second image having the second composition through the second camera 180-2 immediately after the identification. In various embodiments, the processor 120 may output the guide information for informing the acquisition time of the second image through the speaker 520 based on the identification, and then acquire the second image. However, it is not limited to this. In various embodiments, the direction of the optical axis 715 of the lens of the second camera 180-2 in the second pose is the optical axis 310 of the lens of the first camera 180-1 in the first pose.
  • the composition of the second image may correspond to the composition of the preview image or the first image. For example, referring to FIG. 7, in the state 790, the second image acquired through the second camera 180-2 of the electronic device 101 is the first camera 180-of the electronic device 101. It may correspond to the first image obtained through 1).
  • the electronic device 101 displays an image having a composition corresponding to the composition of the image acquired through the first camera 180-1 and the device 102 and the device 102.
  • a composition of an image to be acquired through the second camera 180-2 may be provided to the user in advance. Since the electronic device 101 obtains the image through the second camera 180-2 after providing the user with information about the composition, the electronic device 101 according to various embodiments of the present disclosure uses the first camera 180-1. An image having a composition corresponding to the acquired image and having characteristics different from those of the image acquired through the first camera 180-1 may be obtained.
  • the operation of the electronic device may include the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. It can be performed by).
  • Operation 810 and operation 820 of FIG. 8 may be related to operation 665 of FIG. 6B.
  • the processor 120 may receive a signal from the device 102 to indicate that the posture of the electronic device 101 is changed from the first posture to the second posture. .
  • the device 102 that mounts the electronic device 101 receives the request in operation 660, and then controls the device 102 by controlling at least one of the first motor 430-1 or the second motor 430-2.
  • the posture of the electronic device 101 mounted by the electronic device 101 may be changed from the first posture to the second posture.
  • the device 102 may transmit the signal to the electronic device 101 to indicate that the change of the posture is completed.
  • the processor 120 may receive the signal from the device 102 using the communication module 190.
  • the processor 120 may identify that the posture of the electronic device 101 is changed from the first posture to the second posture based on the reception.
  • the processor 120 may display the first camera 180 in the attitude of the electronic device 101 in the direction of the optical axis 715 of the second camera 180-2. It can be identified that the second position is synchronized with the direction of the optical axis 310 of -1).
  • the electronic device 101 may identify whether the posture change of the electronic device 101 is completed by using the communication path between the electronic device 101 and the device 102. Can be. Such identification may assist in acquiring an image using the second camera 180-2 having different characteristics from the first camera 180-1.
  • the operation of the electronic device may include the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. It can be performed by).
  • Operations 910 to 950 of FIG. 9 may be related to operation 665 of FIG. 6B.
  • the processor 120 may request the device 102 to change the posture of the electronic device 101 and then activate the at least one sensor 530. For example, when at least one sensor 530 is in an inactive state to reduce power consumption, the processor 120 may identify whether the posture of the electronic device 101 is changed to the second posture. The state of at least one sensor 530 may be switched from the inactive state to the active state.
  • the processor 120 may acquire data related to a posture of the electronic device 101 using the activated at least one sensor 530.
  • the at least one sensor 530 may include at least one of an acceleration sensor, an inertial sensor, or a gyro sensor.
  • the processor 120 uses a gyro sensor included in the at least one sensor 530 to change a posture of the electronic device 101 related to the pitch, or to the yaw of the electronic device.
  • Data about at least one of a change in the posture of 101 or a change in the posture of the electronic device 101 related to the roll may be acquired.
  • the processor 120 may obtain data related to the attitude of the electronic device 101 based at least on the data about the at least one.
  • the processor 120 may monitor whether the posture of the electronic device 101 is changed to the second posture based on the obtained data. For example, the processor 120 compares the obtained data with data about the second posture defined in the database as shown in Table 1, thereby changing whether the posture of the electronic device 101 changes to the second posture. Can be monitored. In another example, the processor 120 may compare the data about the second posture obtained by applying an equation stored in the memory 130 to the obtained data and the data about the first posture. It may be monitored whether the posture of 101 is changed to the second posture. However, it is not limited thereto.
  • the processor 120 may perform operation 950.
  • the processor 120 may perform operations 920 and until the posture of the electronic device 101 changes to the second posture. Operation 930 may be repeatedly performed.
  • the processor 120 may identify that the posture of the electronic device 101 changes to the second posture.
  • the electronic device 101 requests the device 102 to change the posture of the electronic device 101, and then uses the sensor 530 of the electronic device 101. By monitoring the change in the movement of the 101, it may be identified that the posture of the electronic device 101 changes to the second posture.
  • the electronic device 101 according to various embodiments of the present disclosure identifies the change to the second posture using the sensor 530 of the electronic device 101 rather than the communication with the device 102, thereby communicating with the device 102. It can reduce the resources consumed by.
  • FIG. 10 illustrates an example of an operation of an electronic device displaying a visual object for representing a second image, according to various embodiments.
  • the operation of the electronic device may include the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. It can be performed by).
  • Operations 1010 and 1020 of FIG. 10 may relate to operations 655 of FIG. 6B. Operation 1020 of FIG. 10 may be performed in parallel or independently of at least one of operation 660, operation 665, or operation 670 of FIG. 6B.
  • the processor 120 may receive an input indicating to acquire a second image corresponding to the first image.
  • the processor 120 is configured with a gesture or voice signal and receives the input indicating to obtain the second image having the second composition corresponding to the first composition of the first image. Can be received.
  • the processor 120 may display a visual object for representing the second image to be obtained using the display 160, based on receiving the input.
  • the processor 120 may respond at least to a difference between the characteristics of the first image and the first camera 180-1 and the characteristics of the second camera 180-2 in response to receiving the input.
  • the visual object may be generated or acquired based on the second image.
  • the visual object may be set in various formats. For example, referring to FIG. 11, the processor 120 overlaps the preview image 1110 while displaying the preview image 1110 for the first image acquired through the first camera 180-1.
  • the visual object 1150 for representing the second image may be displayed through the display panel 160.
  • the visual object 1150 may be superimposed on the preview image 1110 to represent the second image having an area different from the area of the first image. In various embodiments, the visual object 1150 may be superimposed on the preview image 1110 to indicate an area to be included in the second image to be obtained. For another example, referring to FIG. 12, while the processor 120 displays the preview image 1210 for the first image acquired through the first camera 180-1, the processor 120 may display the preview image 1210. The visual object 1250 for representing the overlapped second image may be displayed on the display panel 160. In various embodiments, the visual object 1250 may be set as a thumbnail image (or preview image) for the second image. In various embodiments, the display size of the visual object 1250 may be adjusted through a user input for the electronic device 101 or a user input (for example, an input set as a voice signal) for the device 102. However, it is not limited thereto.
  • the electronic device 101 may display information about the second image to be obtained through the second camera 180-2 while displaying the preview image for the first image.
  • the electronic device 101 may display information about the second image to be obtained through the second camera 180-2 while displaying the preview image for the first image.
  • the operation of the electronic device may include the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. It can be performed by).
  • Operation 1310 to operation 1340 of FIG. 13 may be related to operation 670 of FIG. 6B.
  • the processor 120 may acquire the second image through the second camera 180-2.
  • the second composition of the second image may correspond to the first composition of the first image that was obtained through the first camera 180-1.
  • the processor 120 may request the device 102 to change the second posture of the electronic device 101 to the first posture.
  • the processor 120 may request to change the second posture of the electronic device 101 to the first posture in order to provide the information about the obtained second image. For example, referring to FIG. 14, as shown in state 1410, since the user obtained the second image through the second camera 180-2, an electronic display of the display of the electronic device 101 is exposed. While it is possible to look at the side opposite to the face of the housing of the device 101, it may not be able to face the face of the housing of the electronic device 101 to which the display of the electronic device 101 is exposed.
  • the electronic device 101 in state 1410 provides information about the second image acquired through the second camera 180-2 through the display 160 within the field of view of the user. Can not.
  • the processor 120 of the electronic device 101 may provide the device 102 with the second posture of the electronic device 101 in order to provide information about the second image within a field of view of the user. May request to restore to the first posture.
  • the device 102 receiving the request controls the at least one of the first motor 430-1 and the second motor 430-2 to adjust the posture of the electronic device 101 placed in the second posture.
  • the first posture may be restored.
  • the processor 120 may identify that the posture of the electronic device 101 is restored from the second posture to the first posture. For example, the processor 120 based on a signal (or message) indicating that the restoration to the first posture received from the device 102 is completed, the posture of the electronic device 101 is determined from the second posture. It can be identified that the restoration to the first posture. In another example, the processor 120 monitors the movement of the electronic device 101 using the sensor 530, and the posture of the electronic device 101 is determined from the second posture based on the monitoring result. It can be identified that it is restored to the posture.
  • the processor 120 may display the acquired second image based on identifying that the posture of the electronic device 101 is restored to the first posture.
  • the processor 120 may display the second image on the display 160 to provide information about the second image.
  • the processor 120 uses the display 160 to display the second image while the posture of the electronic device 101 is restored from the second posture to the first posture. It can also be displayed.
  • the electronic device 101 may provide signaling with the device 102 to provide information about the second image acquired when the display 160 is outside the user's field of view.
  • the posture of the electronic device 101 may be restored to the posture in which the display 160 is in the user's field of view based on the signaling. Through such restoration, the electronic device 101 according to various embodiments may provide convenience to a user.
  • the operation of the electronic device may include the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. It can be performed by).
  • Operations 1510 through 1530 of FIG. 15 may be related to operation 1340 of FIG. 13.
  • Operations 1510 and 1520 of FIG. 15 may be performed in parallel or independently of at least one of operations 660, 665, 670, or 1310 to 1340 of FIG. 6.
  • the processor 120 may determine that the electronic device 101 is determined from a first timing associated with timing for identifying that the posture of the electronic device 101 is changed from the first posture to the second posture.
  • the state of the display 160 may be transitioned from the wake-up state to the sleep state until a second timing associated with a timing identifying that the posture is restored from the second posture to the first posture.
  • processor 120 changes the state of display 160 to the wake-up state to reduce power consumed by display 160 while display 160 is outside the user's field of view.
  • the sleep state can be switched to.
  • the processor 120 may restore the state of the display 160 to the wake-up state based on identifying that the second timing has elapsed.
  • the processor 120 may identify that the second timing has elapsed based on receiving a message from the device 102 indicating that the restoration to the first posture is complete.
  • the processor 120 identifies that the posture of the electronic device 101 is restored to the first posture based on data related to the movement of the electronic device 101 acquired through the sensor 530. The second timing may be identified based on the identification.
  • processor 120 may restore the state of display 160 to the wake-up state based on identifying that display 160 is within the user's field of view.
  • the processor 120 may display the acquired second image using the display 160 based on the restoration to the wake-up state.
  • the processor 120 identifies that the display 160 enters the field of view of the user due to the restoration of the posture of the electronic device 101, and displays the second image based on the identification. ) Can be displayed.
  • the electronic device 101 switches the state of the display 160 to a low power state while the display 160 is outside the user's field of view, thereby displaying the display 160 during image acquisition. ) Can reduce the power consumed by displaying the image.
  • FIG. 16 illustrates an example of an operation of an electronic device to receive an input indicating to acquire a second image, according to various embodiments. This operation is performed by the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. Can be performed.
  • Operations 1610 through 1630 of FIG. 16 may relate to operation 655 of FIG. 6B.
  • the processor 120 may indicate to acquire the second image corresponding to the first image, and receive an input set as a voice signal through the microphone 510.
  • the voice signal may include a voice command.
  • the voice command may include information indicating to acquire the second image corresponding to the first image.
  • the voice command according to various embodiments may be after a wake-up command further included in the voice signal.
  • the processor 120 may identify the voice command from the voice signal. For example, the processor 120 may recognize the meaning of the voice command by recognizing the voice command from the voice signal.
  • the processor 120 may identify that the posture of the electronic device 101 is changed to the second posture based at least in part on the identified voice command. For example, the processor 120 acquires, through the second camera 180-2, an image corresponding to the preview image obtained through the first camera 180-1 based at least in part on the identified voice command. It can be identified that what corresponds to the user's intention. The processor 120 may identify that the posture of the electronic device 101 is changed to the second posture based on the identification.
  • the electronic device 101 may provide an interaction with a user even in a state in which the electronic device 101 is physically separated from the user through an input configured of a voice signal. By providing such an interaction, the electronic device 101 according to various embodiments may provide an enhanced user experience.
  • FIG. 17 illustrates an example of an operation of an electronic device that performs voice recognition according to various embodiments. This operation is performed by the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. Can be.
  • Operation 1710 to operation 1730 of FIG. 17 may be related to operation 1620 of FIG. 16.
  • the processor 120 may transmit information on the identified voice command to the server for voice recognition using the communication module 190.
  • the server may receive information about the voice command.
  • the server may recognize the voice command based on the reception, and transmit information about the recognition result to the electronic device 101.
  • the processor 120 may receive information (ie, information on the recognition result) obtained by recognizing the voice command from the server using the communication module 190.
  • the processor 120 may identify that the posture of the electronic device 101 is changed to the second posture based on the received information. In various embodiments, the processor 120 identifies, based on the received information, that it is required to change the attitude of the electronic device 101 carried by the device 102, and based on the identification, It is possible to identify that the posture of the device 101 is changed to the second posture.
  • the electronic device 101 may provide a better photographing environment through interworking with a server for voice recognition.
  • the operation of the electronic device may include the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. It can be performed by).
  • Operations 1810 through 1830 of FIG. 18 may relate to operation 665 of FIG. 6B.
  • the processor 120 may identify that the posture of the electronic device 101 is changed from the first posture to the second posture.
  • the processor 120 may output a notification through the speaker 520 to notify a time point for acquiring the second image, based on the identification. Since the display 160 may be outside the user's field of view in the second posture, the processor 120 may output a notification for notifying the acquisition time of the second image.
  • the notification may be set as "3, 2, 1, shutter sound". However, it is not limited thereto.
  • the processor 120 may stop outputting the notification through the speaker 520 at the time when the second image is obtained. For example, the processor 120 monitors whether the acquisition of the second image is completed while outputting the notification, and outputs the notification based on monitoring that the acquisition of the second image is complete. You can stop.
  • the electronic device 101 outputs a notification in the form of a voice signal in order to guide the acquisition of the second image in a state in which the user's view associated with the display 160 is limited. can do.
  • the electronic device 101 may provide an improved user experience.
  • the operation of the electronic device may include the electronic device 101 shown in FIG. 1, the electronic device 101 shown in FIG. 3, the electronic device 101 shown in FIG. 5, or the processor 120 of the electronic device 101. It can be performed by).
  • the processor 120 may display a preview image of the first image acquired through the first camera 180-1 using the display 160.
  • the first camera 180-1 may be exposed through at least a portion of the surface of the housing of the same electronic device 101 as the display 160.
  • the processor 120 may identify whether an input received while displaying the preview image is a first input or a second input.
  • the first input may mean an input indicating that the first image corresponding to the preview image is obtained through the first camera 180-1.
  • the second input may include a second image corresponding to the preview image, at least a portion of the surface opposite to the surface of the housing of the electronic device 101 to which the first camera 180-1 is exposed. It may mean an input indicating that the second camera 180-2 is exposed through the second camera 180-2.
  • the second image may mean an image having a second composition corresponding to the first composition of the first image. Based on identifying that the received input is the first input, the processor 120 may perform operation 1930. Based on identifying that the received input is the second input, the processor 120 may perform operations 1940 through 1960.
  • the processor 120 may acquire the first image through the first camera 180-1 based on identifying that the received input is the first input.
  • the processor 120 changes the posture of the electronic device 101 from the first posture to the second posture based on identifying that the received input is the second input. May be requested to the device 102.
  • the first posture may refer to a posture of the electronic device 101 mounted by the device 102 at a timing of identifying that the received input is the first input.
  • the device 102 may change the posture of the electronic device 101 mounted by the device 102 to the second posture based on receiving the request.
  • the processor 120 may identify that the posture of the electronic device 101 changes to the second posture.
  • the processor 120 may acquire a message indicating that the change to the second posture received from the device 102 is completed or the sensor 530 of the electronic device 101.
  • the posture of the electronic device 101 may be changed to the second posture based on at least one of data on the change of the movement of the user.
  • the processor 120 acquires the second image having the second composition corresponding to the first composition of the first image through the second camera 180-2 based on the identification. Can be.
  • the electronic device 101 provides different functions according to types of inputs received while displaying the preview image acquired through the first camera 180-1, thereby improving the electronic device 101. It can provide an enhanced user experience.
  • FIG. 20 illustrates an example of the operation of an apparatus according to various embodiments. This operation may be performed by the electronic device 102 shown in FIG. 1, the device 102 shown in FIG. 3, the device 102 shown in FIG. 4, or the processor 410 of the device 102. have.
  • the processor 410 is used to request that the first posture of the electronic device 101 mounted by the device 102 be changed to a second posture.
  • a signal including information for presentation may be received using the communication module 420.
  • the electronic device 101 that transmits the signal displays a preview image for the first image acquired through the first camera 180-1 using the display 160 and the first posture by the device 102. It may be a mounted electronic device.
  • the second pose is mounted by the device 102 for obtaining a second image having a second composition corresponding to the first composition of the first image acquired in the first pose. It may mean the posture of the electronic device 101.
  • the processor 410 adjusts at least one of an azimuth or an elevation angle using at least one of the first motor 430-1 or the second motor 430-2 based at least on the information.
  • the posture of the electronic device 101 may be changed to the second posture.
  • the processor 410 adjusts the direction of the optical axis of the lens of the second camera 180-2 of the electronic device 101 to the direction of the optical axis of the lens of the first camera 180-1 in the first posture.
  • at least one of the first motor 430-1 or the second motor 430-2 may be controlled. Based on the control, the posture of the electronic device 101 may be changed to the second posture.
  • the processor 410 may transmit a signal to the electronic device 101 using the communication module 420 to indicate that the change to the second posture is completed.
  • the processor 410 identifies that the change to the second posture is completed based on the control of at least one of the first motor 430-1 or the second motor 430-2, and Based on the identification, a signal for indicating that the change to the second posture is completed may be transmitted to the electronic device 101.
  • the electronic device 101 controls the posture of the electronic device 101 mounted by the device 102, thereby allowing the electronic device 101 to display the first camera 180-1. Through the second camera (180-2) can be assisted to obtain an image confirmed by the user.
  • the method of the electronic device may further include: checking a request for execution of a specified shooting mode while connected to the external electronic device through an interface; One or more first preview images acquired through a first camera exposed through at least a portion of a first surface of the housing of the electronic device in relation to one or more objects during execution of the designated shooting mode; Displaying using a display exposed through at least another portion of and at least a portion of a second side opposite to the first side for the one or more objects based at least on the one or more first preview images Displaying one or more second preview images obtainable through a second camera exposed through the display using the display; Confirming the request for photographing using the second camera and at least based on the request for photographing using the second camera, such that the optical axis of the second camera is directed to at least some of the one or more objects. Controlling the movement of the external electronic device through the control of the movement of the external electronic device, and associated with the one or more objects based at
  • the one or more second preview images may partially overlap the one or more first preview images.
  • the number of pixels of the image sensor associated with the second camera may be greater than the number of pixels of the image sensor associated with the first camera.
  • the first preview images may be obtained through the first camera while the electronic device is mounted in a first position on the external electronic device, and the one or more images include: The electronic device may be acquired through the second camera while being mounted on the external electronic device in a second posture changed from the first posture.
  • the composition of the one or more images may correspond to the composition of the one or more first preview images.
  • the request for imaging may be configured with a voice signal, wherein the voice signal may include a wake-up command and a voice command following the wake-up command.
  • the voice command may indicate that the second camera is associated with acquiring the one or more images using the second camera.
  • the method further comprises: moving the external electronic device through the interface such that after acquiring the one or more images the optical axis of the first camera is directed in the direction in which the one first preview images were acquired.
  • the method may further include controlling the display, and obtaining the one or more images and displaying the obtained one or more images using the display.
  • a method of an electronic device may include a preview image for a first image acquired through a first camera disposed in a first direction, in the first direction. And displaying a second image having a second composition corresponding to a first composition of the first image while the preview image is displayed while displaying the preview image.
  • Based on the operation and the identifying to identify, through the second camera may include an operation to obtain the second image with the second composition.
  • the operation of identifying the change to the second posture may include receiving a signal from the device to indicate that the posture of the electronic device is changed from the first posture to the second posture. And identifying that the posture of the electronic device is changed from the first posture to the second posture.
  • the electronic device may further include at least one sensor (eg, a sensor 530) for acquiring information about a posture of the electronic device, and the identifying may include at least one of the at least one sensor.
  • the method may include identifying that the posture of the electronic device is changed from the first posture to the second posture by using one sensor.
  • the requesting action may transmit the first posture to the second posture by transmitting a signal to the device, the signal including information about a difference between the first posture and the second posture.
  • the information about the difference between the first posture and the second posture may include data on an azimuth angle between the first posture and the second posture or the first posture and the second posture. It may include at least one of the data for the elevation angle between (elevation angle).
  • the method may further include: requesting the device, which mounts the electronic device to the second posture, to acquire the second image, to change the second posture to the first posture;
  • the display may further include displaying the acquired second image using the display based on identifying that the posture of the electronic device is restored to the first posture from the second posture.
  • the method may further include that the posture of the electronic device is changed from the second posture to the first posture from a first timing associated with a timing for identifying the posture of the electronic device is changed from the first posture to the second posture.
  • the method may further include displaying the obtained second image by using the display, based on the restoring to an up state and based on the restoring to the wake-up state.
  • the electronic device may further include a microphone (eg, a microphone 510), and the operation of receiving the input is set as a voice signal through the microphone. (configured with) receiving the input, wherein the voice signal includes a wake-up command and a voice command subsequent to the voice command.
  • the voice command may further include obtaining the second image.
  • the electronic device may further include at least one speaker (eg, speaker 520), the method further comprising, before acquiring the second image, the second image.
  • the method may further include outputting, by using the at least one speaker, a notification for notifying the timing of acquiring the signal.
  • the method of the electronic device may include a preview image of the first image acquired through the first camera disposed in the first direction. Displaying by using a display visually exposed in a direction, identifying whether an input received while displaying the preview image is a first input or a second input, and identifying that the input is the first input Based on the operation of acquiring the first image through the first camera and identifying the input as the second input, to the device that mounts the electronic device in a first posture.
  • Request using the communication module to change the first posture to a second posture, identify that the posture of the electronic device is changed to the second posture, and based on the identification, the first Through a second camera disposed in a second direction that is distinct from the flavor may comprise an operation to obtain a second image having a second composition which corresponds to the first composition of the first image.
  • identifying whether the input is the first input or the second input comprises: identifying a voice command following a wake-up command from the input set to a voice signal, and identifying the identified Transmitting information about a voice command to a server using the communication module, receiving information obtained by recognizing the voice command from the server using the communication module, and based on the received information. And identifying whether the input is the first input or the second input.
  • the first camera can be exposed through at least a portion of a first side of a housing of the electronic device, and the second camera is opposite to the first side.
  • the display may be exposed through at least a portion of the second side of the housing, and the display may be exposed through at least another portion of the first side.
  • the method of the device (eg, the device 102) passing through the electronic device (eg, the electronic device 101) may be obtained by using a first camera disposed in the first direction of the electronic device. Displaying the preview image of the first image by using the display arranged in the first direction of the electronic device, and displaying the first posture of the first image from the electronic device mounted in the first posture by the device.
  • Receiving a signal using a communication module the signal being used to request a change to a second posture for obtaining a second image having a second composition corresponding to the first composition, the signal including information for indicating the second posture;
  • the electronic field by adjusting at least one of the azimuth angle and the elevation angle using at least one of the first motor or the second motor, based at least on the operation and the information.
  • a signal to indicate that the operation and completes the switching to the second position for changing the posture to the second posture may include an operation for transmitting to the electronic device by using the communication module.
  • a computer-readable storage medium for storing one or more programs (software modules) may be provided.
  • One or more programs stored in a computer readable storage medium are configured for execution by one or more processors in an electronic device.
  • One or more programs include instructions that cause an electronic device to execute methods in accordance with embodiments described in the claims or specifications of this disclosure.
  • Such programs may include random access memory, non-volatile memory including flash memory, read only memory (ROM), and electrically erasable programmable ROM.
  • EEPROM electrically erasable programmable read only memory
  • magnetic disc storage device compact disc ROM (CD-ROM), digital versatile discs (DVDs) or other forms
  • CD-ROM compact disc ROM
  • DVDs digital versatile discs
  • It can be stored in an optical storage device, a magnetic cassette. Or, it may be stored in a memory composed of some or all of these combinations.
  • each configuration memory may be included in plural.
  • the program may also be implemented via a communication network, such as the Internet, an intranet, a local area network (LAN), a wide LAN (WLAN), or a storage area network (SAN), or a combination thereof. It may be stored in an attachable storage device that is accessible. Such a storage device may be connected to a device that performs an embodiment of the present disclosure through an external port. In addition, a separate storage device on a communication network may be connected to a device that performs an embodiment of the present disclosure.
  • a communication network such as the Internet, an intranet, a local area network (LAN), a wide LAN (WLAN), or a storage area network (SAN), or a combination thereof. It may be stored in an attachable storage device that is accessible. Such a storage device may be connected to a device that performs an embodiment of the present disclosure through an external port. In addition, a separate storage device on a communication network may be connected to a device that performs an embodiment of the present disclosure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

다양한 실시예들에 따른 전자 장치(electronic device)는, 하우징(housing)과, 상기 하우징의 제1 면의 적어도 일부를 통해 노출된 디스플레이와, 상기 제1 면의 적어도 다른 일부를 통해 노출된 제1 카메라와, 상기 제1 면에 반대인(opposite to) 제2 면의 적어도 일부를 통해 노출된 제2 카메라와, 외부 전자 장치와 연결하기 위한 인터페이스와, 프로세서를 포함할 수 있고, 상기 프로세서는, 상기 인터페이스를 통해 상기 외부 전자 장치와 연결된 상태에서, 지정된 촬영 모드의 실행의 요청을 확인하고, 상기 지정된 촬영 모드의 실행 중, 하나 이상의 객체들과 관련하여 상기 제1 카메라를 통해 획득된 하나 이상의 제1 프리뷰 이미지들을 상기 디스플레이를 이용하여 표시하고, 상기 하나 이상의 제1 프리뷰 이미지들에 적어도 기반하여, 상기 하나 이상의 객체들에 대해 상기 제2 카메라를 통해 획득 가능한 하나 이상의 제2 프리뷰 이미지들을 상기 디스플레이를 이용하여 표시하고, 상기 제2 카메라를 이용한 촬영의 요청을 확인하고, 상기 제2 카메라를 이용한 상기 촬영의 요청에 적어도 기반하여, 상기 제2 카메라의 광축이 상기 하나 이상의 객체들의 적어도 일부를 향하도록, 상기 인터페이스를 통해 상기 외부 전자 장치의 움직임을 제어하고, 상기 외부 전자 장치의 상기 움직임의 제어를 이용하여, 상기 제 2 카메라를 통해 상기 하나 이상의 제 2 프리뷰 이미지들에 적어도 기반하여 상기 하나 이상의 객체와 관련된 하나 이상의 이미지들을 획득하도록 설정될 수 있다.

Description

외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법
다양한 실시예들은 외부 장치의 자세(position)의 조정(adjustment)을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치(electronic device) 및 그의 방법에 관한 것이다.
기술의 발달로, 촬영 기능(shooting function)을 제공하는 전자 장치(electronic device)의 보급이 증가하고 있다. 이러한 전자 장치는, 촬영 기능을 제공하기 위해, 상기 전자 장치의 디스플레이가 배치되는 제1 면의 적어도 일부를 통해 노출되는 제1 카메라와 상기 제1 면과 구별되는 제2 면의 적어도 일부를 통해 노출되는 제2 카메라를 구비할(equip) 수 있다.
전자 장치(electronic device)는 복수의 카메라들을 포함할 수 있다. 상기 복수의 카메라들 중 제1 카메라는 상기 전자 장치의 디스플레이와 동일한 면에 배치되는 반면, 상기 복수의 카메라들 중 제2 카메라는 상기 디스플레이가 배치되는 면과 구별되는(distinct from) 다른(another) 면에 배치될 수 있다. 사용자가 상기 다른 면을 바라보는 상태에서 상기 제2 카메라를 이용하여 촬영(shooting)을 수행하는 경우, 사용자는 상기 제1 카메라 및 상기 제2 카메라의 배치로 인하여 상기 제2 카메라를 통해 획득될 이미지에 대한 프리뷰 이미지를 확인하지 못할 수 있다.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시예들에 따른 전자 장치(electronic device)는, 하우징(housing)과, 상기 하우징의 제1 면의 적어도 일부를 통해 노출된 디스플레이와, 상기 제1 면의 적어도 다른 일부를 통해 노출된 제1 카메라와, 상기 제1 면에 반대인(opposite to) 제2 면의 적어도 일부를 통해 노출된 제2 카메라와, 외부 전자 장치와 연결하기 위한 인터페이스와, 프로세서를 포함할 수 있고, 상기 프로세서는, 상기 인터페이스를 통해 상기 외부 전자 장치와 연결된 상태에서, 지정된 촬영 모드의 실행의 요청을 확인하고, 상기 지정된 촬영 모드의 실행 중, 하나 이상의 객체들과 관련하여 상기 제1 카메라를 통해 획득된 하나 이상의 제1 프리뷰 이미지들을 상기 디스플레이를 이용하여 표시하고, 상기 하나 이상의 제1 프리뷰 이미지들에 적어도 기반하여, 상기 하나 이상의 객체들에 대해 상기 제2 카메라를 통해 획득 가능한 하나 이상의 제2 프리뷰 이미지들을 상기 디스플레이를 이용하여 표시하고, 상기 제2 카메라를 이용한 촬영의 요청을 확인하고, 상기 제2 카메라를 이용한 상기 촬영의 요청에 적어도 기반하여, 상기 제2 카메라의 광축이 상기 하나 이상의 객체들의 적어도 일부를 향하도록, 상기 인터페이스를 통해 상기 외부 전자 장치의 움직임을 제어하고, 상기 외부 전자 장치의 상기 움직임의 제어를 이용하여, 상기 제 2 카메라를 통해 상기 하나 이상의 제 2 프리뷰 이미지들에 적어도 기반하여 상기 하나 이상의 객체와 관련된 하나 이상의 이미지들을 획득하도록 설정될 수 있다.
다양한 실시예들에 따른 전자 장치는, 명령어(instruction)들을 저장하는 메모리와, 통신 모듈과, 제1 방향(direction)으로 배치된 제1 카메라와, 상기 제1 방향과 구별되는 제2 방향으로 배치된 제2 카메라와, 상기 제1 방향으로 시각적으로 노출된 디스플레이와, 적어도 하나의 프로세서를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 디스플레이를 이용하여 표시하고, 상기 프리뷰 이미지를 표시하는 동안 상기 제1 이미지의 제1 구도(composition)에 상응하는 제2 구도를 가지는 제2 이미지를 상기 제2 카메라를 통해 획득할 것을 나타내는 입력을 수신하고, 상기 수신에 기반하여, 상기 전자 장치를 제1 자세(position)로 거치하는 장치에게, 상기 제1 자세를 상기 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 상기 통신 모듈을 이용하여 요청하고, 상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하고, 상기 식별에 기반하여, 상기 제2 카메라를 통해 상기 제2 구도를 가지는 상기 제2 이미지를 획득하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에 따른 전자 장치는, 명령어들을 저장하는 메모리와, 통신 모듈과, 제1 방향으로 배치된 제1 카메라와, 상기 제1 방향과 구별되는 제2 방향으로 배치된 제2 카메라와, 상기 제1 방향으로 시각적으로 노출된 디스플레이와, 적어도 하나의 프로세서를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 디스플레이를 이용하여 표시하고, 상기 프리뷰 이미지를 표시하는 동안 수신되는 입력이 제1 입력인지 제2 입력인지 여부를 식별하고, 상기 입력이 상기 제1 입력임을 식별하는 것에 기반하여, 상기 제1 카메라를 통해 상기 제1 이미지를 획득하고, 상기 입력이 상기 제2 입력임을 식별하는 것에 기반하여, 상기 전자 장치를 제1 자세로 거치하는 장치에게, 상기 제1 자세를 제2 자세로 변경할 것을 상기 통신 모듈을 이용하여 요청하고 상기 전자 장치의 자세가 상기 제2 자세로 변경됨을 식별하고 상기 식별에 기반하여, 상기 제2 카메라를 통해 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에 따른 전자 장치(electronic device)를 거치하는 장치(apparatus)는, 하우징과, 상기 하우징 내에 배치되고, 상기 전자 장치를 고정하도록 설정된 결합부와, 상기 하우징 내에 배치되고, 방위각(azimuth angle)을 조정함으로써 상기 전자 장치의 자세를 변경하도록 설정된 제1 모터와, 상기 하우징 내에 배치되고, 고도각(elevation angle)을 조정함으로써 상기 전자 장치의 상기 자세를 변경하도록 설정된 제2 모터와, 상기 하우징 내에 배치된 통신 모듈과, 상기 하우징 내에 배치되고, 상기 제1 모터, 상기 제2 모터, 및 상기 통신 모듈과 작동적으로 결합된 프로세서를 포함할 수 있고, 상기 프로세서는, 상기 전자 장치의 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 전자 장치의 디스플레이를 이용하여 표시하고 상기 장치에 의해 제1 자세로 거치된 상기 전자 장치로부터, 상기 제1 자세를 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 요청하기 위해 이용되고, 상기 제2 자세를 나타내기 위한 정보를 포함하는 신호를 상기 통신 모듈을 이용하여 수신하고, 상기 정보에 적어도 기반하여, 상기 방위각 또는 상기 고도각 중 적어도 하나를 상기 제1 모터 또는 상기 제2 모터 중 적어도 하나를 이용하여 조정함으로써, 상기 전자 장치의 상기 자세를 상기 제2 자세로 변경하고, 상기 제2 자세로의 변경이 완료됨을 나타내기 위한 신호를 상기 통신 모듈을 이용하여 상기 전자 장치에게 송신하도록 설정될 수 있다.
다양한 실시예들에 따른 전자 장치의 방법은, 상기 전자 장치의 인터페이스를 통해 외부 전자 장치와 연결된 상태에서, 지정된 촬영 모드의 실행의 요청을 확인하는 동작과, 상기 지정된 촬영 모드의 실행 중, 하나 이상의 객체들과 관련하여 상기 전자 장치의 하우징의 제1 면의 적어도 일부를 통해 노출된 제1 카메라를 통해 획득된 하나 이상의 제1 프리뷰 이미지들을 상기 제1 면의 적어도 다른 일부를 통해 노출된 디스플레이를 이용하여 표시하는 동작과, 상기 하나 이상의 제1 프리뷰 이미지들에 적어도 기반하여, 상기 하나 이상의 객체들에 대해 상기 제1 면에 반대인 상기 하우징의 제2 면의 적어도 일부를 통해 제2 카메라를 통해 획득 가능한 하나 이상의 제2 프리뷰 이미지들을 상기 디스플레이를 이용하여 표시하는 동작과, 상기 제2 카메라를 이용한 촬영의 요청을 확인하는 동작과, 상기 제2 카메라를 이용한 상기 촬영의 요청에 적어도 기반하여, 상기 제2 카메라의 광축이 상기 하나 이상의 객체들의 적어도 일부를 향하도록, 상기 인터페이스를 통해 상기 외부 전자 장치의 움직임을 제어하는 동작과, 상기 외부 전자 장치의 상기 움직임을 제어한 후, 상기 제 2 카메라를 통해 상기 하나 이상의 제 2 프리뷰 이미지들에 적어도 기반하여 상기 하나 이상의 객체와 관련된 하나 이상의 이미지들을 획득하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 전자 장치의 방법은, 제1 방향으로 배치된 상기 전자 장치의 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 제1 방향으로 배치된 상기 전자 장치의 디스플레이를 이용하여 표시하는 동작과, 상기 프리뷰 이미지를 표시하는 동안 상기 제1 이미지의 제1 구도(composition)에 상응하는 제2 구도를 가지는 제2 이미지를 상기 제2 카메라를 통해 획득할 것을 나타내는 입력을 수신하는 동작과, 상기 수신에 기반하여, 상기 전자 장치를 제1 자세(position)로 거치하는 장치에게, 상기 제1 자세를 상기 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 상기 전자 장치의 통신 모듈을 이용하여 요청하는 동작과, 상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하는 동작과, 상기 식별에 기반하여 상기 제1 방향과 구별되는 제2 방향으로 배치된 상기 전자 장치의 제2 카메라를 통해 상기 제2 구도를 가지는 상기 제2 이미지를 획득하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 전자 장치의 방법은, 제1 방향으로 배치된 상기 전자 장치의 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 제1 방향으로 배치된 상기 전자 장치의 디스플레이를 이용하여 표시하는 동작과, 상기 프리뷰 이미지를 표시하는 동안 수신되는 입력이 제1 입력인지 제2 입력인지 여부를 식별하는 동작과, 상기 입력이 상기 제1 입력임을 식별하는 것에 기반하여, 상기 제1 카메라를 통해 상기 제1 이미지를 획득하는 동작과, 상기 입력이 상기 제2 입력임을 식별하는 것에 기반하여, 상기 전자 장치를 제1 자세로 거치하는 장치에게, 상기 제1 자세를 제2 자세로 변경할 것을 상기 통신 모듈을 이용하여 요청하는 동작과 상기 전자 장치의 자세가 상기 제2 자세로 변경됨을 식별하는 동작과 상기 식별에 기반하여, 상기 제1 방향으로 구별되는 제2 방향으로 배치된 상기 전자 장치의 제2 카메라를 통해 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 전자 장치를 거치하는 장치(apparatus)의 방법은, 상기 전자 장치의 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 전자 장치의 디스플레이를 이용하여 표시하고 상기 장치에 의해 제1 자세로 거치된 상기 전자 장치로부터, 상기 제1 자세를 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 요청하기 위해 이용되고, 상기 제2 자세를 나타내기 위한 정보를 포함하는 신호를 수신하는 동작과, 상기 정보에 적어도 기반하여, 상기 방위각 또는 상기 고도각 중 적어도 하나를 상기 장치의 제1 모터 또는 상기 장치의 제2 모터 중 적어도 하나를 이용하여 조정함으로써, 상기 전자 장치의 상기 자세를 상기 제2 자세로 변경하는 동작과, 상기 제2 자세로의 변경이 완료됨을 나타내기 위한 신호를 상기 전자 장치에게 송신하는 동작을 포함할 수 있다.
다양한 실시 예들에 따른 전자 장치(electronic device) 및 그의 방법은, 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 표시하는 상태에서 수신되는 사용자 입력에 기반하여 상기 전자 장치의 자세를 조정함으로써 상기 제1 카메라의 특성과 다른 특성을 가지는 제2 카메라를 통해 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은, 다양한 실시예들에 따라, 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득할 수 있는, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는, 다양한 실시예들에 따라, 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득할 수 있는, 전자 장치의 카메라 모듈의 블럭도이다.
도 3은 다양한 실시예들에 따른 전자 장치(electronic device) 및 상기 전자 장치를 거치하는 장치(apparatus)를 포함하는 환경의 예를 도시한다.
도 4는 다양한 실시예들에 따라 전자 장치를 거치하는 장치의 예를 도시한다.
도 5는 다양한 실시예들에 따른 전자 장치의 구성의 예를 도시한다.
도 6a는 다양한 실시예들에 따른 전자 장치의 동작의 예를 도시한다.
도 6b는 다양한 실시예들에 따른 전자 장치의 동작의 다른 예를 도시한다.
도 7은 다양한 실시예들에 따른 전자 장치 및 장치 사이의 배치 상태의 예를 도시한다.
도 8은 다양한 실시예들에 따라 자세의 변경이 완료됨을 식별하는 전자 장치의 동작의 예를 도시한다.
도 9는 다양한 실시예들에 따라 자세의 변경이 완료됨을 식별하는 전자 장치 동작의 다른 예를 도시한다.
도 10은 다양한 실시예들에 따라 제2 이미지를 나타내기 위한 시각적 객체를 표시하는 전자 장치의 동작의 예를 도시한다.
도 11은 다양한 실시예들에 따른 전자 장치에서 표시되는 시각적 객체의 예를 도시한다.
도 12는 다양한 실시예들에 따른 전자 장치에서 표시되는 시각적 객체의 다른 예를 도시한다.
도 13은 다양한 실시예들에 따라 상기 제2 이미지를 획득한 후 수행되는 전자 장치의 동작의 예를 도시한다.
도 14는 다양한 실시예들에 따른 전자 장치 및 장치 사이의 배치 상태의 다른 예를 도시한다.
도 15는 다양한 실시예들에 따라 디스플레이의 상태를 전환하는 전자 장치의 동작의 예를 도시한다.
도 16은 다양한 실시예들에 따라 제2 이미지를 획득할 것을 나타내는 입력을 수신하는 전자 장치의 동작의 예를 도시한다.
도 17은 다양한 실시예들에 따라 음성 인식을 수행하는 전자 장치의 동작의 예를 도시한다.
도 18은 다양한 실시예들에 따라 이미지의 촬영을 가이드하는 전자 장치의 동작의 예를 도시한다.
도 19는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 도시한다.
도 20은 다양한 실시예들에 따른 장치의 동작의 예를 도시한다.
도 1은, 다양한 실시예들에 따라, 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득할 수 있는, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일실시예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
일실시예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는, 다양한 실시예들에 따라, 외부 장치의 자세의 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득할 수 있는 전자 장치의 카메라 모듈(180)의 블럭도(200)이다. 도 2를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)일 수 있다. 복수의 렌즈 어셈블리(210)들은 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 렌즈 어셈블리와 적어도 하나의 다른 렌즈 속성을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. 플래쉬(220)는 피사체로부터 방출되는 빛을 강화하기 위하여 사용되는 광원을 방출할 수 있다. 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다.
이미지 센서(230)는 피사체로부터 렌즈 어셈블리(210) 를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서로 구현될 수 있다.
이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향(예: 이미지 흔들림)을 적어도 일부 보상하기 위하여 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있으며, 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 상기 움직임을 감지할 수 있다.
메모리(250)는 이미지 센서(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.
이미지 시그널 프로세서(260)는 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 이미지 처리(예: 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening))을 수행할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장 되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 전달될 수 있다. 일실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 이미지들은 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다.
일실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 둘 이상의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 적어도 하나의 카메라 모듈(180)은 광각 카메라 또는 전면 카메라이고, 적어도 하나의 다른 카메라 모듈은 망원 카메라 또는 후면 카메라일 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(101))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
도 3은 다양한 실시예들에 따른 전자 장치(electronic device) 및 상기 전자 장치를 거치하는 장치(apparatus)를 포함하는 환경의 예를 도시한다. 상기 전자 장치는 도 1에 도시된 전자 장치(101)를 포함할 수 있고, 상기 장치는 도 1에 도시된 전자 장치(102)를 포함할 수 있다.
도 3을 참조하면 환경(300)은, 사용자에게 이미지의 획득을 위한 강화된(enhanced) 환경을 제공하기 위해, 전자 장치(101) 및/또는 전자 장치(102)를 포함할 수 있다. 환경(300)이 전자 장치(101) 및 전자 장치(102)를 포함함은, 이미지의 획득을 위해 전자 장치(101)과 전자 장치(102)가 연동함을 의미할 수 있다.
전자 장치(101)는 정보를 제공할 수 있다. 전자 장치(101)는 정보를 제공하기 위해 디스플레이(예: 도 1에 도시된 표시 장치(160))를 포함할 수 있다. 다양한 실시예들에서, 전자 장치(101)의 디스플레이는, 전자 장치(101)의 구성요소들을 실장하기 위한 하우징(housing) 내에 포함될 수 있다. 전자 장치(101)의 디스플레이는, 상기 하우징의 제1 면의 적어도 일부를 통해 노출될 수 있다. 전자 장치(101)의 디스플레이는, 제1 방향으로 배치될 수 있다.
전자 장치(101)는 촬영 기능을 제공할 수 있다. 전자 장치(101)는 촬영 기능을 제공하기 위해 카메라(예: 카메라 모듈(180))를 복수 개 포함할 수 있다.
다양한 실시예들에서, 상기 복수의 카메라들 중 제1 카메라는, 상기 디스플레이의 영역(예: 커브드 영역 또는 평면 영역) 중 적어도 일부(예: 평면 영역의 일부)가 시각적으로 노출되는 방향(예; 전면 방향)으로 제1 카메라의 광축이 얼라인되도록 배치되는측면에서, 전면 카메라로 참조될 수 있다. 동일한 측면에서, 후술될 제2 카메라는 후면 카메라로 참조될 수 있다.
상기 제1 카메라를 통해 획득되는 이미지에 대한 프리뷰 이미지는, 상기 디스플레이에서 표시될 수 있다. 상기 제1 카메라는 상기 디스플레이와 같은 면을 통해 노출되기 때문에, 사용자가 상기 제1 카메라를 통해 셀피(selfie)를 획득하는 경우, 사용자는, 상기 셀피를 획득하는 동안, 상기 셀피에 대한 프리뷰 이미지를 상기 디스플레이를 통해 확인할 수 있다. 예를 들면, 사용자는 상기 프리뷰 이미지를 통해 상기 셀피의 구도(composition)를 확인한 후, 전자 장치(101)에 대한 촬영 입력을 이용하여 상기 셀피를 획득할 수 있다. 다양한 실시예들에서, 상기 셀피는, 사용자가 스스로 촬영하면서 획득되는 자신이 포함된 인물 사진(self-portrait photograph)을 의미할 수 있다.
다양한 실시예들에서, 상기 복수의 카메라들 중 제2 카메라는, 상기 디스플레이가 배치되는 방향에 반대인 방향으로 지향되거나 상기 디스플레이가 노출되는 면에 반대인 면을 통해 노출된다는 측면에서, 후면 카메라로 참조될 수 있다.
상기 제2 카메라를 통해 획득되는 이미지에 대한 프리뷰 이미지는, 상기 디스플레이에서 표시될 수 있다. 상기 제2 카메라는 상기 디스플레이가 노출되는 면과 구별되는 면을 통해 노출되기 때문에, 사용자가 상기 제2 카메라를 통해 셀피를 획득하는 경우, 사용자는, 상기 셀피를 획득하는 동안, 상기 셀피에 대한 프리뷰 이미지를 상기 디스플레이를 통해 확인하지 못할 수 있다. 상기 제2 카메라와 상기 디스플레이는 서로 다른 면에 배치되기 때문에, 사용자가 상기 제2 카메라를 통해 상기 셀피를 획득하는 경우, 사용자의 시야는 상기 디스플레이를 포함하지 못할 수 있다. 예를 들면, 사용자는 상기 프리뷰 이미지를 통해 상기 셀피의 구도를 미확인한 상태에서, 전자 장치(101)에 대한 촬영 입력을 이용하여 상기 셀피를 획득할 수 있다. 사용자는, 이러한 미확인으로 인하여, 불편함을 느낄 수 있다.
다양한 실시예들에서, 상기 제2 카메라의 특성(characteristics)은 상기 제1 카메라의 특성과 다를 수 있다. 예를 들면, 상기 제2 카메라와 관련된 화소들의 수는 상기 제1 카메라와 관련된 화소들의 수보다 클 수 있다. 상기 제2 카메라를 이용하여 획득되는 이미지의 화질(picture quality)은, 상기 제1 카메라를 이용하여 획득되는 이미지의 화질보다 높을 수 있다. 다른 예를 들면, 상기 제2 카메라의 시야(예: FOV(field of view), AOV(angle of view) 등)의 범위는 상기 제1 카메라의 시야의 범위보다 좁을 수 있다. 또 다른 예를 들면, 상기 제2 카메라를 통해 제공 가능한 줌의 범위는 상기 제1 카메라를 통해 제공 가능한 줌의 범위보다 넓을 수 있다.
다양한 실시예들에서, 전자 장치(101)는, 전자 장치(102)와 연동함으로써, 상기 제1 카메라 및 상기 제2 카메라를 포함하는 상기 복수의 카메라들을 이용하여 이미지(예: 셀피)를 획득할 수 있다. 다양한 실시예들에서, 전자 장치(101)는, 상기 이미지의 획득을 위해, 전자 장치(102)와 유선적으로(by wire) 또는 무선적으로(by wireless) 통신할 수 있다. 예를 들면, 전자 장치(101)는, 상기 제1 카메라를 이용하여 상기 셀피를 획득하기 위해, 전자 장치(102)에 작동적으로(operatively) 결합될 수 있다. 다른 예를 들면, 전자 장치(101)는 상기 제2 카메라를 이용하여 상기 셀피를 획득하기 위해, 전자 장치(102)에 작동적으로 결합될 수 있다. 전자 장치(101)와 전자 장치(120) 사이의 연동(association)에 대한 상세한 설명은, 도 4 내지 도 20을 통해 설명될 것이다.
전자 장치(102)는 전자 장치(101)에게 다양한 자원들을 제공할 수 있다.
다양한 실시예들에서, 전자 장치(102)는 전자 장치(101)에게 전자 장치(101)를 거치할 수 있는 공간(space)을 제공할 수 있다. 전자 장치(102)는, 상기 거치를 위해, 결합부를 포함할 수 있다. 다양한 실시예들에서, 상기 결합부는, 전자 장치(102)의 구성요소들을 실장하기 위한 하우징 내에 배치될 수 있다. 전자 장치(102)는 상기 결합부를 통해 전자 장치(101)를 거치할 수 있다. 다양한 실시예들에서, 전자 장치(102)는 전자 장치(101)를 거치한다는 측면에서, 독(dock)으로 참조될 수 있다.
다양한 실시예들에서, 전자 장치(102)는 전자 장치(101)에게 이미지의 획득과 관련된 기능을 제공할 수 있다. 다양한 실시예들에서, 상기 이미지의 획득과 관련된 기능은 이미지를 획득하는 전자 장치(101)의 자세(position)를 조정하는 기능을 포함할 수 있다. 예를 들면, 전자 장치(102)는, 전자 장치(102)에 의해 거치된 전자 장치(101)의 자세를 조정하기 위해, 적어도 하나의 모터를 포함할 수 있다. 상기 적어도 하나의 모터는, 전자 장치(102)에 의해 거치된 전자 장치(101)의 제1 방향과 관련된 자세를 조정하기 위한 제1 모터를 포함할 수 있다. 예를 들면, 상기 제1 모터는, 전자 장치(102)에 의해 거치된 전자 장치(101)의 방위각(azimuth angle)을 조정하기 위해 이용될 수 있다. 다양한 실시예들에서, 상기 방위각은 전자 장치(102)가 놓인 면에 실질적으로 수평한 방향과 관련된 각을 의미할 수 있다. 다양한 실시예들에서, 전자 장치(102)는, 상기 제1 모터를 이용하여, 전자 장치(102)에 의해 거치된 전자 장치(101)의 수평 방향과 관련된 자세를 조정할 수 있다. 상기 적어도 하나의 모터는, 전자 장치(102)에 의해 거치된 전자 장치(101)의 제2 방향과 관련된 자세를 조정하기 위한 제2 모터를 포함할 수 있다. 예를 들면, 상기 제2 모터는, 전자 장치(102)에 의해 거치된 전자 장치(101)의 고도각(elevation angle)을 조정하기 위해 이용될 수 있다. 다양한 실시예들에서, 상기 고도각은 전자 장치(102)가 놓인 상기 면에 실질적으로 수직한 방향과 관련된 각을 의미할 수 있다. 다양한 실시예들에서, 전자 장치(102)는, 상기 제2 모터를 이용하여, 전자 장치(102)에 의해 거치된 전자 장치(101)의 수직 방향과 관련된 자세를 조정할 수 있다. 다양한 실시예들에서, 전자 장치(101)는, 전자 장치(102)에 의해 거치된 상태에서 사용자 입력에 기반하여 이미지를 획득할 수 있다. 다양한 실시예들에서, 전자 장치(101)는, 전자 장치(102)에 의해 전자 장치(101)의 자세가 조정된 상태에서 사용자 입력에 기반하여 이미지를 획득할 수 있다.
다양한 실시예들에서, 전자 장치(102)는 전자 장치(101)에게 전력을 제공할 수 있다. 다양한 실시예들에서, 전자 장치(101)는 휴대 가능하도록 설정될(configure) 수 있다. 다양한 실시예들에서, 전자 장치(102)는, 휴대성을 제공하기 위해, 전자 장치(101)에 포함된 배터리를 충전하기 위한 전력을 제공할 수 있다. 상기 전력의 제공을 위해, 전자 장치(102)는 전기적으로 전자 장치(101)와 연결될 수 있다. 예를 들면, 전자 장치(102)는 무선 통신 경로(예: 무선 충전을 위한 통신 경로)를 통해 전자 장치(101)와 전기적으로 연결될 수 있다. 예를 들면, 전자 장치(102)는, 유선 통신 경로(예: 유선 충전을 위한 통신 경로(예: USB))를 통해 전자 장치(101)와 전기적으로 연결될 수 있다.
도 3은 전자 장치(102)가 탁상형으로 설정된 예를 도시하고 있으나, 이는 설명의 편의를 위한 것임에 유의하여야 한다. 다양한 실시예들에서, 전자 장치(102)는 전자 장치(101)를 거치하기 위한 다양한 형태로 구현될 수 있다. 예를 들면, 전자 장치(102)는 사용자가 휴대할 수 있는 형태(예: 셀카 봉(selfie stick))로 설정될 수 있다. 하지만, 이에 한정되지 않는다.
도 4는 다양한 실시예들에 따라 전자 장치를 거치하는 장치의 예를 도시한다. 상기 장치에 의해 거치되는 전자 장치는, 도 1 및 도 3에 도시된 전자 장치(101)를 포함할 수 있고, 상기 전자 장치를 거치하는 상기 장치는, 도 1 및 도 3에 도시된 전자 장치(102)를 포함할 수 있다.
도 4를 참조하면, 장치(102)는 프로세서(410), 통신 모듈(420), 제1 모터(430-1), 제2 모터(430-2), 마이크로폰(440), 또는 스피커(450)를 포함할 수 있다.
프로세서(410)는 도 1에 도시된 프로세서(120)를 포함할 수 있고, 통신 모듈(420)은 도 1에 도시된 통신 모듈(190)을 포함할 수 있고, 마이크로폰(440)은 도 1에 도시된 입력 장치(150)를 포함할 수 있으며, 스피커(450)는 도 1에 도시된 음향 출력 장치(155)를 포함할 수 있다.
다양한 실시예들에서, 프로세서(410)는, 장치(102)의 전반적인 동작을 제어하기 위해, 통신 모듈(420), 제1 모터(430-1), 제2 모터(430-2), 마이크로폰(440), 및 스피커(450)와 작동적으로 결합될(operatively coupled to) 수 있다.
다양한 실시예들에서, 프로세서(410)는, 장치(102)에 의해 거치되는 전자 장치(101)와 통신 모듈(420)을 이용하여 통신할 수 있다.
예를 들면, 프로세서(410)는, 장치(102)에 의해 거치되는 전자 장치(101)로부터, 장치(102)에 의해 거치되는 전자 장치(101)의 자세(position)를 변경할 것을 요청하기 위한 신호를 수신할 수 있다. 다양한 실시예들에서, 상기 자세는, 이미지(예: 셀피)를 획득하는 타이밍에서의 전자 장치(101)의 자세를 의미할 수 있다. 다양한 실시예들에서, 상기 신호는, 이미지를 획득하기 위한 전자 장치(101)의 자세를 조정하기 위한 전자 장치(101) 또는 장치(102)에 대한 사용자 입력에 기반하여, 전자 장치(101)로부터 장치(102)에게 송신될 수 있다. 예를 들면, 전자 장치(101)는 음성 신호 또는 제스쳐로 설정되고, 전자 장치(101)의 자세를 조정하기 위한 전자 장치(101)에 대한 사용자 입력을 수신하고, 상기 수신된 사용자 입력에 기반하여 상기 신호를 장치(102)에게 송신할 수 있다. 다른 예를 들면, 장치(102)는, 음성 신호 또는 제스쳐로 설정된 장치(102)에 대한 사용자 입력을 수신하고, 상기 수신된 사용자 입력에 대한 정보를 장치(101)에게 송신할 수 있다. 전자 장치(101)는, 상기 사용자 입력을 인식하고, 상기 인식에 기반하여 장치(102)에게 상기 신호를 송신할 수 있다. 하지만, 이에 제한되지 않는다.
다양한 실시예들에서, 상기 신호는, 전자 장치(101)의 카메라를 통해 획득될 이미지의 구도를 조정하기 위해 전자 장치(101)로부터 장치(102)에게 송신될 수 있다. 다양한 실시예들에서, 상기 신호는, 전자 장치(101)의 디스플레이와 다른 면에 배치된 카메라를 이용하여 이미지를 획득하기 위해 전자 장치(101)로부터 장치(102)에게 송신될 수 있다.
다양한 실시예들에서, 상기 신호는, 변경될 전자 장치(101)의 자세에 대한 정보를 포함할 수 있다. 다양한 실시예들에서, 상기 신호는, 변경될 전자 장치(101)의 자세를 특정하기 위한 데이터를 포함할 수 있다. 예를 들면, 상기 신호는, 전자 장치(101)의 자세를 변경하기 위해 요구되는 상기 방위각의 변화값(difference value)을 나타내는 데이터를 포함할 수 있다. 예를 들면, 상기 신호는, 전자 장치(101)의 자세를 변경하기 위해 요구되는 상기 고도각의 변화값을 나타내는 데이터를 포함할 수 있다. 다양한 실시예들에서, 장치(102)는, 통신 모듈(420)을 이용하여 상기 신호를 수신하고, 상기 신호에 포함되고 상기 방위각의 변화값을 나타내는 데이터에 기반하여 제1 모터(430-1)를 제어함으로써, 전자 장치(101)의 자세를 변경할 수 있다. 다양한 실시예들에서, 장치(102)는, 통신 모듈(420)를 이용하여 상기 신호를 수신하고, 상기 신호에 포함되고 상기 고도각의 변화값을 나타내는 데이터에 기반하여 제2 모터(430-2)를 제어함으로써, 전자 장치(101)의 자세를 변경할 수 있다.
다른 예를 들면, 프로세서(410)는, 장치(102)에 의해 거치되는 전자 장치(101)에게, 전자 장치(101)의 자세(position)를 변경할 것을 요청하기 위한 상기 신호에 따른 전자 장치(101)의 자세의 변경이 완료됨을 나타내기 위한 신호를 송신할 수 있다. 예를 들면, 프로세서(410)는, 제1 모터(430-1) 또는 제2 모터(430-2) 중 적어도 하나를 제어함으로써, 장치(102)에 의해 거치된 전자 장치(101)의 자세를 변경하는 것을 완료하는 것에 기반하여, 전자 장치(101)의 자세의 변경이 완료됨을 나타내기 위한 신호를 전자 장치(101)에게 송신할 수 있다.
또 다른 예를 들면, 프로세서(410)는, 장치(102)에 의해 거치되는 전자 장치(101)로부터, 전자 장치(101)의 이미지의 획득이 완료됨을 나타내기 위한 신호를 수신할 수 있다. 다양한 실시예들에서, 전자 장치(101)의 이미지의 획득이 완료됨을 나타내기 위한 상기 신호는, 상기 이미지의 획득이 완료된 후 장치(102)에 의해 거치된 전자 장치(101)의 자세를 상기 이미지의 획득 전의 자세로 복원하기 위해 이용될 수 있다. 다양한 실시예들에서, 전자 장치(101)의 이미지의 획득이 완료됨을 나타내기 위한 상기 신호는, 전자 장치(101)에 의해 획득된 상기 이미지를 사용자의 시야 안에서 표시하기 위해 전자 장치(101)로부터 장치(102)에게 송신될 수 있다.
다양한 실시예들에서, 상기 신호는, 복원될 전자 장치(101)의 자세에 대한 정보를 포함할 수 있다. 다양한 실시예들에서, 상기 신호는, 복원될 전자 장치(101)의 자세를 특정하기 위한 데이터를 포함할 수 있다. 예를 들면, 상기 신호는, 전자 장치(101)의 자세를 복원하기 위해 요구되는 상기 방위각의 변화값(difference value)을 나타내는 데이터를 포함할 수 있다. 예를 들면, 상기 신호는, 전자 장치(101)의 자세를 복원하기 위해 요구되는 상기 고도각의 변화값을 나타내는 데이터를 포함할 수 있다. 다양한 실시예들에서, 장치(102)는, 통신 모듈(420)를 이용하여 상기 신호를 수신하고, 상기 신호에 포함되고 상기 방위각의 변화값을 나타내는 데이터에 기반하여 제1 모터(430-1)를 제어함으로써, 전자 장치(101)의 자세를 복원할 수 있다. 다양한 실시예들에서, 장치(102)는, 통신 모듈(420)를 이용하여 상기 신호를 수신하고, 상기 신호에 포함되고 상기 고도각의 변화값을 나타내는 데이터에 기반하여 제2 모터(430-2)를 제어함으로써, 전자 장치(101)의 자세를 복원할 수 있다. 대안적으로, 장치(102)는, 전자 장치(101)의 자세를 복원하기 위해, 장치(102)에 포함된 버퍼(buffer)에 전자 장치(101)의 이전 자세에 대한 정보를 저장하거나 임시적으로 저장할 수 있다. 장치(102)는 버퍼에 임시적으로 저장된 정보에 기반하여, 전자 장치(101)의 자세를 복원할 수 있다. 대안적으로, 장치(102)는, 전자 장치(101)로부터 수신되었던 전자 장치(101)의 자세를 변경할 것을 요청하기 위한 신호에 포함된 데이터(예: 전자 장치(101)의 자세를 변경할 것을 요청하기 위한 신호에 포함된 방위각의 변화값을 나타내는 데이터 또는 고도각의 변화값을 나타내는 데이터 중 적어도 하나)에 기반하여, 전자 장치(101)의 자세를 복원할 수 있다. 예를 들면, 장치(102)는, 상기 데이터로부터 역(reverse) 데이터를 획득하고, 상기 획득된 역 데이터에 기반하여 전자 장치(101)의 자세를 복원할 수 있다.
다양한 실시예들에서, 프로세서(410)는, 전자 장치(101)의 디스플레이가 노출되는 면과 동일한 면을 통해 노출되는 전자 장치(101)의 제1 카메라를 통해 획득되는 이미지의 구도에 상응하는 구도를 가지는 이미지를 상기 면에 반대인 면을 통해 노출되는 전자 장치(101)의 제2 카메라를 통해 획득하기 위해, 장치(102)에 의해 거치된 전자 장치(101)로부터, 전자 장치(101)의 자세를 변경할 것을 요청하기 위한 상기 신호를 수신할 수 있다. 프로세서(410)는, 상기 신호에 적어도 기반하여, 제1 모터(430-1) 또는 제2 모터(430-2) 중 적어도 하나를 제어함으로써, 장치(102)에 의해 거치된 전자 장치(101)의 자세를 변경할 수 있다. 프로세서(410)는, 상기 자세의 변경이 완료됨을 식별하는 것에 응답하여, 전자 장치(101)에게 상기 자세의 변경이 완료됨을 나타내기 위한 신호를 송신할 수 있다. 한편, 전자 장치(101)는, 상기 자세의 변경이 완료됨을 나타내기 위한 신호를 수신하는 것에 기반하여, 상기 제2 카메라를 통해 이미지를 획득할 수 있다. 다양한 실시예들에서, 전자 장치(101)는, 상기 이미지의 획득에 기반하여, 상기 이미지의 획득이 완료됨을 나타내기 위한 신호를 장치(102)에게 송신할 수 있다. 프로세서(410)는, 상기 이미지의 획득이 완료됨을 나타내기 위한 신호를 수신하는 것에 응답하여, 전자 장치(101)의 자세를 복원할 수 있다.
다양한 실시예들에서, 프로세서(410)는, 마이크로폰(440)을 통해 사용자 입력을 수신할 수 있다. 다양한 실시예들에서, 상기 사용자 입력은 음성 신호로 설정될 수 있다.
다양한 실시예들에서, 상기 음성 신호는 웨이크-업 명령을 포함할 수 있다. 상기 웨이크-업 명령은, 사용자가 장치(102)와의 인터액션을 개시함을 나타낼 수 있다. 상기 웨이크-업 명령은, 상기 웨이크-업 명령 다음에 음성 명령(voice command)이 수신될 예정임을 나타낼 수 있다. 상기 웨이크-업 명령은, 장치(102)의 음성 인식(voice recognition)을 위한 기능을 활성화하기 위해 이용되는 음성 입력일 수 있다. 상기 웨이크-업 명령은, 상기 웨이크-업 명령 후에 수신될 수 있는 음성 명령이 장치(102)와 관련된 음성 신호임을 나타내기 위해 이용되는 음성 입력일 수 있다. 상기 웨이크-업 명령은, 장치(102)와 관련되지 않은 음성 신호와 장치(102)와 관련된 음성 신호를 구별하기 위해 이용될 수 있다. 상기 웨이크-업 명령은, "헤이 빅스비(hey bixby)"와 같이 적어도 하나의 지정된(designated 또는 specified) 키워드(keyword)로 설정될(configured with) 수 있다. 상기 웨이크-업 명령은, 상기 적어도 하나의 키워드에 상응하는지 여부를 식별하는 것이 요구되는 음성 입력일 수 있다. 상기 웨이크-업 명령은, 자연어 처리(natural language processing)를 요구하지 않거나 제한된 수준(level)의 자연어 처리를 요구하는 음성 입력일 수 있다.
상기 음성 신호는, 상기 웨이크-업 명령 다음에 음성 명령을 더 포함할 수 있다. 상기 음성 명령은, 상기 음성 신호가 사용자에 의해 야기된 목적 또는 이유와 관련될 수 있다. 상기 음성 명령은, 사용자가 장치(102)를 통해 제공받길 원하는 서비스를 나타내기 위한 정보를 포함할 수 있다. 상기 음성 명령은 "오늘 날씨는?" 또는 "지금 재생 중인 음악의 곡명은?" 등과 같이 사용자와 장치(102) 사이의 인터액션을 위한 적어도 하나의 텍스트로 설정될(configured with) 수 있다. 상기 음성 명령은, 상기 적어도 하나의 텍스트가 무엇인지를 식별하는 것이 요구되는 음성 입력일 수 있다. 상기 음성 명령은 자연어 처리를 요구하는 음성 입력일 수 있다.
다양한 실시예들에서, 프로세서(410)는, 상기 음성 신호에 대한 정보 또는 상기 음성 신호로부터 식별된 상기 음성 명령에 대한 정보를 전자 장치(101)에게 제공할 수 있다.
다양한 실시예들에서, 프로세서(410)는, 다양한 종류의 오디오 신호를 스피커(450)를 통해 출력할 수 있다. 다양한 실시예들에서, 상기 오디오 신호는, 알림을 제공하기 위해 스피커(450)를 통해 출력될 수 있다. 예를 들면, 프로세서(410)는, 전자 장치(101)로부터 수신되는 정보에 기반하여, 이미지의 획득(또는 촬영)과 관련된 알림을 스피커(450)를 통해 출력할 수 있다. 다양한 실시예들에서, 상기 오디오 신호는, 상기 음성 신호에 대한 피드백을 제공하기 위해 스피커(450)를 통해 출력될 수 있다. 예를 들면, 프로세서(410)는, 상기 음성 명령에 기반하여 식별된 피드백에 대한 정보를 전자 장치(101)로부터 수신하고, 상기 수신된 정보에 기반하여 상기 피드백을 스피커(450)를 통해 출력할 수 있다.
도 4는 장치(102)가 프로세서(410), 통신 모듈(420), 제1 모터(430-1), 제2 모터(430-2), 마이크로폰(440), 또는 스피커(450) 모두를 포함하는 예를 도시하고 있다. 실시예들에 따라, 프로세서(410), 통신 모듈(420), 제1 모터(430-1), 제2 모터(430-2), 마이크로폰(440), 및 스피커(450) 중 적어도 일부는, 장치(102)에 포함되지 않을 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 장치(102)는, 전자 장치(101) 또는 장치(102)와 관련된 사용자가 전자 장치(101)의 디스플레이가 노출되는 면에 반대인 면을 통해 노출된 전자 장치(101)의 카메라를 통해 셀피를 획득할 수 있도록, 적어도 하나의 모터를 이용하여 장치(102)에 의해 거치된 전자 장치(101)의 자세를 조정할 수 있다. 이러한 자세의 조정을 통해, 장치(102)는, 전자 장치(101)을 통해 보다 높은 화질을 가지는 셀피를 획득할 수 있도록 가이드할 수 있다.
도 5는 다양한 실시예들에 따른 전자 장치의 구성의 예를 도시한다. 이러한 구성은 도 1에 도시된 전자 장치(101) 또는 도 3에 도시된 전자 장치(101)에 포함될 수 있다.
도 5를 참조하면, 전자 장치(101)는 프로세서(120), 메모리(130), 디스플레이(160), 센서(176), 제1 카메라(180-1), 제2 카메라(180-2), 통신 모듈(190), 마이크로폰(510), 스피커(520), 및 센서(530)를 포함할 수 있다.
프로세서(120)는 도 1에 도시된 프로세서(120)를 포함할 수 있고, 메모리(130)는 도 1에 도시된 메모리(130)를 포함할 수 있고, 디스플레이(160)는 도 1에 도시된 표시 장치(160)를 포함할 수 있고, 통신 모듈(190)은 도 1에 도시된 통신 모듈(190)을 포함할 수 있고, 마이크로폰(510)은 도 1에 도시된 입력 장치(150)를 포함할 수 있고, 스피커(520)는 도 1에 도시된 음향 출력 장치(155)를 포함할 수 있으며, 센서(530)는 도 1에 도시된 센서 모듈(176)을 포함할 수 있다.
다양한 실시예들에서, 제1 카메라(180-1)는 디스플레이(160)가 노출되는 전자 장치(101)의 하우징의 제1 면의 적어도 일부를 통해 노출될 수 있다. 다양한 실시예들에서, 제2 카메라(180-2)는 디스플레이(160)가 노출되는 상기 제1 면과 구별되는 제2 면의 적어도 일부를 통해 노출될 수 있다. 예를 들면, 상기 제2 면은, 상기 제1 면에 반대일 수 있다. 다른 예를 들면, 제1 카메라(180-1)의 렌즈의 광축(예: 도 3의 광축(310))이 향하는 제1 방향은 제2 카메라(180-2)의 렌즈의 광축이 향하는 제2 방향에 반대일 수 있다.
다양한 실시예들에서, 제2 카메라(180-2)의 특성은 제1 카메라(180-1)의 특성과 다를 수 있다. 예를 들면, 제2 카메라(180-2)는 제1 카메라(180-1)보다 높은 화질의 이미지를 획득할 수 있다. 다른 예를 들면, 제2 카메라(180-2)의 시야의 범위는 제1 카메라(180-1)의 시야의 범위보다 좁을 수 있다. 또 다른 예를 들면, 제2 카메라(180-2)는 제1 카메라(180-1)보다 작은 노이즈를 가지는 이미지를 획득할 수 있다.
한편, 다양한 실시예들에서, 제2 카메라(180-2)를 이용하여 셀피를 촬영하는 경우, 제2 카메라(180-2)는 디스플레이(160)가 향하는 방향과 다른 방향으로 배치되기 때문에, 전자 장치(101)는, 제1 카메라(180-1)를 이용하여 획득되는 이미지보다 높은 화질을 가지는 이미지를 획득할 수 있지만, 상기 획득되는 이미지가 어떤 구도를 가지는지를 사용자에게 제공할 수 없다.
다양한 실시예들에 따른 장치(102)에 의해 거치된 전자 장치(101)의 프로세서(120)는, 제2 카메라(180-2)를 통해 이미지를 획득하는 동안 장치(102)와의 통신을 통해 전자 장치(101)의 자세를 제어함으로써, 제2 카메라(180-2)를 통해 획득될 이미지의 구도를 사용자의 시야 내에서 제공할 수 있다.
예를 들면, 프로세서(120)는, 제1 카메라(180-1)를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 디스플레이(160)를 이용하여 표시할 수 있다. 다양한 실시예들에서, 상기 프리뷰 이미지는 메모리(130)에 저장된 카메라 어플리케이션의 사용자 인터페이스 내에서 표시될 수 있다.
다양한 실시예들에서, 프로세서(120)는 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 이미지를 보여주기(represent) 위한 시각적 객체를 상기 제1 이미지에 대한 상기 프리뷰 이미지와 함께 표시할 수 있다. 다양한 실시예들에서, 상기 제2 구도를 가지는 이미지는, 장치(102)에 의해 거치된 전자 장치(101)의 자세가 변경된 후, 제2 카메라(180-2)를 통해 획득될 제2 이미지에 상응할 수 있다. 다양한 실시예들에서, 상기 제2 구도를 가지는 이미지는, 상기 제1 이미지를 처리함으로써, 획득될 수 있다. 예를 들면, 프로세서(120)는, 상기 제1 이미지를 제1 카메라(180-1)의 특성과 제2 카메라(180-2)의 특성 사이의 차이에 기반하여 처리함으로써 상기 제2 구도를 가지는 이미지를 획득할 수 있다. 프로세서(120)는, 상기 획득에 기반하여 제2 구도를 가지는 이미지를 보여주기 위한 상기 시각적 객체를 상기 제1 이미지에 대한 상기 프리뷰 이미지와 함께 표시할 수 있다. 다양한 실시예들에서, 상기 시각적 객체는, 제2 카메라(180-2)를 통해 획득될 상기 제1 이미지의 상기 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지에 대한 다른(another) 프리뷰 이미지로 설정될(configured with) 수 있다. 상기 다른 프리뷰 이미지는, 상기 프리뷰 이미지에 일부 중첩되거나 상기 프리뷰 이미지 주변에서 표시될 수 있다. 다양한 실시예들에서, 상기 시각적 객체는, 제2 카메라 (180-2)를 통해 획득될 상기 제1 이미지의 상기 제1 구도에 상응하는 상기 제2 구도를 가지는 상기 제2 이미지의 영역을 나타내기 위한 인디케이터(indicator)로 설정될 수도 있다.
다양한 실시예들에서, 프로세서(120)는, 디스플레이(160)을 통해 상기 제1 이미지에 대한 프리뷰 이미지를 표시하는 동안, 프로세서(120)는 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 제2 카메라(180-2)를 통해 획득할 것을 나타내는 입력을 수신할 수 있다. 다양한 실시예들에서, 상기 입력은, 상기 제1 이미지의 상기 제1 구도가 사용자에 의해 확인(confirm)된 후, 수신될 수 있다.
다양한 실시예들에서, 상기 입력은 다양한 유형들을 가질 수 있다.
예를 들면, 상기 입력은, 전자 장치(101)의 마이크로폰(510)을 통해 수신되는 음성 신호를 포함할 수 있다. 상기 음성 신호는 웨이크-업 명령을 포함할 수 있다. 상기 웨이크-업 명령은, 사용자가 전자 장치(101)와의 인터액션을 개시함을 나타낼 수 있다. 상기 웨이크-업 명령은, 상기 웨이크-업 명령 다음에 음성 명령(voice command)이 수신될 예정임을 나타낼 수 있다. 상기 웨이크-업 명령은, 전자 장치(101)의 음성 인식(voice recognition)을 위한 기능을 활성화하기 위해 이용되는 음성 입력일 수 있다. 상기 웨이크-업 명령은, 상기 웨이크-업 명령 후에 수신될 수 있는 음성 명령이 전자 장치(101)와 관련된 음성 신호임을 나타내기 위해 이용되는 음성 입력일 수 있다. 상기 웨이크-업 명령은, 전자 장치(101)와 관련되지 않은 음성 신호와 전자 장치(101)와 관련된 음성 신호를 구별하기 위해 이용될 수 있다. 상기 웨이크-업 명령은, "헤이 빅스비(hey bixby)"와 같이 적어도 하나의 지정된(designated 또는 specified) 키워드(keyword)로 설정될(configured with) 수 있다. 상기 웨이크-업 명령은, 상기 적어도 하나의 키워드에 상응하는지 여부를 식별하는 것이 요구되는 음성 입력일 수 있다. 상기 웨이크-업 명령은, 자연어 처리(natural language processing)를 요구하지 않거나 제한된 수준(level)의 자연어 처리를 요구하는 음성 입력일 수 있다. 상기 음성 신호는 상기 웨이크-업 명령 다음에 음성 명령을 더 포함할 수 있다. 상기 음성 명령은, 상기 음성 신호가 사용자에 의해 야기된 목적 또는 이유와 관련될 수 있다. 상기 음성 명령은, 사용자가 전자 장치(101)를 통해 제공받길 원하는 서비스를 나타내기 위한 정보를 포함할 수 있다. 상기 음성 명령은 "제2 카메라를 통해 셀피를 촬영해" 또는 "현재 프리뷰 이미지를 제2 카메라를 통해 촬영해" 등과 같이 사용자와 전자 장치(101) 사이의 인터액션을 위한 적어도 하나의 텍스트로 설정될(configured with) 수 있다. 상기 음성 명령은, 상기 적어도 하나의 텍스트가 무엇인지를 식별하는 것이 요구되는 음성 입력일 수 있다. 상기 음성 명령은 자연어 처리를 요구하는 음성 입력일 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 음성 명령을 인식함으로써, 상기 음성 명령이 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 제2 카메라(180-2)를 통해 획득할 것을 나타냄을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 음성 신호로부터 상기 음성 명령을 식별하고, 상기 식별된 음성 명령에 대한 정보를 음성 인식을 위한 서버에게 송신할 수 있다. 프로세서(120)는, 상기 서버로부터 수신되는 정보에 기반하여, 상기 음성 명령이 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 제2 카메라(180-2)를 통해 획득할 것을 나타냄을 식별할 수 있다.
다른 예를 들면, 상기 입력은, 전자 장치(101)의 제1 카메라(180-1)를 통해 획득되는 사용자의 제스쳐를 포함할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 제1 카메라를 통해 사용자의 제스쳐를 포함하는 이미지를 획득하고, 상기 획득된 이미지를 인식함으로써 상기 제스쳐가 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 제2 카메라(180-2)를 통해 획득할 것을 나타냄을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 이미지에 대한 정보(또는 이미지로부터 추출된 제스쳐에 대한 정보)를 이미지 인식을 위한 서버에게 송신할 수 있다. 프로세서(120)는, 상기 서버로부터 수신되는 정보에 기반하여, 상기 이미지에 포함된 제스쳐가 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 제2 카메라(180-2)를 통해 획득할 것을 나타냄을 식별할 수 있다.
또 다른 예를 들면, 상기 입력은, 전자 장치(101)와 연동된 다른 전자 장치(예: 장치(102) 또는 장치(102)와 구별되는 전자 장치(104)(예: 리모컨(remote controller) 등))로부터 수신되는 신호일 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 수신된 신호를 분석함으로써, 상기 신호가 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 제2 카메라(180-2)를 통해 획득할 것을 나타냄을 식별할 수 있다.
프로세서(120)는 상기 입력을 수신하는 것에 기반하여, 전자 장치(101)를 제1 자세로 거치하는 장치(102)에게, 상기 제1 자세를 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 상기 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 통신 모듈(190)을 이용하여 요청할 수 있다. 다양한 실시예들에서, 상기 제1 자세는, 상기 입력을 수신하는 타이밍에서 전자 장치(101)의 자세를 의미할 수 있다. 다양한 실시예들에서, 상기 제2 자세는, 상기 제1 자세에서 제1 카메라(180-1)를 이용하여 획득되는 상기 제1 이미지에 상응하는 상기 제2 이미지를 제2 카메라(180-1)를 통해 획득하기 위해 요구되는 자세를 의미할 수 있다. 다양한 실시예들에서, 상기 제2 자세로 장치(102)에 거치된 전자 장치(101)의 제2 카메라(180-2)의 광축이 위치되는 지점은, 상기 제1 자세로 장치(102)에 거치된 전자 장치(101)의 제1 카메라(180-1)의 광축(예: 도 3에 도시된 광축(310))이 위치되는 지점에 상응할 수 있다.
다양한 실시예들에서, 프로세서(120)는 메모리(130)에 미리 저장된 데이터베이스를 이용하여 상기 제2 자세를 식별할 수 있다. 예를 들면, 상기 데이터베이스는 하기의 표 1과 같이 설정될 수 있다.
Figure PCTKR2019001186-appb-I000001
표 1에서, 상기 제1 자세에서의 전자 장치(101)의 방위각은, 0도로부터 180도로 설정되고, 상기 제1 자세에서의 전자 장치(101)의 고도각은, 0도로부터 180도로 설정되고, 상기 제2 자세에서의 전자 장치(101)의 방위각은, 0도로부터 180도로 설정되며, 상기 제2 자세에서의 전자 장치(101)의 고도각은, 0도로부터 180도로 설정될 수 있다.
프로세서(120)는, 표 1과 같이 설정된 데이터 내에서, 센서(530)를 통해 획득되는 데이터에 기반하여 식별되는 상기 제1 자세에서의 전자 장치(101)의 방위각 및 상기 제1 자세에서의 전자 장치(101)의 고도각을 이용하여, 상기 제2 자세에서의 전자 장치(101)의 방위각 및 상기 제2 자세에서의 전자 장치(101)의 고도각에 대한 정보를 획득함으로써, 상기 제2 자세를 식별할 수 있다.
다양한 실시예들에서, 프로세서(120)는 메모리(130)에 미리 저장된 함수(또는 수학식)를 이용하여 상기 제2 자세를 식별할 수 있다.
다양한 실시예들에서, 전자 장치(101)로부터 장치(102)에게 송신되는 상기 요청은, 상기 제2 자세와 관련된 정보를 포함할 수 있다. 다양한 실시예들에서, 상기 제2 자세와 관련된 정보는, 상기 제2 자세에서의 전자 장치(101)의 고도각 및 상기 제2 자세에서의 전자 장치(101)의 방위각 중 적어도 하나를 나타내기 위한 데이터를 포함할 수 있다. 다양한 실시예들에서, 상기 제2 자세와 관련된 정보는, 상기 제1 자세에서의 전자 장치(101)의 고도각과 상기 제2 자세에서의 전자 장치(101)의 고도각 사이의 차이값 또는 상기 제1 자세에서의 전자 장치(101)의 방위각과 상기 제1 자세에서의 전자 장치(101)의 방위각 사이의 차이값 중 적어도 하나를 나타내기 위한 데이터를 포함할 수도 있다.
다양한 실시예들에서, 프로세서(120)는, 상기 요청을 장치(102)에게 제공한 후, 전자 장치(101)의 자세가 상기 제2 자세로 변경되는지 여부를 모니터링하거나 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 요청을 장치(102)에게 제공한 후, 장치(102)로부터 상기 제2 자세로의 변경이 완료됨을 나타내기 위한 메시지(또는 신호)를 수신되는지 여부를 모니터링함으로써 전자 장치(101)의 자세가 상기 제2 자세로 변경되는지 여부를 모니터링할 수 있다. 다른 예를 들면, 프로세서(120)는, 상기 요청을 장치(102)에게 제공한 후, 전자 장치(101)의 센서(530)를 통해 획득되는 데이터를 모니터링함으로써, 전자 장치(101)의 자세가 상기 제2 자세로 변경되는지 여부를 모니터링할 수 있다.
다양한 실시예들에서, 프로세서(120)는, 전자 장치(101)의 자세가 상기 제2 자세로 변경됨을 식별하는 것에 기반하여, 상기 제2 카메라를 통해 상기 제2 구도를 가지는 상기 제2 이미지를 획득할 수 있다. 예를 들면, 프로세서(120)는, 전자 장치(101)의 자세가 상기 제2 자세로 변경됨을 식별한 직후(immediately after) 상기 제2 카메라를 통해 상기 제2 구도를 가지는 상기 제2 이미지를 획득할 수 있다.
전자 장치(101)의 자세가 장치(102)에 의해 상기 제1 자세로부터 상기 제2 자세로 변경되는 동안 전자 장치(101)와 관련된 사용자는 디스플레이(160)를 통해 획득될 제2 이미지에 대한 프리뷰 이미지를 확인할 수 없기 때문에, 프로세서(120)는 스피커(520)를 통해 다양한 가이드 정보를 제공할 수 있다. 예를 들면, 프로세서(120)는, 전자 장치(101)의 자세가 장치(102)에 의해 상기 제1 자세로부터 상기 제2 자세로 변경되는 동안 상기 사용자가 움직이지 않을 것을 가이드하기 위한 정보를 스피커(520)를 통해 출력할 수 있다. 다른 예를 들면, 프로세서(120)는, 전자 장치(101)의 자세가 장치(102)에 의해 상기 제1 자세로부터 상기 제2 자세로 변경되는 동안 상기 제2 이미지를 획득하는 타이밍까지 남은 시간을 가이드하기 위한 정보를 스피커(520)를 통해 출력할 수 있다. 또 다른 예를 들면, 프로세서(120)는, 전자 장치(101)의 자세가 장치(102)에 의해 상기 제2 자세로 변경된 직후, 상기 제2 이미지를 획득하는 타이밍까지 남은 시간을 가이드하기 위한 정보를 스피커(520)를 통해 출력할 수 있다.
프로세서(120)는, 전자 장치(101)의 자세가 장치(102)에 의해 상기 제1 자세로부터 상기 제2 자세로 변경되는 동안, 디스플레이(160)의 상태를 활성 상태로부터 비활성 상태로 전환할 수 있다. 다양한 실시예들에서, 상기 활성 상태는, 디스플레이(160)에게 정상 전력이 공급되는 상태를 의미할 수 있다. 다양한 실시예들에서, 상기 활성 상태는, 디스플레이(160)를 통해 정보가 표시되는 상태를 의미할 수 있다. 다양한 실시예들에서, 상기 활성 상태는, 디스플레이(160)를 통해 빛이 발광되는 상태를 의미할 수 있다. 다양한 실시예들에서, 상기 비활성 상태는, 디스플레이(160)에게 제한된 전력이 공급되는 상태를 의미할 수 있다. 예를 들면, 상기 비활성 상태는, 디스플레이(160)가 낮은 프레임률에 기반하여 동작하는 상태를 의미하거나, 디스플레이(160)에 공급되는 전력이 차단된 상태를 의미할 수 있다. 다양한 실시예들에서, 상기 비활성 상태는, 디스플레이(160)를 상기 활성 상태로 복원하기 위해 부팅(booting up)이 요구되는 상태를 의미할 수 있다. 전자 장치(101)의 자세가 장치(102)에 의해 상기 제1 자세로부터 상기 제2 자세로 변경되는 동안, 디스플레이(160)를 통해 표시되는 정보는 사용자의 시야 밖에(outside of) 있을 수 있다. 다양한 실시예들에 따른 프로세서(120)는, 전자 장치(101)의 자세가 장치(102)에 의해 상기 제1 자세로부터 상기 제2 자세로 변경되는 동안 디스플레이(160)의 상태를 활성 상태로부터 비활성 상태로 전환함으로써, 디스플레이(160)에 의해 소비되는 전력을 감소시킬 수 있다. 이러한 디스플레이(160)의 상태의 전환은, 사용자의 시야의 밖에서 이뤄질 수 있기 때문에, 사용자에게 투명할(transparent) 수 있다.
다양한 실시예들에서, 프로세서(120)는, 상기 제2 이미지를 획득한 후, 전자 장치(101)의 자세를 상기 제2 자세로부터 상기 제1 자세로 복원하기 위해, 메모리(130)에 저장된 명령어들을 실행할 수 있다. 예를 들면, 프로세서(120)는, 상기 제2 이미지를 획득하는 것에 기반하여, 장치(102)에게 상기 제2 이미지의 획득이 완료됨을 나타내기 위한 메시지(또는 신호)를 송신할 수 있다. 다양한 실시예들에서, 상기 메시지는, 상기 제1 자세에 대한 정보(예: 상기 제1 자세에서의 전자 장치(101)의 방위각을 나타내기 위한 데이터 또는 상기 제1 자세에서의 전자 장치(101)의 고도각을 나타내기 위한 데이터 중 적어도 하나)를 포함할 수 있다. 다양한 실시예들에서, 프로세서(120)가 상기 제1 자세를 상기 제2 자세로 변경할 것을 요청할 때 상기 제1 자세와 상기 제2 자세 사이의 차이에 대한 정보를 송신하였던 경우, 상기 메시지는 장치(102)의 메모리(또는 버퍼)에 저장된 상기 제1 자세와 상기 제2 자세 사이의 차이에 대한 정보를 이용하여 상기 제2 자세를 상기 제1 자세로 복원할 것을 나타내는 명령을 포함할 수도 있다.
다양한 실시예들에서, 프로세서(120)는, 상기 제2 자세가 상기 제1 자세로 복원되는지 여부를 모니터링할 수 있다. 상기 모니터링은, 전자 장치(101)의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경되는지 여부를 모니터링하는 동작과 유사하게 수행될 수 있다.
다양한 실시예들에서, 프로세서(120)는, 상기 제1 자세로 복원됨을 모니터링하거나 식별하는 것에 기반하여, 상기 획득된 제2 이미지를 디스플레이(160)를 통해 표시할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 제2 이미지가 확정된 이미지에 해당하는지 여부를 확인하기 위해, 상기 획득된 제2 이미지를 디스플레이(160)를 통해 표시할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 전자 장치(101)의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원되는 동안, 상기 제2 이미지를 표시할 수도 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 디스플레이(160)와 동일한 면에 배치되는 제1 카메라(180-1)를 이용하여 획득되는 이미지에 대한 프리뷰 이미지를 이용하여 사용자에게 제2 카메라(180-2)를 이용하여 획득될 이미지에 대한 구도에 대한 정보를 제공한 후, 전자 장치(101)를 거치하는 장치(102)에게 전자 장치(101)의 자세를 변경하기 위한 정보를 제공함으로써 전자 장치(101)의 자세를 변경할 수 있다. 전자 장치(101)는 상기 자세의 변경이 완료된 후, 제1 카메라(180-1)의 특성과 다른 특성을 가지고 디스플레이(160)과 다른 면에 배치되는 제2 카메라(180-2)를 통해 이미지를 획득함으로써, 구도를 확인한 상태에서 보다 높은 화질을 가지는 이미지를 제공할 수 있다.
상술한 바와 같은, 다양한 실시예들에 따른 전자 장치(예: 전자 장치(101))는, 하우징과, 상기 하우징의 제1 면의 적어도 일부를 통해 노출된 디스플레이(예: 디스플레이(160))와, 상기 제1 면의 적어도 다른 일부를 통해 노출된 제1 카메라(예: 제1 카메라(180-1))와, 상기 제1 면에 반대인(opposite to) 제2 면의 적어도 일부를 통해 노출된 제2 카메라(예: 제2 카메라(180-2))와, 외부 전자 장치와 연결하기 위한 인터페이스(예: 통신 모듈(190))와, 프로세서(예: 프로세서(120))를 포함할 수 있고, 상기 프로세서는, 상기 인터페이스를 통해 상기 외부 전자 장치와 연결된 상태에서, 지정된 촬영 모드의 실행의 요청을 확인하고, 상기 지정된 촬영 모드의 실행 중, 하나 이상의 객체들과 관련하여 상기 제1 카메라를 통해 획득된 하나 이상의 제1 프리뷰 이미지들을 상기 디스플레이를 이용하여 표시하고, 상기 하나 이상의 제1 프리뷰 이미지들에 적어도 기반하여, 상기 하나 이상의 객체들에 대해 상기 제2 카메라를 통해 획득 가능한 하나 이상의 제2 프리뷰 이미지들을 상기 디스플레이를 이용하여 표시하고, 상기 제2 카메라를 이용한 촬영의 요청을 확인하고, 상기 제2 카메라를 이용한 상기 촬영의 요청에 적어도 기반하여, 상기 제2 카메라의 광축이 상기 하나 이상의 객체들의 적어도 일부를 향하도록, 상기 인터페이스를 통해 상기 외부 전자 장치의 움직임을 제어하고, 상기 외부 전자 장치의 상기 움직임의 제어를 이용하여, 상기 제 2 카메라를 통해 상기 하나 이상의 제 2 프리뷰 이미지들에 적어도 기반하여 상기 하나 이상의 객체와 관련된 하나 이상의 이미지들을 획득하도록 설정될 수 있다.
다양한 실시예들에서, 상기 하나 이상의 제2 프리뷰 이미지들은, 상기 하나 이상의 제1 프리뷰 이미지들에 일부 중첩될 수 있다.
다양한 실시예들에서, 상기 제2 카메라와 관련된 이미지 센서의 픽셀들의 수는, 상기 제1 카메라와 관련된 이미지 센서의 픽셀들의 수보다 클 수 있다.
다양한 실시예들에서, 상기 제1 프리뷰 이미지들은, 상기 전자 장치가 상기 외부 전자 장치에 제1 자세(position)로 거치된 상태에서 상기 제1 카메라를 통해 획득될 수 있고, 상기 하나 이상의 이미지들은, 상기 전자 장치가 상기 외부 전자 장치에 상기 제1 자세로부터 변경된 제2 자세로 거치된 상태에서 상기 제2 카메라를 통해 획득될 수 있다.
다양한 실시예들에서, 상기 하나 이상의 이미지들의 구도(composition)는, 상기 하나 이상의 제1 프리뷰 이미지들의 구도에 상응할 수 있다.
다양한 실시예들에서, 상기 촬영의 요청은, 음성 신호로 설정될(configured with) 수 있고, 상기 음성 신호는, 웨이크-업 명령과 상기 웨이크-업 명령 다음의(subsequent to) 음성 명령을 포함할 수 있으며, 상기 음성 명령은, 상기 제2 카메라를 이용하여 상기 하나 이상의 이미지들의 획득과 관련됨을 나타낼 수 있다.
다양한 실시예들에서, 상기 프로세서는, 상기 하나 이상의 이미지들을 획득한 후 상기 제1 카메라의 광축이 상기 하나의 제1 프리뷰 이미지들을 획득하였던 방향으로 향하도록, 상기 인터페이스를 통해 상기 외부 전자 장치의 움직임을 제어하고, 상기 하나 이상의 이미지들을 획득한 후 상기 획득된 하나 이상의 이미지들을 상기 디스플레이를 이용하여 표시하도록 설정될 수 있다.
상술한 바와 같은 다양한 실시예들에 따른 전자 장치(예: 전자 장치(101))는, 명령어들을 저장하는 메모리(예: 메모리(130))와, 통신 모듈(예: 통신 모듈(190))과, 감지 모듈과, 제1 방향(direction)으로 배치된 제1 카메라(예: 제1 카메라(180-1))와, 상기 제1 방향과 구별되는 제2 방향으로 배치된 제2 카메라(예: 제2 카메라(180-2))와, 상기 제1 방향으로 시각적으로 노출된 디스플레이(예: 디스플레이(160))와, 적어도 하나의 프로세서(예: 프로세서(120))를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 디스플레이를 이용하여 표시하고, 상기 프리뷰 이미지를 표시하는 동안 상기 제1 이미지의 제1 구도(composition)에 상응하는 제2 구도를 가지는 제2 이미지를 상기 제2 카메라를 통해 획득할 것을 나타내는 입력을 수신하고, 상기 수신에 기반하여, 상기 전자 장치를 제1 자세(position)로 거치하는 장치에게, 상기 제1 자세를 상기 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 상기 통신 모듈을 이용하여 요청하고, 상기 감지 모듈을 통해 상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하고, 상기 식별에 기반하여, 상기 제2 카메라를 통해 상기 제2 구도를 가지는 상기 제2 이미지를 획득하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 장치로부터 상기 전자 장치의 상기 자세를 상기 제1 자세로부터 상기 제2 자세로 변경함을 나타내기 위한 신호를 수신함으로써, 상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에서, 상기 감지 모듈은, 상기 전자 장치의 자세에 대한 정보를 획득할 수 있는 적어도 하나의 센서(예: 센서(530))를 더 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 센서를 이용하여 상기 전자 장치의 상기 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 제1 자세와 상기 제2 자세 사이의 차이(difference)에 대한 정보를 포함하는 신호를 상기 장치에게 송신함으로써 상기 제1 자세를 상기 제2 자세로 변경할 것을 요청하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다. 예를 들면, 상기 제1 자세와 상기 제2 자세 사이의 차이에 대한 정보는, 상기 제1 자세와 상기 제2 자세 사이의 방위각(azimuth angle)에 대한 데이터 또는 상기 제1 자세와 상기 제2 자세 사이의 고도각(elevation angle)에 대한 데이터 중 적어도 하나를 포함할 수 있다.
다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 제2 이미지를 획득한 후 상기 전자 장치를 상기 제2 자세로 거치하는 상기 장치에게 상기 제2 자세를 상기 제1 자세로 변경할 것을 요청하고, 상기 전자 장치의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원됨을 식별하는 것에 기반하여, 상기 획득된 제2 이미지를 상기 디스플레이를 이용하여 표시하기 위해 상기 저장된 명령어들을 실행하도록 더 설정될 수 있다. 예를 들면, 상기 적어도 하나의 프로세서는, 상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하는 타이밍과 관련된 제1 타이밍으로부터 상기 전자 장치의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원됨을 식별하는 타이밍과 관련된 제2 타이밍까지 상기 디스플레이의 상태를 웨이크-업 상태로부터 슬립 상태로 전환하고, 상기 제2 타이밍이 경과됨을 식별하는 것에 기반하여 상기 디스플레이의 상태를 상기 웨이크-업 상태로 복원하고, 상기 웨이크-업 상태로의 상기 복원에 기반하여, 상기 획득된 제2 이미지를 상기 디스플레이를 이용하여 표시하기 위해 상기 저장된 명령어들을 실행하도록 더 설정될 수 있다.
다양한 실시예들에서, 상기 전자 장치는, 마이크로폰(microphone)(예: 마이크로폰(510))을 더 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 마이크로폰을 통해 음성 신호(voice signal)로 설정된(configured with) 상기 입력을 수신하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있고, 상기 음성 신호는, 웨이크-업 명령(wake-up command) 및 상기 웨이크-업 명령 다음의(subsequent to) 음성 명령(voice command)을 더 포함할 수 있으며, 상기 음성 명령은, 상기 제2 이미지를 획득할 것을 나타낼 수 있다.
다양한 실시예들에서, 상기 전자 장치는, 적어도 하나의 스피커(speaker)(예: 스피커(520))를 더 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 제2 이미지를 획득하기 전에, 상기 제2 이미지를 획득하는 타이밍을 알리기 위한 알림(notification)을 상기 적어도 하나의 스피커를 이용하여 출력하기 위해 상기 저장된 명령어들을 실행하도록 더 설정될 수 있다.
상술한 바와 같은, 다양한 실시예들에 따른 전자 장치(예: 전자 장치(101))는, 명령어(instruction)들을 저장하는 메모리(예: 메모리(130))와, 통신 모듈(예: 통신 모듈(190))과, 제1 방향으로 배치된 제1 카메라(예: 제1 카메라(180-1))와, 상기 제1 방향과 구별되는 제2 방향으로 배치된 제2 카메라(예: 제2 카메라(180-2))와, 상기 제1 방향으로 시각적으로 노출된 디스플레이(예: 디스플레이(160))와, 적어도 하나의 프로세서(예: 프로세서(120))를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 디스플레이를 이용하여 표시하고, 상기 프리뷰 이미지를 표시하는 동안 수신되는 입력이 제1 입력인지 제2 입력인지 여부를 식별하고, 상기 입력이 상기 제1 입력임을 식별하는 것에 기반하여, 상기 제1 카메라를 통해 상기 제1 이미지를 획득하고, 상기 입력이 상기 제2 입력임을 식별하는 것에 기반하여, 상기 전자 장치를 제1 자세로 거치하는 장치에게, 상기 제1 자세를 제2 자세로 변경할 것을 상기 통신 모듈을 이용하여 요청하고, 상기 전자 장치의 자세가 상기 제2 자세로 변경됨을 식별하고, 상기 식별에 기반하여, 상기 제2 카메라를 통해 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 음성 신호로 설정된 상기 입력으로부터 웨이크-업 명령 다음의 음성 명령을 식별하고, 상기 식별된 음성 명령에 대한 정보를 상기 통신 모듈을 이용하여 서버에게 송신하고, 상기 음성 명령을 인식함으로써 획득된 정보를 상기 통신 모듈을 이용하여 상기 서버로부터 수신하고, 상기 수신된 정보에 기반하여, 상기 입력이 상기 제1 입력인지 상기 제2 입력인지 여부를 식별하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에서, 상기 제1 카메라는, 전자 장치의 하우징(housing)의 제1 면의 적어도 일부를 통해 노출될 수 있고, 상기 제2 카메라는, 상기 제1 면에 반대인(opposite to) 상기 하우징의 제2 면의 적어도 일부를 통해 노출될 수 있으며, 상기 디스플레이는, 상기 제1 면의 적어도 다른 일부를 통해 노출될 수 있다.
상술한 바와 같은, 전자 장치(예: 전자 장치(101))를 거치하는 장치(예: 장치(102))는, 하우징과, 상기 하우징 내에 배치되고, 상기 전자 장치를 고정하도록 설정된 결합부와, 상기 하우징 내에 배치되고, 방위각(azimuth angle)을 조정함으로써 상기 전자 장치의 자세를 변경하도록 설정된 제1 모터(예: 제1 모터(430-1))와, 상기 하우징 내에 배치되고, 고도각(elevation angle)을 조정함으로써 상기 전자 장치의 상기 자세를 변경하도록 설정된 제2 모터(예: 제2 모터(430-2))와, 상기 하우징 내에 배치된 통신 모듈(예: 통신 모듈(420))과, 상기 하우징 내에 배치되고, 상기 제1 모터, 상기 제2 모터, 및 상기 통신 모듈과 작동적으로 결합된 프로세서(예: 프로세서(410))를 포함할 수 잇고, 상기 프로세서는, 상기 전자 장치의 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 전자 장치의 디스플레이를 이용하여 표시하고 상기 장치에 의해 제1 자세로 거치된 상기 전자 장치로부터, 상기 제1 자세를 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 요청하기 위해 이용되고, 상기 제2 자세를 나타내기 위한 정보를 포함하는 신호를 상기 통신 모듈을 이용하여 수신하고, 상기 정보에 적어도 기반하여, 상기 방위각 또는 상기 고도각 중 적어도 하나를 상기 제1 모터 또는 상기 제2 모터 중 적어도 하나를 이용하여 조정함으로써, 상기 전자 장치의 상기 자세를 상기 제2 자세로 변경하고, 상기 제2 자세로의 변경이 완료됨을 나타내기 위한 신호를 상기 통신 모듈을 이용하여 상기 전자 장치에게 송신하도록 설정될 수 있다.
도 6a는 다양한 실시예들에 따른 전자 장치의 동작의 예를 도시한다. 이러한 전자 장치의 동작은, 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 6a를 참조하면, 동작 610에서, 프로세서(120)는 지정된 촬영 모드의 실행의 요청을 확인할(identify) 수 있다. 다양한 실시예들에서, 프로세서(120)는, 전자 장치(101)의 인터페이스(예: 통신 모듈(190))를 통해 장치(102)와 연결된 상태에서, 상기 지정된 촬영 모드의 실행의 요청을 확인할 수 있다. 다양한 실시예들에서, 상기 지정된 촬영 모드는, 메모리(130)에 저장된 카메라 어플리케이션을 실행하는 것을 의미할 수 있다. 다양한 실시예들에서, 상기 지정된 촬영 모드는, 상기 카메라 어플리케이션을 이용하여 디스플레이(160)가 노출되는 전자 장치(101)의 하우징의 제1 면과 동일한 면을 통해 노출되는 제1 카메라(180-1)를 활성화하는 모드를 의미할 수 있다. 다양한 실시예들에서, 상기 지정된 촬영 모드는, 디스플레이(160)가 노출되는 전자 장치(101)의 하우징의 제1 면의 적어도 일부를 통해 노출된 제1 카메라(180-1)를 통해 하나 이상의 프리뷰 이미지들을 제공하고, 상기 하나 이상의 프리뷰 이미지들을 제공한 후 상기 제1 면에 반대인 상기 하우징의 제2 면의 적어도 일부를 통해 노출된 제2 카메라(180-2)를 통해 상기 하나 이상의 프리뷰 이미지들과 관련된 하나 이상의 이미지들을 획득하는 모드를 의미할 수 있다. 다양한 실시예들에서, 상기 지정된 촬영 모드는, 상기 하나 이상의 프리뷰 이미지들을 표시한 후, 전자 장치(101)를 거치하는 장치(102)를 제어함으로써 전자 장치(101)의 자세를 제어하고, 상기 제어된 자세에 기반하여 상기 하나 이상의 프리뷰 이미지들과 관련된 상기 하나 이상의 이미지들을 획득하는 모드를 의미할 수 있다.
다양한 실시예들에서, 상기 지정된 촬영 모드의 실행의 요청은, 다양한 유형의 포맷들을 가질 수 있다. 예를 들면, 상기 지정된 촬영 모드의 실행의 요청은, 음성 신호로 설정될(configured with) 수 있다. 이러한 경우, 상기 지정된 촬영 모드의 실행의 요청은, 마이크로폰(510)을 통해 수신될 수 있다. 다른 예를 들면, 상기 지정된 촬영 모드의 실행의 요청은, 제스쳐로 설정될 수 있다. 이러한 경우, 상기 지정된 촬영 모드의 실행의 요청은, 제1 카메라(180-1)를 통해 수신될 수 있다. 또 다른 예를 들면, 상기 지정된 촬영 모드의 실행의 요청은, 전자 장치(101)와 연동된 다른 전자 장치(예: 전자 장치(104))에 대한 사용자 입력에 응답하여 상기 다른 전자 장치로부터 통신 모듈(190)을 통해 수신될 수 있다. 하지만, 이에 제한되지 않는다.
다양한 실시예들에서, 프로세서(120)는, 상기 요청을 확인하는 것에 기반하여, 메모리(130)에 저장된 카메라 어플리케이션을 실행함으로써, 비활성 상태에 있는 제1 카메라(180-1)를 활성 상태로 전환할 수 있다.
동작 615에서, 프로세서(120)는, 상기 지정된 촬영 모드의 실행 중 하나 이상의 객체들과 관련하여 제1 카메라(180-1)를 통해 획득된 하나 이상의 제1 프리뷰 이미지들을 디스플레이(160)를 통해 표시할 수 있다. 다양한 실시예들에서, 상기 하나 이상의 객체들은, 상기 하나 이상의 제1 프리뷰 이미지들에 포함되는 피사체를 의미할 수 있다. 예를 들면, 상기 하나 이상의 객체들은, 사람, 물체, 배경 등을 포함할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 지정된 촬영 모드의 실행에 기반하여, 상기 카메라 어플리케이션을 실행하고, 상기 카메라 어플리케이션을 실행하는 것에 응답하여, 상기 하나 이상의 객체들과 관련하여 제1 카메라(180-1)를 통해 획득된 상기 하나 이상의 프리뷰 이미지들을 표시할 수 있다.
동작 620에서, 프로세서(120)는 상기 하나 이상의 제1 프리뷰 이미지들에 적어도 기반하여, 상기 하나 이상의 객체들에 대해 제2 카메라(180-2)를 통해 획득 가능한 하나 이상의 제2 프리뷰 이미지들을 디스플레이(160)를 통해 표시할 수 있다. 프로세서(120)는, 상기 지정된 촬영 모드의 실행에 기반하여, 상기 하나 이상의 제1 프리뷰 이미지들을 제1 카메라(180-1)의 특성 및 제2 카메라(180-2)의 특성 사이의 차이에 기반하여 처리함으로써 상기 하나 이상의 제2 프리뷰 이미지들을 생성하거나 획득할 수 있다. 프로세서(120)는 상기 생성되거나 획득된 하나 이상의 제2 프리뷰 이미지들을 디스플레이(160)를 통해 표시할 수 있다. 상기 하나 이상의 제2 프리뷰 이미지들의 표시는 다양한 방법들을 통해 수행될 수 있다. 예를 들면, 상기 하나 이상의 제2 프리뷰 이미지들은, 표시되고 있는 상기 하나 이상의 제1 프리뷰 이미지들에 일부 중첩될(partially superimposed on) 수 있다. 다른 예를 들면, 상기 하나 이상의 제2 프리뷰 이미지들은, 표시되고 있는 상기 하나 이상의 제1 프리뷰 이미지들 주변에서 표시될 수 있다. 또 다른 예를 들면, 상기 하나 이상의 제2 프리뷰 이미지들은, 표시되고 있는 상기 하나 이상의 제1 프리뷰 이미지들과 독립적으로 제공되지 않고, 상기 하나 이상의 제1 프리뷰 이미지들에 인디케이션(또는 인디케이터)를 중첩하여 표시함으로써 제공될 수도 있다. 예를 들어, 제1 카메라(180-1)의 렌즈의 시야의 범위가 제2 카메라(180-2)의 렌즈의 시야의 범위보다 넓은 경우, 상기 인디케이션은, 상기 하나 이상의 제1 프리뷰 이미지들에 중첩되고, 상기 하나 이상의 제2 프리뷰 이미지들의 범위를 나타내기 위한 프레임(frame) 또는 도형(예: 직사각형)의 형태로 설정될 수 있다.
동작 625에서, 프로세서(120)는, 제2 카메라(180-2)를 이용한 촬영의 요청을 확인할 수 있다. 다양한 실시예들에서, 상기 촬영의 요청은, 상기 하나 이상의 제2 프리뷰 이미지들에 상응하는 하나 이상의 이미지들을 제2 카메라(180-2)를 이용하여 획득할 것을 나타내는 사용자와 전자 장치(101) 사이의 인터액션을 의미할 수 있다. 다양한 실시예들에서, 상기 촬영의 요청은, 다양한 유형의 포맷들로 설정될 수 있다. 예를 들면, 상기 촬영의 요청은, 음성 신호로 설정될 수 있다. 다른 예를 들면, 상기 촬영의 요청은, 제1 카메라(180-1)를 통해 획득되는 사용자의 제스쳐로 설정될 수 있다. 또 다른 예를 들면, 상기 촬영의 요청은, 다른 전자 장치에 대한 사용자 입력에 응답하여 상기 다른 전자 장치로부터 전자 장치(101)에 수신되는 신호로 설정될 수 있다. 하지만, 이에 제한되지 않는다.
동작 630에서, 프로세서(120)는, 상기 촬영의 요청에 적어도 기반하여, 제2 카메라(180-2)의 광축이 상기 하나 이상의 객체들의 적어도 일부를 향하도록, 인터페이스(예: 통신 모듈(190))를 통해 장치(102)의 움직임을 제어할 수 있다. 다양한 실시예들에서, 장치(102)는 전자 장치(101)를 거치하고 거치된 전자 장치(101)의 자세(position)를 조정할 수 있는 기능을 구비한 장치를 의미할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 촬영의 요청에 적어도 기반하여, 제2 카메라(180-2)의 광축이 상기 하나 이상의 객체들의 적어도 일부를 향하기 위한 전자 장치(101)의 자세를 식별하고, 상기 식별된 자세에 대한 정보를 통신 모듈(190)을 통해 장치(102)에게 송신할 수 있다. 장치(102)는 상기 자세에 대한 정보에 기반하여, 장치(102)에 포함된 적어도 하나의 모터(예: 제1 모터(430-1), 제2 모터(430-2) 등)를 제어함으로써, 전자 장치(101)의 자세를 변경할 수 있다.
동작 635에서, 프로세서(120)는, 장치(102)의 움직임을 제어한 후 제2 카메라(180-2)를 통해 하나 이상의 이미지들을 획득할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 장치(102)의 움직임을 제어함으로써 전자 장치(101)의 자세를 변경할 수 있다. 프로세서(120)는 전자 장치(101)의 자세의 변경이 완료됨을 식별하고, 상기 식별에 기반하여 상기 하나 이상의 이미지들을 획득할 수 있다. 다양한 실시예들에서, 상기 움직임의 제어에 기반하여 제2 카메라(180-2)의 광축은 상기 하나 이상의 객체들의 적어도 일부를 향하기 때문에, 상기 하나 이상의 이미지들은 상기 하나 이상의 객체들의 적어도 일부를 포함하고, 상기 하나 이상의 제2 프리뷰 이미지들에 상응할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 전자 장치(101)와 장치(102) 사이의 시그널링에 기반하여, 디스플레이(160)가 노출되는 제1 면에 반대인 제2 면을 노출되는 카메라를 통해 이미지를 획득하더라도, 상기 이미지의 획득 전 상기 획득될 이미지의 구도를 확인할 수 있는 사용자 경험(user experience, UX)을 제공할 수 있다.
도 6b는 다양한 실시예들에 따른 전자 장치의 동작의 다른 예를 도시한다. 이러한 전자 장치의 동작은, 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 6b를 참조하면, 동작(650)에서, 프로세서(120)는 제1 카메라(180-1)를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 디스플레이(160)를 이용하여 표시할 수 있다. 다양한 실시예들에서, 상기 제1 이미지는, 상기 프리뷰 이미지를 표시한 상태에서 제1 카메라(180-1)를 이용하는 촬영 명령을 수신하는 경우 획득될 이미지를 의미할 수 있다. 다양한 실시예들에서, 상기 제1 이미지는, 상기 프리뷰 이미지보다 높은 화질을 가지는 이미지를 의미할 수 있다. 다양한 실시예들에서, 상기 제1 이미지는, 동영상으로 설정되는(configured as) 상기 프리뷰 이미지와 달리, 스틸 이미지로 설정될 수 있다. 다양한 실시예들에서, 상기 프리뷰 이미지는, 카메라 어플리케이션의 사용자 인터페이스 안에서 디스플레이(160)를 이용하여 표시될 수 있다.
상기 프리뷰 이미지를 표시하는 동안, 전자 장치(101)는 제1 자세로 장치(102)에 거치될 수 있다. 예를 들어, 도 7을 참조하면, 상태(710)에서 사용자는 장치(102)에 거치된 전자 장치(101)의 디스플레이(160) 앞에 위치될 수 있다. 상태(710)에서, 프로세서(120)는, 사용자가 디스플레이(160) 앞에 위치된 상태에서, 디스플레이(160)와 동일한 면을 통해 노출되는 제1 카메라(180-1)를 통해 획득되는 제1 이미지에 대한 상기 프리뷰 이미지를 디스플레이(160)를 통해 표시할 수 있다. 다양한 실시예들에서, 상태(710)에서, 전자 장치(101)는 상기 제1 자세로 장치(102)에 의해 거치될 수 있다. 다양한 실시예들에서, 상기 제1 자세는, 후술될 동작 655에서의 입력의 수신 이전(또는 직전(immediately before))의 장치(102)에 의해 거치된 전자 장치(101)의 자세를 의미할 수 있다. 다양한 실시예들에서, 상기 제1 자세는, 사용자가 상기 프리뷰 이미지에 기반하여 제2 카메라(180-2)를 통해 획득될 이미지의 구도를 확정한(confirm) 후의 장치(102)에 의해 거치된 전자 장치(101)의 자세를 의미할 수 있다.
동작 655에서, 프로세서(120)는 상기 프리뷰 이미지를 표시하는 동안 상기 제1 이미지에 상응하는 제2 이미지를 획득할 것을 나타내는 입력을 수신할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 상기 제2 이미지를 제2 카메라(180-2)를 통해 획득할 것을 나타내는 입력을 수신할 수 있다. 다양한 실시예들에서, 상기 입력은 다양한 유형의 포맷들로 설정될 수 있다. 예를 들면, 상기 입력은 음성 신호로 설정될 수 있다. 다른 예를 들면, 상기 입력은 사용자의 제스쳐로 설정될 수 있다. 또 다른 예를 들면, 상기 입력은, 통신 모듈(190)을 통해 수신되는 신호로 설정될 수 있다. 하지만, 이에 제한되지 않는다. 다양한 실시예들에서, 상기 입력은, 다양한 경로들을 통해 수신될 수 있다. 예를 들면, 상기 입력은, 사용자로부터 전자 장치(101)에게 직접 수신될 수 있다. 다른 예를 들면, 상기 입력은, 사용자로부터 다른 전자 장치(예: 장치(102) 또는 전자 장치(104))를 통해 전자 장치(101)에게 수신될 수도 있다. 하지만, 이에 제한되지 않는다.
동작 660에서, 프로세서(120)는 상기 입력의 수신에 기반하여 전자 장치(101)의 상기 제1 자세를 제2 자세로 변경할 것을 장치(102)에게 통신 모듈(190)을 통해 요청할 수 있다. 다양한 실시예들에서, 상기 제2 자세는, 제1 카메라(180-1)를 통해 획득되는 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 상기 제2 이미지를 제2 카메라(180-2)를 통해 획득하기 위한 자세를 의미할 수 있다. 다양한 실시예들에서, 상기 제2 자세는, 제2 카메라(180-2)의 광축(715)의 방향을 상기 입력의 수신 전(또는 직전) 제1 카메라(180-1)의 렌즈의 광축(310)의 방향에 맞추기(set 또는 adjust) 위한 자세를 의미할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 요청을 통해 상기 제2 자세에 대한 정보를 제공할 수 있다. 예를 들면, 프로세서(120)는, 표 1과 같은 메모리(130)에 저장된 데이터베이스를 이용하여, 상기 제2 자세를 식별하고, 상기 제2 자세에 대한 정보를 상기 요청을 통해 장치(102)에게 제공할 수 있다. 다른 예를 들면, 프로세서(120)는, 메모리(130)에 저장된 제2 카메라(180-2)의 렌즈의 광축(715)을 제1 카메라(180-1)의 렌즈의 광축(310)과 동기화하기 위한 수학식을 이용하여, 상기 제2 자세를 식별하고, 상기 제2 자세에 대한 정보를 상기 요청을 통해 장치(102)에게 제공할 수 있다. 다양한 실시예들에서, 상기 제2 자세에 대한 정보는, 상기 제2 자세를 나타내는 전자 장치(101)의 방위각 및 상기 제2 자세를 나타내는 전자 장치(101)의 고도각에 대한 데이터를 포함할 수 있다. 다양한 실시예들에서, 상기 제2 자세에 대한 정보는, 상기 제1 자세와 상기 제2 자세 사이의 전자 장치(101)의 방위각의 차이 및 상기 제1 자세와 상기 제2 자세 사이의 전자 장치(101)의 고도각의 차이에 대한 데이터를 포함할 수 있다. 하지만, 이에 제한되지 않는다.
한편, 장치(102)는 상기 요청을 수신하는 것에 응답하여, 제1 모터(430-1) 또는 제2 모터(430-2) 중 적어도 하나를 제어함으로써, 장치(102)에 의해 거치된 전자 장치(101)의 자세를 상기 제1 자세로부터 상기 제2 자세로 변경할 수 있다. 예를 들어, 도 7를 참조하면, 장치(102)는, 상태(750)와 같이, 제1 모터(430-1)를 제어함으로써 장치(102)에 의해 거치된 전자 장치(101)의 방위각을 조정할 수 있다. 장치(102)는, 상기 방위각의 조정을 완료한 후, 상태(790)와 같이, 제2 모터(430-2)를 제어함으로써 장치(102)에 의해 거치된 전자 장치(101)의 고도각을 조정할 수 있다. 전자 장치(101)의 상기 방위각 및 상기 고도각의 조정을 통해 장치(102)는, 장치(102)에 의해 거치된 전자 장치(101)의 자세를 상기 제1 자세로부터 상기 제2 자세로 변경할 수 있다. 도 7은, 상태(750)에서 전자 장치(101)의 방위각을 조정한 후, 상태(790)에서 전자 장치(101)의 고도각을 조정하는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 예를 들면, 장치(102)는, 전자 장치(101)의 고도각을 조정한 후 전자 장치(101)의 방위각을 조정할 수도 있다. 다른 예를 들면, 장치(102)는, 전자 장치(101)의 고도각과 전자 장치(101)의 방위각을 동시에 조정할 수도 있고, 순서에 관계없이 조정할 수도 있다.
동작 665에서, 프로세서(120)는 전자 장치(101)의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별할 수 있다. 예를 들면, 프로세서(120)는 전자 장치(101)의 자세를 상기 제2 자세로 변경한 후(또는 직후) 장치(102)로부터 수신되는 상기 제2 자세로의 변경이 완료됨을 나타내는 메시지에 기반하여, 전자 장치(101)의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별할 수 있다. 다른 예를 들면, 프로세서(120)는, 전자 장치(101)의 센서(530)를 이용하여 전자 장치(101)의 자세와 관련된 데이터를 획득하고, 상기 데이터에 기반하여, 전자 장치(101)의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별할 수 있다. 하지만, 이에 제한되지 않는다.
동작 670에서, 프로세서(120)는, 상기 식별에 기반하여 제2 카메라(180-2)를 통해 상기 제2 구도를 가지는 상기 제2 이미지를 획득할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 식별 직후, 제2 카메라(180-2)를 통해 상기 제2 구도를 가지는 상기 제2 이미지를 획득할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 식별에 기반하여 상기 제2 이미지의 획득 시점을 알리기 위한 가이드 정보를 스피커(520)를 통해 출력한 후, 상기 제2 이미지를 획득할 수도 있다. 하지만, 이에 한정되지 않는다. 다양한 실시예들에서, 상기 제2 자세에서의 제2 카메라(180-2)의 렌즈의 광축(715)의 방향은 상기 제1 자세에서의 제1 카메라(180-1)의 렌즈의 광축(310)의 방향에 상응하기 때문에, 상기 제2 이미지의 구도는, 상기 프리뷰 이미지 또는 상기 제1 이미지의 구도와 상응할 수 있다. 예를 들어, 도 7을 참조하면, 상태(790)에서 전자 장치(101)의 제2 카메라(180-2)를 통해 획득되는 상기 제2 이미지는 전자 장치(101)의 제1 카메라(180-1)를 통해 획득되는 상기 제1 이미지에 상응할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는 제1 카메라(180-1)를 통해 획득된 이미지의 구도에 상응하는 구도를 가지는 이미지를 전자 장치(101)와 장치(102) 사이의 시그널링을 통해 전자 장치(101)의 제2 카메라(180-2)를 통해 획득함으로써, 제2 카메라(180-2)를 통해 획득될 이미지의 구도를 사용자에게 미리 제공할 수 있다. 다양한 실시예들에 따른 전자 장치(101)는 사용자에게 상기 구도에 대한 정보를 제공한 후 제2 카메라(180-2)를 통해 상기 이미지를 획득하기 때문에, 제1 카메라(180-1)를 통해 획득되는 이미지에 상응하는 구도를 가지면서 제1 카메라(180-1)를 통해 획득되는 이미지의 특성과 다른 특성을 가지는 이미지를 획득할 수 있다.
도 8은 다양한 실시예들에 따라 자세의 변경이 완료됨을 식별하는 전자 장치의 동작의 예를 도시한다. 이러한 전자 장치의 동작은, 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 8의 동작 810 및 동작 820은 도 6b의 동작 665와 관련될 수 있다.
도 8을 참조하면, 동작 810에서, 프로세서(120)는 장치(102)로부터 전자 장치(101)의 자세를 상기 제1 자세로부터 상기 제2 자세로 변경함을 나타내기 위한 신호를 수신할 수 있다. 전자 장치(101)를 거치하는 장치(102)는 동작 660에서 상기 요청을 수신한 후, 제1 모터(430-1) 또는 제2 모터(430-2) 중 적어도 하나를 제어함으로써 장치(102)에 의해 거치된 전자 장치(101)의 자세를 상기 제1 자세로부터 상기 제2 자세로 변경할 수 있다. 장치(102)는, 상기 자세의 변경을 완료한 후, 전자 장치(101)에게 상기 자세의 변경이 완료됨을 나타내기 위해 상기 신호를 송신할 수 있다. 프로세서(120)는, 통신 모듈(190)를 이용하여 장치(102)로부터 상기 신호를 수신할 수 있다.
동작 820에서, 프로세서(120)는, 상기 수신에 기반하여 전자 장치(101)의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별할 수 있다. 프로세서(120)는, 상기 신호를 수신하는 것에 응답하여, 전자 장치(101)의 자세가 제2 카메라(180-2)의 광축(715)의 방향이 상기 제1 자세에서의 제1 카메라(180-1)의 광축(310)의 방향과 동기화된 상기 제2 자세에 있음을 식별할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는 전자 장치(101)와 장치(102) 사이의 통신 경로를 이용하여 전자 장치(101)의 자세의 변경이 완료되는지 여부를 식별할 수 있다. 이러한 식별은, 제1 카메라(180-1)와 다른 특성을 가지는 제2 카메라(180-2)를 이용하여 이미지를 획득하는 것을 보조할 수 있다.
도 9는 다양한 실시예들에 따라 자세의 변경이 완료됨을 식별하는 전자 장치 동작의 다른 예를 도시한다. 이러한 전자 장치의 동작은, 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 9의 동작 910 내지 동작 950은 도 6b의 동작 665와 관련될 수 있다.
동작 910에서, 프로세서(120)는 장치(102)에게 전자 장치(101)의 자세의 변경을 요청한 후 적어도 하나의 센서(530)를 활성화할 수 있다. 예를 들어, 적어도 하나의 센서(530)가 전력 소비의 절감을 위해 비활성 상태에서 있는 경우, 프로세서(120)는, 전자 장치(101)의 자세가 상기 제2 자세로 변경되는지 여부를 식별하기 위해, 적어도 하나의 센서(530)의 상태를 상기 비활성 상태로부터 활성 상태로 전환할 수 있다.
동작 920에서, 프로세서(120)는 활성화된 적어도 하나의 센서(530)를 이용하여 전자 장치(101)의 자세와 관련된 데이터를 획득할 수 있다. 예를 들면, 적어도 하나의 센서(530)는, 가속도 센서, 관성 센서, 또는 자이로 센서 중 적어도 하나를 포함할 수 있다. 예를 들면, 프로세서(120)는, 적어도 하나의 센서(530)에 포함된 자이로 센서를 이용하여, 피치(pitch)와 관련된 전자 장치(101)의 자세의 변화, 요(yaw)와 관련된 전자 장치(101)의 자세의 변화, 또는 롤(roll)과 관련된 전자 장치(101)의 자세의 변화 중 적어도 하나에 대한 데이터를 획득할 수 있다. 프로세서(120)는, 상기 적어도 하나에 대한 데이터에 적어도 기반하여 전자 장치(101)의 자세와 관련된 데이터를 획득할 수 있다.
동작 930에서, 프로세서(120)는, 상기 획득된 데이터에 기반하여 전자 장치(101)의 자세가 상기 제2 자세로 변경되는지 여부를 모니터링할 수 있다. 예를 들면, 프로세서(120)는, 상기 획득된 데이터와 표 1과 같은 데이터베이스에 정의된 상기 제2 자세에 대한 데이터를 비교함으로써, 전자 장치(101)의 자세가 상기 제2 자세로 변경되는지 여부를 모니터링할 수 있다. 다른 예를 들면, 프로세서(120)는, 상기 획득된 데이터와 상기 제1 자세에 대한 데이터에 메모리(130)에 저장된 수학식을 적용함으로써 획득되는 상기 제2 자세에 대한 데이터를 비교함으로써, 전자 장치(101)의 자세가 상기 제2 자세로 변경되는지 여부를 모니터링할 수 있다. 하지만, 이에 제한되지 않는다.
동작 940에서, 전자 장치(101)의 자세가 상기 제2 자세로 변경됨을 모니터링하는 경우, 프로세서(120)는 동작 950을 수행할 수 있다. 이와 달리, 전자 장치(101)의 자세가 상기 제2 자세로 변경되지 않음을 모니터링하는 경우, 프로세서(120)는, 전자 장치(101)의 자세가 상기 제2 자세로 변경될 때까지 동작 920 및 동작 930을 반복적으로 수행할 수 있다.
동작 950에서, 전자 장치(101)의 자세가 상기 제2 자세로 변경됨을 모니터링하는 경우, 프로세서(120)는 전자 장치(101)의 자세가 상기 제2 자세로 변경됨을 식별할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는 장치(102)에게 전자 장치(101)의 자세를 변경할 것을 요청한 후, 전자 장치(101)의 센서(530)를 이용하여 전자 장치(101)의 움직임의 변화를 모니터링함으로써, 전자 장치(101)의 자세가 상기 제2 자세로 변경됨을 식별할 수 있다. 다양한 실시예들에 따른 전자 장치(101)는, 장치(102)와의 통신이 아닌 전자 장치(101)의 센서(530)를 이용하여 상기 제2 자세로 변경됨을 식별함으로써, 장치(102)와의 통신에 의해 소비되는 자원을 감소시킬 수 있다.
도 10은 다양한 실시예들에 따라 제2 이미지를 나타내기 위한 시각적 객체를 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 전자 장치의 동작은, 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 10의 동작 1010 및 동작 1020은, 도 6b의 동작 655와 관련될 수 있다. 도 10의 동작 1020은 도 6b의 동작 660, 동작 665, 또는 동작 670 중 적어도 하나와 병렬적으로 또는 독립적으로 수행될 수 있다.
도 10을 참조하면, 동작 1010에서, 프로세서(120)는 상기 제1 이미지에 상응하는 제2 이미지를 획득할 것을 나타내는 입력을 수신할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 제스쳐 또는 음성 신호로 설정되고, 상기 제1 이미지의 상기 제1 구도에 상응하는 상기 제2 구도를 가지는 상기 제2 이미지를 획득할 것을 나타내는 상기 입력을 수신할 수 있다.
동작 1020에서, 프로세서(120)는 상기 입력을 수신하는 것에 기반하여, 획득될 상기 제2 이미지를 나타내기 위한 시각적 객체(visual object)를 디스플레이(160)를 이용하여 표시할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 입력을 수신하는 것에 응답하여 상기 제1 이미지 및 제1 카메라(180-1)의 특성과 제2 카메라(180-2)의 특성 사이의 차이에 적어도 기반하여 상기 제2 이미지를 나타내기 위한 상기 시각적 객체를 생성하거나 획득할 수 있다. 상기 시각적 객체는 다양한 포맷들로 설정될 수 있다. 예를 들어, 도 11을 참조하면, 프로세서(120)는 제1 카메라(180-1)를 통해 획득되는 상기 제1 이미지에 대한 프리뷰 이미지(1110)를 표시하는 동안, 프리뷰 이미지(1110)에 중첩된 상기 제2 이미지를 나타내기 위한 시각적 객체(1150)를 디스플레이 패널(160)을 통해 표시할 수 있다. 다양한 실시예들에서, 시각적 객체(1150)는 상기 제1 이미지의 영역과 다른 영역을 가지는 상기 제2 이미지를 나타내기 위해 프리뷰 이미지(1110)에 중첩될 수 있다. 다양한 실시예들에서, 시각적 객체(1150)는 획득될 상기 제2 이미지에 포함될 영역을 나타내기 위해 프리뷰 이미지(1110)에 중첩될 수 있다. 다른 예를 들어, 도 12를 참조하면, 프로세서(120)는 제1 카메라(180-1)를 통해 획득되는 상기 제1 이미지에 대한 프리뷰 이미지(1210)를 표시하는 동안, 프리뷰 이미지(1210)에 중첩된 상기 제2 이미지를 나타내기 위한 시각적 객체(1250)를 디스플레이 패널(160)을 통해 표시할 수 있다. 다양한 실시예들에서, 시각적 객체(1250)는 상기 제2 이미지에 대한 썸네일 이미지(또는 프리뷰 이미지)로 설정될 수 있다. 다양한 실시예들에서, 시각적 객체(1250)의 표시 크기는 전자 장치(101)에 대한 사용자 입력 또는 장치(102)에 대한 사용자 입력(예: 음성 신호로 설정된 입력)을 통해 조정될 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 상기 제1 이미지에 대한 프리뷰 이미지를 표시하는 동안 제2 카메라(180-2)를 통해 획득될 상기 제2 이미지에 대한 정보를 제공함으로써, 상기 제2 이미지의 획득 전 상기 제2 이미지의 구도를 확인할 기회를 제공할 수 있다.
도 13은 다양한 실시예들에 따라 상기 제2 이미지를 획득한 후 수행되는 전자 장치의 동작의 예를 도시한다. 이러한 전자 장치의 동작은, 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 13의 동작 1310 내지 동작 1340은 도 6b의 동작 670과 관련될 수 있다.
도 13을 참조하면, 동작 1310에서, 프로세서(120)는 제2 카메라(180-2)를 통해 상기 제2 이미지를 획득할 수 있다. 다양한 실시예들에서, 상기 제2 이미지의 상기 제2 구도는 제1 카메라(180-1)를 통해 획득되었었던 상기 제1 이미지의 상기 제1 구도에 상응할 수 있다.
동작 1320에서, 프로세서(120)는 전자 장치(101)의 상기 제2 자세를 상기 제1 자세로 변경할 것을 장치(102)에게 요청할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 획득된 제2 이미지에 대한 정보를 제공하기 위해, 전자 장치(101)의 상기 제2 자세를 상기 제1 자세로 변경할 것을 요청할 수 있다. 예를 들어, 도 14를 참조하면, 상태(1410)와 같이, 사용자는, 제2 카메라(180-2)를 통해 상기 제2 이미지를 획득하였기 때문에, 전자 장치(101)의 디스플레이가 노출되는 전자 장치(101)의 하우징의 면에 반대인 면을 바라볼 수 있는 반면, 전자 장치(101)의 디스플레이가 노출되는 전자 장치(101)의 하우징의 면을 바라볼 수 없을 수 있다. 다양한 실시예들에서, 상태(1410)에서 있는 전자 장치(101)는 디스플레이(160)를 통해 제2 카메라(180-2)를 통해 획득된 상기 제2 이미지에 대한 정보를 사용자의 시야 내에서 제공할 수 없다. 다양한 실시예들에 따른 전자 장치(101)의 프로세서(120)는, 상기 제2 이미지에 대한 정보를 사용자의 시야 내에서 제공하기 위해, 장치(102)에게 전자 장치(101)의 상기 제2 자세를 상기 제1 자세로 복원할 것을 요청할 수 있다. 상기 요청을 수신한 장치(102)는, 제1 모터(430-1) 또는 제2 모터(430-2) 중 적어도 하나를 제어함으로써, 상기 제2 자세로 거치된 전자 장치(101)의 자세를 상기 제1 자세로 복원할 수 있다.
동작 1330에서, 프로세서(120)는, 전자 장치(101)의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원됨을 식별할 수 있다. 예를 들면, 프로세서(120)는, 장치(102)로부터 수신되는 상기 제1 자세로의 복원이 완료됨을 나타내는 신호(또는 메시지)에 기반하여, 전자 장치(101)의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원됨을 식별할 수 있다. 다른 예를 들면, 프로세서(120)는, 센서(530)를 이용하여 전자 장치(101)의 움직임을 모니터링하고, 상기 모니터링 결과에 기반하여 전자 장치(101)의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원됨을 식별할 수 있다.
동작 1340에서, 프로세서(120)는, 전자 장치(101)의 자세가 상기 제1 자세로 복원됨을 식별하는 것에 기반하여 상기 획득된 제2 이미지를 표시할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 제2 이미지에 대한 정보를 제공하기 위해, 상기 제2 이미지를 디스플레이(160)를 통해 표시할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 제2 이미지를 전자 장치(101)의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원되는 동안, 상기 제2 이미지를 디스플레이(160)를 이용하여 표시할 수도 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는 디스플레이(160)가 사용자의 시야 밖에 있는 상태에서 획득된 상기 제2 이미지에 대한 정보를 제공하기 위해, 장치(102)와 시그널링을 수행하고, 상기 시그널링에 기반하여 전자 장치(101)의 자세를 디스플레이(160)가 사용자의 시야 안에(within) 있는 자세로 복원할 수 있다. 이러한 복원을 통해, 다양한 실시예들에 따른 전자 장치(101)는 사용자에게 편의성을 제공할 수 있다.
도 15는 다양한 실시예들에 따라 디스플레이의 상태를 전환하는 전자 장치의 동작의 예를 도시한다. 이러한 전자 장치의 동작은, 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 15의 동작 1510 내지 동작 1530은 도 13의 동작 1340과 관련될 수 있다. 도 15의 동작 1510 및 동작 1520은, 도 6의 동작 660, 동작 665, 동작 670, 또는 동작 1310 내지 동작 1340 중 적어도 하나와 병렬적으로 또는 독립적으로 수행될 수 있다.
도 15를 참조하면, 동작 1510에서, 프로세서(120)는 전자 장치(101)의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하는 타이밍과 관련된 제1 타이밍으로부터 전자 장치(101)의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원됨을 식별하는 타이밍과 관련된 제2 타이밍까지 디스플레이(160)의 상태를 웨이크-업 상태로부터 슬립 상태로 전환할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 디스플레이(160)이 사용자의 시야 밖에 있는 동안, 디스플레이(160)에 의해 소비되는 전력을 감소시키기 위해, 디스플레이(160)의 상태를 상기 웨이크-업 상태로부터 상기 슬립 상태로 전환할 수 있다.
동작 1520에서, 프로세서(120)는 상기 제2 타이밍이 경과됨을 식별하는 것에 기반하여 디스플레이(160)의 상태를 상기 웨이크-업 상태로 복원할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 장치(102)로부터 상기 제1 자세로의 복원이 완료됨을 나타내는 메시지를 수신하는 것에 기반하여, 상기 제2 타이밍이 경과됨을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 센서(530)를 통해 획득되는 전자 장치(101)의 움직임과 관련된 데이터에 기반하여 전자 장치(101)의 자세가 상기 제1 자세로 복원됨을 식별하고, 상기 식별에 기반하여 상기 제2 타이밍이 경과됨을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 디스플레이(160)가 사용자의 시야 안에(within) 있게 됨을 식별하는 것에 기반하여, 디스플레이(160)의 상태를 상기 웨이크-업 상태로 복원할 수 있다.
동작 1530에서, 프로세서(120)는 상기 웨이크-업 상태로의 복원에 기반하여 상기 획득된 제2 이미지를 디스플레이(160)를 이용하여 표시할 수 있다. 다양한 실시예들에서, 프로세서(120)는 디스플레이(160)가 전자 장치(101)의 자세의 복원으로 인하여 사용자의 시야 안에 진입함을 식별하고, 상기 식별에 기반하여 상기 제2 이미지를 디스플레이(160)를 이용하여 표시할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 사용자의 시야 밖에 디스플레이(160)가 있는 동안, 디스플레이(160)의 상태를 저전력 상태로 전환함으로써, 이미지의 획득 중 디스플레이(160)를 통해 이미지를 표시하는 것으로 인하여 소비되는 전력을 감소시킬 수 있다.
도 16은 다양한 실시예들에 따라 제2 이미지를 획득할 것을 나타내는 입력을 수신하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 16의 동작 1610 내지 동작 1630은 도 6b의 동작 655와 관련될 수 있다.
도 16을 참조하면, 동작 1610에서, 프로세서(120)는 상기 제1 이미지에 상응하는 상기 제2 이미지를 획득할 것을 나타내고 음성 신호로 설정된 입력을 마이크로폰(510)을 통해 수신할 수 있다. 상기 음성 신호는, 음성 명령을 포함할 수 있다. 상기 음성 명령은, 상기 제1 이미지에 상응하는 상기 제2 이미지를 획득할 것을 나타내는 정보를 포함할 수 있다. 다양한 실시예들에 따른 상기 음성 명령은 상기 음성 신호에 더 포함된 웨이크-업 명령 다음에 있을 수 있다.
동작 1620에서, 프로세서(120)는, 상기 음성 신호로부터 상기 음성 명령을 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 음성 신호로부터 상기 음성 명령을 인식함으로써, 상기 음성 명령의 의미를 식별할 수 있다.
동작 1630에서, 프로세서(120)는, 상기 식별된 음성 명령에 적어도 일부 기반하여 전자 장치(101)의 자세를 상기 제2 자세로 변경할 것을 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 식별된 음성 명령에 적어도 일부 기반하여 제1 카메라(180-1)를 통해 획득되는 프리뷰 이미지에 상응하는 이미지를 제2 카메라(180-2)를 통해 획득하는 것이 사용자의 의도(intention)에 해당함을 식별할 수 있다. 프로세서(120)는 상기 식별에 기반하여 전자 장치(101)의 자세를 상기 제2 자세로 변경할 것을 식별할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 음성 신호로 구성된 입력을 통해 사용자와 물리적으로 이격된 상태에서도 사용자와의 인터액션을 제공할 수 있다. 이러한 인터액션의 제공을 통해, 다양한 실시예들에 따른 전자 장치(101)는 강화된(enhanced) 사용자 경험을 제공할 수 있다.
도 17은 다양한 실시예들에 따라 음성 인식을 수행하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 17의 동작 1710 내지 동작 1730은 도 16의 동작 1620과 관련될 수 있다.
도 17을 참조하면, 동작 1710에서, 프로세서(120)는 상기 식별된 음성 명령에 대한 정보를 음성 인식을 위한 서버에게 통신 모듈(190)을 이용하여 송신할 수 있다. 상기 서버는 상기 음성 명령에 대한 정보를 수신할 수 있다. 상기 서버는, 상기 수신에 기반하여, 상기 음성 명령을 인식하고, 상기 인식 결과에 대한 정보를 전자 장치(101)에게 송신할 수 있다.
동작 1720에서, 프로세서(120)는 상기 서버로부터 상기 음성 명령을 인식함으로써 획득된 정보(즉, 상기 인식 결과에 대한 정보)를 통신 모듈(190)를 이용하여 수신할 수 있다.
동작 1730에서, 프로세서(120)는 상기 수신된 정보에 기반하여 전자 장치(101)의 자세를 상기 제2 자세로 변경할 것을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 수신된 정보에 기반하여, 장치(102)에 의해 거치된 전자 장치(101)의 자세를 변경하는 것이 요구됨을 식별하고, 상기 식별에 기반하여 전자 장치(101)의 자세를 상기 제2 자세로 변경할 것을 식별할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 음성 인식을 위한 서버와의 연동을 통해 보다 나은 촬영 환경을 제공할 수 있다.
도 18은 다양한 실시예들에 따라 이미지의 촬영을 가이드하는 전자 장치의 동작의 예를 도시한다. 이러한 전자 장치의 동작은, 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 18의 동작 1810 내지 동작 1830은 도 6b의 동작 665와 관련될 수 있다.
도 18을 참조하면, 동작 1810에서, 프로세서(120)는 전자 장치(101)의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별할 수 있다.
동작 1820에서, 프로세서(120)는, 상기 식별에 기반하여, 상기 제2 이미지를 획득하는 시점을 알리기 위한 알림을 스피커(520)를 통해 출력할 수 있다. 상기 제2 자세에서 디스플레이(160)는 사용자의 시야 밖에 있을 수 있기 때문에, 프로세서(120)는 상기 제2 이미지의 획득 시점을 알리기 위한 알림을 출력할 수 있다. 예를 들면, 상기 알림은, "3, 2, 1, 셔터음"과 같이 설정될 수 있다. 하지만, 이에 제한되지 않는다.
동작 1830에서, 프로세서(120)는, 상기 제2 이미지가 획득된 시점에서 상기 알림을 스피커(520)를 통해 출력하는 것을 중단할 수 있다. 예를 들면, 프로세서(120)는, 상기 제2 이미지의 획득이 완료되는지 여부를 상기 알림을 출력하는 동안 모니터링하고, 상기 제2 이미지의 획득이 완료됨을 모니터링하는 것에 기반하여 상기 알림을 출력하는 것을 중단할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는 디스플레이(160)와 관련된 사용자의 시야가 제한된 상태에서 상기 제2 이미지를 획득하는 것을 가이드하기 위해, 알림을 음성 신호의 형태로 출력할 수 있다. 이러한 음성 신호의 출력을 통해, 다양한 실시예들에 따른 전자 장치(101)는 개선된 사용자 경험을 제공할 수 있다.
도 19는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 도시한다. 이러한 전자 장치의 동작은, 도 1에 도시된 전자 장치(101), 도 3에 도시된 전자 장치(101), 도 5에 도시된 전자 장치(101), 또는 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 19를 참조하면, 동작 1910에서, 프로세서(120)는 제1 카메라(180-1)를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 디스플레이(160)를 이용하여 표시할 수 있다. 다양한 실시예들에서, 제1 카메라(180-1)는 디스플레이(160)와 동일한 전자 장치(101)의 하우징의 면의 적어도 일부를 통해 노출될 수 있다.
동작 1920에서, 프로세서(120)는 상기 프리뷰 이미지를 표시하는 동안 수신되는 입력이 제1 입력인지 제2 입력인지 여부를 식별할 수 있다. 다양한 실시예들에서, 상기 제1 입력은, 상기 프리뷰 이미지에 상응하는 상기 제1 이미지를 제1 카메라(180-1)를 통해 획득함을 나타내는 입력을 의미할 수 있다. 다양한 실시예들에서, 상기 제2 입력은, 상기 프리뷰 이미지에 상응하는 제2 이미지를 제1 카메라(180-1)가 노출되는 전자 장치(101)의 하우징의 면에 반대인 면의 적어도 일부를 통해 노출되는 제2 카메라(180-2)를 통해 획득함을 나타내는 입력을 의미할 수 있다. 다양한 실시예들에서, 상기 제2 이미지는, 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 이미지를 의미할 수 있다. 상기 수신된 입력이 상기 제1 입력임을 식별하는 것에 기반하여, 프로세서(120)는, 동작 1930을 수행할 수 있다. 상기 수신된 입력이 상기 제2 입력임을 식별하는 것에 기반하여, 프로세서(120)는, 동작 1940 내지 동작 1960을 수행할 수 있다.
동작 1930에서, 프로세서(120)는, 상기 수신된 입력이 상기 제1 입력임을 식별하는 것에 기반하여, 제1 카메라(180-1)를 통해 상기 제1 이미지를 획득할 수 있다.
동작 1940에서, 프로세서(120)는, 상기 수신된 입력이 상기 제2 입력임을 식별하는 것에 기반하여, 전자 장치(101)의 자세를 상기 제1 자세로부터 상기 제2 자세로 변경할 것을 전자 장치(101)를 거치하는 장치(102)에게 요청할 수 있다. 다양한 실시예들에서, 상기 제1 자세는 상기 수신된 입력이 상기 제1 입력임을 식별하는 타이밍에서 장치(102)에 의해 거치된 전자 장치(101)의 자세를 의미할 수 있다. 다양한 실시예들에서, 상기 제2 자세는 상기 제1 이미지의 상기 제1 구도에 상응하는 제2 구도를 가지는 상기 제2 이미지를 획득하기 위한 장치(102)에 의해 거치된 전자 장치(101)의 자세를 의미할 수 있다. 장치(102)는 상기 요청을 수신하는 것에 기반하여, 장치(102)에 의해 거치된 전자 장치(101)의 자세를 상기 제2 자세로 변경할 수 있다.
동작 1950에서, 프로세서(120)는, 전자 장치(101)의 자세가 상기 제2 자세로 변경됨을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 장치(102)로부터 수신되는 상기 제2 자세로의 변경이 완료됨을 나타내는 메시지 또는 전자 장치(101)의 센서(530)에 의해 획득되는 전자 장치(101)의 움직임의 변화에 대한 데이터 중 적어도 하나에 기반하여, 전자 장치(101)의 자세가 상기 제2 자세로 변경됨을 식별할 수 있다.
동작 1960에서, 프로세서(120)는, 상기 식별에 기반하여 제2 카메라(180-2)를 통해 상기 제1 이미지의 상기 제1 구도에 상응하는 상기 제2 구도를 가지는 상기 제2 이미지를 획득할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는 제1 카메라(180-1)를 통해 획득되는 프리뷰 이미지를 표시하는 동안 수신되는 입력의 유형에 따라 서로 다른 기능을 제공함으로써, 개선된(enhanced) 사용자 경험을 제공할 수 있다.
도 20은 다양한 실시예들에 따른 장치의 동작의 예를 도시한다. 이러한 동작은, 도 1에 도시된 전자 장치(102), 도 3에 도시된 장치(102), 도 4에 도시된 장치(102), 또는 장치(102)의 프로세서(410)에 의해 수행될 수 있다.
도 20을 참조하면, 동작 2010에서, 프로세서(410)는 장치(102)에 의해 거치된 전자 장치(101)의 제1 자세를 제2 자세로 변경할 것을 요청하기 위해 이용되고, 상기 제2 자세를 나타내기 위한 정보를 포함하는 신호를 통신 모듈(420)을 이용하여 수신할 수 있다. 상기 신호를 송신하는 전자 장치(101)는 제1 카메라(180-1)를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 디스플레이(160)를 이용하여 표시하고 장치(102)에 의해 상기 제1 자세로 거치된 전자 장치일 수 있다. 다양한 실시예들에서, 상기 제2 자세는, 상기 제1 자세에서 획득되는 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득하기 위한 장치(102)에 의해 거치된 전자 장치(101)의 자세를 의미할 수 있다.
동작 2020에서, 프로세서(410)는, 상기 정보에 적어도 기반하여, 방위각 또는 고도각 중 적어도 하나를 제1 모터(430-1) 또는 제2 모터(430-2) 중 적어도 하나를 이용하여 조정함으로써, 전자 장치(101)의 자세를 상기 제2 자세로 변경할 수 있다. 프로세서(410)는, 전자 장치(101)의 제2 카메라(180-2)의 렌즈의 광축의 방향이 상기 제1 자세에서의 제1 카메라(180-1)의 렌즈의 광축의 방향으로 조정하기 위해, 제1 모터(430-1) 또는 제2 모터(430-2) 중 적어도 하나를 제어할 수 있다. 상기 제어에 기반하여, 전자 장치(101)의 자세는 상기 제2 자세로 변경될 수 있다.
동작 2030에서, 프로세서(410)는, 상기 제2 자세로의 변경이 완료됨을 나타내기 위한 신호를 통신 모듈(420)을 이용하여 전자 장치(101)에게 송신할 수 있다. 다양한 실시예들에서, 프로세서(410)는, 제1 모터(430-1) 또는 제2 모터(430-2) 중 적어도 하나의 제어에 기반하여 상기 제2 자세로의 변경이 완료됨을 식별하고, 상기 식별에 기반하여 전자 장치(101)에게 상기 제2 자세로의 변경이 완료됨을 나타내기 위한 신호를 송신할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 장치(102)는, 장치(102)에 의해 거치된 전자 장치(101)의 자세를 제어함으로써, 전자 장치(101)가 제1 카메라(180-1)를 통해 사용자가 확인한 이미지를 제2 카메라(180-2)를 통해 획득할 수 있도록 보조할 수 있다.
상술한 바와 같은, 다양한 실시예들에 따른 전자 장치(예: 전자 장치(101))의 방법은, 인터페이스를 통해 상기 외부 전자 장치와 연결된 상태에서, 지정된 촬영 모드의 실행의 요청을 확인하는 동작과, 상기 지정된 촬영 모드의 실행 중, 하나 이상의 객체들과 관련하여 상기 전자 장치의 하우징의 제1 면의 적어도 일부를 통해 노출된 제1 카메라를 통해 획득된 하나 이상의 제1 프리뷰 이미지들을 상기 제1 면의 적어도 다른 일부를 통해 노출된 디스플레이를 이용하여 표시하는 동작과, 상기 하나 이상의 제1 프리뷰 이미지들에 적어도 기반하여, 상기 하나 이상의 객체들에 대해 상기 제1 면에 반대인 제2 면의 적어도 일부를 통해 노출된 제2 카메라를 통해 획득 가능한 하나 이상의 제2 프리뷰 이미지들을 상기 디스플레이를 이용하여 표시하는 동작과, 상기 제2 카메라를 이용한 촬영의 요청을 확인하는 동작과, 상기 제2 카메라를 이용한 상기 촬영의 요청에 적어도 기반하여, 상기 제2 카메라의 광축이 상기 하나 이상의 객체들의 적어도 일부를 향하도록, 상기 인터페이스를 통해 상기 외부 전자 장치의 움직임을 제어하는 동작과, 상기 외부 전자 장치의 상기 움직임의 제어를 이용하여, 상기 제 2 카메라를 통해 상기 하나 이상의 제 2 프리뷰 이미지들에 적어도 기반하여 상기 하나 이상의 객체와 관련된 하나 이상의 이미지들을 획득하는 동작을 포함할 수 있다.
다양한 실시예들에서, 상기 하나 이상의 제2 프리뷰 이미지들은, 상기 하나 이상의 제1 프리뷰 이미지들에 일부 중첩될 수 있다.
다양한 실시예들에서, 상기 제2 카메라와 관련된 이미지 센서의 픽셀들의 수는, 상기 제1 카메라와 관련된 이미지 센서의 픽셀들의 수보다 클 수 있다.
다양한 실시예들에서, 상기 제1 프리뷰 이미지들은, 상기 전자 장치가 상기 외부 전자 장치에 제1 자세(position)로 거치된 상태에서 상기 제1 카메라를 통해 획득될 수 있고, 상기 하나 이상의 이미지들은, 상기 전자 장치가 상기 외부 전자 장치에 상기 제1 자세로부터 변경된 제2 자세로 거치된 상태에서 상기 제2 카메라를 통해 획득될 수 있다.
다양한 실시예들에서, 상기 하나 이상의 이미지들의 구도(composition)는, 상기 하나 이상의 제1 프리뷰 이미지들의 구도에 상응할 수 있다.
다양한 실시예들에서, 상기 촬영의 요청은, 음성 신호로 설정될(configured with) 수 있고, 상기 음성 신호는, 웨이크-업 명령과 상기 웨이크-업 명령 다음의(subsequent to) 음성 명령을 포함할 수 있으며, 상기 음성 명령은, 상기 제2 카메라를 이용하여 상기 하나 이상의 이미지들의 획득과 관련됨을 나타낼 수 있다.
다양한 실시예들에서, 상기 방법은, 상기 하나 이상의 이미지들을 획득한 후 상기 제1 카메라의 광축이 상기 하나의 제1 프리뷰 이미지들을 획득하였던 방향으로 향하도록, 상기 인터페이스를 통해 상기 외부 전자 장치의 움직임을 제어하고, 상기 하나 이상의 이미지들을 획득한 후 상기 획득된 하나 이상의 이미지들을 상기 디스플레이를 이용하여 표시하는 동작을 더 포함할 수 있다.
상술한 바와 같은 다양한 실시예들에 따른 전자 장치(예: 전자 장치(101))의 방법은, 제1 방향으로 배치된 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 제1 방향으로 시각적으로 노출된 디스플레이를 이용하여 표시하는 동작과, 상기 프리뷰 이미지를 표시하는 동안 상기 제1 이미지의 제1 구도(composition)에 상응하는 제2 구도를 가지는 제2 이미지를 상기 제1 방향과 구별되는 제2 방향으로 배치된 제2 카메라를 통해 획득할 것을 나타내는 입력을 수신하는 동작과, 상기 수신에 기반하여, 상기 전자 장치를 제1 자세(position)로 거치하는 장치에게, 상기 제1 자세를 상기 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 상기 통신 모듈을 이용하여 요청하는 동작과, 상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하는 동작과, 상기 식별에 기반하여, 상기 제2 카메라를 통해 상기 제2 구도를 가지는 상기 제2 이미지를 획득하는 동작을 포함할 수 있다.
다양한 실시예들에서, 상기 제2 자세로 변경됨을 식별하는 동작은, 상기 장치로부터 상기 전자 장치의 상기 자세를 상기 제1 자세로부터 상기 제2 자세로 변경함을 나타내기 위한 신호를 수신함으로써, 상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하는 동작을 포함할 수 있다.
다양한 실시예들에서, 상기 전자 장치는, 상기 전자 장치의 자세에 대한 정보를 획득하기 위한 적어도 하나의 센서(예: 센서(530))를 더 포함할 수 있고, 상기 식별하는 동작은, 상기 적어도 하나의 센서를 이용하여 상기 전자 장치의 상기 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하는 동작을 포함할 수 있다.
다양한 실시예들에서, 상기 요청하는 동작은, 상기 제1 자세와 상기 제2 자세 사이의 차이(difference)에 대한 정보를 포함하는 신호를 상기 장치에게 송신함으로써 상기 제1 자세를 상기 제2 자세로 변경할 것을 요청하는 동작을 포함할 수 있다. 예를 들면, 상기 제1 자세와 상기 제2 자세 사이의 차이에 대한 정보는, 상기 제1 자세와 상기 제2 자세 사이의 방위각(azimuth angle)에 대한 데이터 또는 상기 제1 자세와 상기 제2 자세 사이의 고도각(elevation angle)에 대한 데이터 중 적어도 하나를 포함할 수 있다.
다양한 실시예들에서, 상기 방법은, 상기 제2 이미지를 획득한 후 상기 전자 장치를 상기 제2 자세로 거치하는 상기 장치에게 상기 제2 자세를 상기 제1 자세로 변경할 것을 요청하는 동작과, 상기 전자 장치의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원됨을 식별하는 것에 기반하여, 상기 획득된 제2 이미지를 상기 디스플레이를 이용하여 표시하는 동작을 더 포함할 수 있다. 예를 들면, 상기 방법은, 상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하는 타이밍과 관련된 제1 타이밍으로부터 상기 전자 장치의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원됨을 식별하는 타이밍과 관련된 제2 타이밍까지 상기 디스플레이의 상태를 웨이크-업 상태로부터 슬립 상태로 전환하는 동작과, 상기 제2 타이밍이 경과됨을 식별하는 것에 기반하여 상기 디스플레이의 상태를 상기 웨이크-업 상태로 복원하는 동작과, 상기 웨이크-업 상태로의 상기 복원에 기반하여, 상기 획득된 제2 이미지를 상기 디스플레이를 이용하여 표시하는 동작을 더 포함할 수 있다.
다양한 실시예들에서, 상기 전자 장치는, 마이크로폰(microphone)(예: 마이크로폰(510))을 더 포함할 수 있고, 상기 입력을 수신하는 동작은, 상기 마이크로폰을 통해 음성 신호(voice signal)로 설정된(configured with) 상기 입력을 수신하는 동작을 포함할 수 있고, 상기 음성 신호는, 웨이크-업 명령(wake-up command) 및 상기 웨이크-업 명령 다음의(subsequent to) 음성 명령(voice command)을 더 포함할 수 있으며, 상기 음성 명령은, 상기 제2 이미지를 획득할 것을 나타낼 수 있다.
다양한 실시예들에서, 상기 전자 장치는, 적어도 하나의 스피커(speaker)(예: 스피커(520))를 더 포함할 수 있고, 상기 방법은, 상기 제2 이미지를 획득하기 전에, 상기 제2 이미지를 획득하는 타이밍을 알리기 위한 알림(notification)을 상기 적어도 하나의 스피커를 이용하여 출력하는 동작을 더 포함할 수 있다.
상술한 바와 같은, 다양한 실시예들에 따른 전자 장치(예: 전자 장치(101))의 방법은, 제1 방향으로 배치된 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 제1 방향으로 시각적으로 노출된 디스플레이를 이용하여 표시하는 동작과, 상기 프리뷰 이미지를 표시하는 동안 수신되는 입력이 제1 입력인지 제2 입력인지 여부를 식별하는 동작과, 상기 입력이 상기 제1 입력임을 식별하는 것에 기반하여, 상기 제1 카메라를 통해 상기 제1 이미지를 획득하는 동작과, 상기 입력이 상기 제2 입력임을 식별하는 것에 기반하여, 상기 전자 장치를 제1 자세로 거치하는 장치에게, 상기 제1 자세를 제2 자세로 변경할 것을 통신 모듈을 이용하여 요청하고, 상기 전자 장치의 자세가 상기 제2 자세로 변경됨을 식별하고, 상기 식별에 기반하여, 상기 제1 방향과 구별되는 제2 방향으로 배치된 제2 카메라를 통해 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득하는 동작을 포함할 수 있다.
다양한 실시예들에서, 상기 입력이 상기 제1 입력인지 상기 제2 입력인지 여부를 식별하는 동작은, 음성 신호로 설정된 상기 입력으로부터 웨이크-업 명령 다음의 음성 명령을 식별하는 동작과, 상기 식별된 음성 명령에 대한 정보를 상기 통신 모듈을 이용하여 서버에게 송신하는 동작과, 상기 음성 명령을 인식함으로써 획득된 정보를 상기 통신 모듈을 이용하여 상기 서버로부터 수신하는 동작과, 상기 수신된 정보에 기반하여, 상기 입력이 상기 제1 입력인지 상기 제2 입력인지 여부를 식별하는 동작을 포함할 수 있다.
다양한 실시예들에서, 상기 제1 카메라는, 전자 장치의 하우징(housing)의 제1 면의 적어도 일부를 통해 노출될 수 있고, 상기 제2 카메라는, 상기 제1 면에 반대인(opposite to) 상기 하우징의 제2 면의 적어도 일부를 통해 노출될 수 있으며, 상기 디스플레이는, 상기 제1 면의 적어도 다른 일부를 통해 노출될 수 있다.
상술한 바와 같은, 전자 장치(예: 전자 장치(101))를 거치하는 장치(예: 장치(102))의 방법은, 상기 전자 장치의 제1 방향으로 배치된 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 전자 장치의 상기 제1 방향으로 배치된 디스플레이를 이용하여 표시하고 상기 장치에 의해 제1 자세로 거치된 상기 전자 장치로부터, 상기 제1 자세를 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 요청하기 위해 이용되고, 상기 제2 자세를 나타내기 위한 정보를 포함하는 신호를 통신 모듈을 이용하여 수신하는 동작과, 상기 정보에 적어도 기반하여, 상기 방위각 또는 상기 고도각 중 적어도 하나를 상기 제1 모터 또는 상기 제2 모터 중 적어도 하나를 이용하여 조정함으로써, 상기 전자 장치의 상기 자세를 상기 제2 자세로 변경하는 동작과, 상기 제2 자세로의 변경이 완료됨을 나타내기 위한 신호를 상기 통신 모듈을 이용하여 상기 전자 장치에게 송신하는 동작을 포함할 수 있다.
본 개시의 청구항 또는 명세서에 기재된 실시예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금 본 개시의 청구항 또는 명세서에 기재된 실시예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 비휘발성(non-volatile) 메모리, 롬(ROM: read only memory), 전기적 삭제가능 프로그램가능 롬(EEPROM: electrically erasable programmable read only memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM: compact disc-ROM), 디지털 다목적 디스크(DVDs: digital versatile discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
또한, 상기 프로그램은 인터넷(Internet), 인트라넷(Intranet), LAN(local area network), WLAN(wide LAN), 또는 SAN(storage area network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 본 개시의 실시 예를 수행하는 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 본 개시의 실시 예를 수행하는 장치에 접속할 수도 있다.
상술한 본 개시의 구체적인 실시예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    하우징;
    상기 하우징의 제1 면의 적어도 일부를 통해 노출된 디스플레이;
    상기 제1 면의 적어도 다른 일부를 통해 노출된 제1 카메라;
    상기 제1 면에 반대인(opposite to) 제2 면의 적어도 일부를 통해 노출된 제2 카메라;
    외부 전자 장치와 연결하기 위한 인터페이스; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 인터페이스를 통해 상기 외부 전자 장치와 연결된 상태에서, 지정된 촬영 모드의 실행의 요청을 확인하고,
    상기 지정된 촬영 모드의 실행 중, 하나 이상의 객체들과 관련하여 상기 제1 카메라를 통해 획득된 하나 이상의 제1 프리뷰 이미지들을 상기 디스플레이를 이용하여 표시하고,
    상기 하나 이상의 제1 프리뷰 이미지들에 적어도 기반하여, 상기 하나 이상의 객체들에 대해 상기 제2 카메라를 통해 획득 가능한 하나 이상의 제2 프리뷰 이미지들을 상기 디스플레이를 이용하여 표시하고,
    상기 제2 카메라를 이용한 촬영의 요청을 확인하고,
    상기 제2 카메라를 이용한 상기 촬영의 요청에 적어도 기반하여, 상기 제2 카메라의 광축이 상기 하나 이상의 객체들의 적어도 일부를 향하도록, 상기 인터페이스를 통해 상기 외부 전자 장치의 움직임을 제어하고,
    상기 외부 전자 장치의 상기 움직임의 제어를 이용하여, 상기 제 2 카메라를 통해 상기 하나 이상의 제 2 프리뷰 이미지들에 적어도 기반하여 상기 하나 이상의 객체와 관련된 하나 이상의 이미지들을 획득하도록 설정된, 전자 장치.
  2. 청구항 1에 있어서, 상기 하나 이상의 제2 프리뷰 이미지들은,
    상기 하나 이상의 제1 프리뷰 이미지들에 일부 중첩되는 전자 장치.
  3. 청구항 1에 있어서, 상기 제2 카메라와 관련된 이미지 센서의 픽셀들의 수는,
    상기 제1 카메라와 관련된 이미지 센서의 픽셀들의 수보다 큰 전자 장치.
  4. 청구항 1에 있어서, 상기 제1 프리뷰 이미지들은,
    상기 전자 장치가 상기 외부 전자 장치에 제1 자세(position)로 거치된 상태에서 상기 제1 카메라를 통해 획득되고,
    상기 하나 이상의 이미지들은,
    상기 전자 장치가 상기 외부 전자 장치에 상기 제1 자세로부터 변경된 제2 자세로 거치된 상태에서 상기 제2 카메라를 통해 획득되는 전자 장치.
  5. 청구항 1에 있어서, 상기 하나 이상의 이미지들의 구도(composition)는,
    상기 하나 이상의 제1 프리뷰 이미지들의 구도에 상응하는 전자 장치.
  6. 청구항 1에 있어서, 상기 촬영의 요청은,
    음성 신호에 적어도 기반하여 설정되고(configured),
    상기 음성 신호는,
    웨이크-업 명령과 상기 웨이크-업 명령 다음의(subsequent to) 음성 명령을 포함하며,
    상기 음성 명령은,
    상기 제2 카메라를 이용하여 상기 하나 이상의 이미지들의 획득과 관련됨을 나타내는 전자 장치.
  7. 청구항 1에 있어서, 상기 프로세서는,
    상기 하나 이상의 이미지들을 획득한 후 상기 제1 카메라의 광축이 상기 하나의 제1 프리뷰 이미지들을 획득하였던 방향으로 향하도록, 상기 인터페이스를 통해 상기 외부 전자 장치의 움직임을 제어하고,
    상기 하나 이상의 이미지들을 획득한 후 상기 획득된 하나 이상의 이미지들을 상기 디스플레이를 이용하여 표시하도록 설정된 전자 장치.
  8. 전자 장치(electronic device)에 있어서,
    명령어(instruction)들을 저장하는 메모리;
    통신 모듈;
    감지 모듈;
    제1 방향(direction)으로 배치된 제1 카메라;
    상기 제1 방향과 구별되는 제2 방향으로 배치된 제2 카메라;
    상기 제1 방향으로 시각적으로 노출된 디스플레이; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 디스플레이를 이용하여 표시하고,
    상기 프리뷰 이미지를 표시하는 동안 상기 제1 이미지의 제1 구도(composition)에 상응하는 제2 구도를 가지는 제2 이미지를 상기 제2 카메라를 통해 획득할 것을 나타내는 입력을 수신하고,
    상기 수신에 기반하여, 상기 전자 장치를 제1 자세(position)로 거치하는 장치에게, 상기 제1 자세를 상기 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 상기 통신 모듈을 이용하여 요청하고,
    상기 감지 모듈을 통해, 상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하고,
    상기 식별에 기반하여, 상기 제2 카메라를 통해 상기 제2 구도를 가지는 상기 제2 이미지를 획득하기 위해 상기 저장된 명령어들을 실행하도록 설정된 전자 장치.
  9. 청구항 8에 있어서, 상기 적어도 하나의 프로세서는,
    상기 장치로부터 상기 전자 장치의 상기 자세를 상기 제1 자세로부터 상기 제2 자세로 변경함을 나타내기 위한 신호를 수신함으로써, 상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하기 위해 상기 저장된 명령어들을 실행하도록 설정된 전자 장치.
  10. 청구항 8에 있어서,
    상기 감지 모듈은 상기 전자 장치의 자세에 대한 정보를 획득할 수 있는 적어도 하나의 센서를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 적어도 하나의 센서를 이용하여 상기 전자 장치의 상기 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하기 위해 상기 저장된 명령어들을 실행하도록 설정된 전자 장치.
  11. 청구항 8에 있어서, 상기 적어도 하나의 프로세서는,
    상기 제1 자세와 상기 제2 자세 사이의 차이(difference)에 대한 정보를 포함하는 신호를 상기 장치에게 송신함으로써 상기 제1 자세를 상기 제2 자세로 변경할 것을 요청하기 위해 상기 저장된 명령어들을 실행하도록 설정된 전자 장치.
  12. 청구항 11에 있어서, 상기 제1 자세와 상기 제2 자세 사이의 차이에 대한 정보는,
    상기 제1 자세와 상기 제2 자세 사이의 방위각(azimuth angle)에 대한 데이터 또는 상기 제1 자세와 상기 제2 자세 사이의 고도각(elevation angle)에 대한 데이터 중 적어도 하나를 포함하는 전자 장치.
  13. 청구항 8에 있어서, 상기 적어도 하나의 프로세서는,
    상기 제2 이미지를 획득한 후 상기 전자 장치를 상기 제2 자세로 거치하는 상기 장치에게 상기 제2 자세를 상기 제1 자세로 변경할 것을 요청하고,
    상기 전자 장치의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원됨을 식별하는 것에 기반하여, 상기 획득된 제2 이미지를 상기 디스플레이를 이용하여 표시하기 위해 상기 저장된 명령어들을 실행하도록 더 설정된 전자 장치.
  14. 청구항 13에 있어서, 상기 적어도 하나의 프로세서는,
    상기 전자 장치의 자세가 상기 제1 자세로부터 상기 제2 자세로 변경됨을 식별하는 타이밍과 관련된 제1 타이밍으로부터 상기 전자 장치의 자세가 상기 제2 자세로부터 상기 제1 자세로 복원됨을 식별하는 타이밍과 관련된 제2 타이밍까지 상기 디스플레이의 상태를 웨이크-업 상태로부터 슬립 상태로 전환하고,
    상기 제2 타이밍이 경과됨을 식별하는 것에 기반하여 상기 디스플레이의 상태를 상기 웨이크-업 상태로 복원하고,
    상기 웨이크-업 상태로의 상기 복원에 기반하여, 상기 획득된 제2 이미지를 상기 디스플레이를 이용하여 표시하기 위해 상기 저장된 명령어들을 실행하도록 더 설정된 전자 장치.
  15. 전자 장치(electronic device)를 거치하는 장치(apparatus)에 있어서,
    하우징;
    상기 하우징 내에 배치되고, 상기 전자 장치를 고정하도록 설정된 결합부;
    상기 하우징 내에 배치되고, 방위각(azimuth angle)을 조정함으로써 상기 전자 장치의 자세를 변경하도록 설정된 제1 모터;
    상기 하우징 내에 배치되고, 고도각(elevation angle)을 조정함으로써 상기 전자 장치의 상기 자세를 변경하도록 설정된 제2 모터;
    상기 하우징 내에 배치된 통신 모듈; 및
    상기 하우징 내에 배치되고, 상기 제1 모터, 상기 제2 모터, 및 상기 통신 모듈과 작동적으로 결합된 프로세서를 포함하고, 상기 프로세서는,
    상기 전자 장치의 제1 카메라를 통해 획득되는 제1 이미지에 대한 프리뷰 이미지를 상기 전자 장치의 디스플레이를 이용하여 표시하고 상기 장치에 의해 제1 자세로 거치된 상기 전자 장치로부터, 상기 제1 자세를 상기 제1 이미지의 제1 구도에 상응하는 제2 구도를 가지는 제2 이미지를 획득하기 위한 제2 자세로 변경할 것을 요청하기 위해 이용되고, 상기 제2 자세를 나타내기 위한 정보를 포함하는 신호를 상기 통신 모듈을 이용하여 수신하고,
    상기 정보에 적어도 기반하여, 상기 방위각 또는 상기 고도각 중 적어도 하나를 상기 제1 모터 또는 상기 제2 모터 중 적어도 하나를 이용하여 조정함으로써, 상기 전자 장치의 상기 자세를 상기 제2 자세로 변경하고,
    상기 제2 자세로의 변경이 완료됨을 나타내기 위한 신호를 상기 통신 모듈을 이용하여 상기 전자 장치에게 송신하도록 설정된 장치.
PCT/KR2019/001186 2018-04-25 2019-01-29 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법 WO2019208915A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180047728A KR102512839B1 (ko) 2018-04-25 2018-04-25 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법
KR10-2018-0047728 2018-04-25

Publications (1)

Publication Number Publication Date
WO2019208915A1 true WO2019208915A1 (ko) 2019-10-31

Family

ID=68293832

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/001186 WO2019208915A1 (ko) 2018-04-25 2019-01-29 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102512839B1 (ko)
WO (1) WO2019208915A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045518A (zh) * 2019-12-09 2020-04-21 上海瑾盛通信科技有限公司 获取姿态数据的方法及相关装置
WO2022121731A1 (zh) * 2020-12-07 2022-06-16 维沃移动通信有限公司 图像拍摄方法、装置、电子设备和可读存储介质
WO2023093169A1 (zh) * 2021-11-25 2023-06-01 荣耀终端有限公司 拍摄的方法和电子设备
CN117714846A (zh) * 2023-07-12 2024-03-15 荣耀终端有限公司 摄像头的控制方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200473426Y1 (ko) * 2013-11-21 2014-07-04 조원석 후면 터치스크린을 구비한 스마트폰
KR20150007875A (ko) * 2013-07-12 2015-01-21 삼성전자주식회사 전자 장치의 촬영 이미지 생성 방법 및 장치
KR20150089340A (ko) * 2014-01-27 2015-08-05 엘지전자 주식회사 이동단말기, 이동단말기용 거치대 그리고 이들을 이용한 영상 촬영방법
KR101553503B1 (ko) * 2015-01-12 2015-09-16 주식회사 월드텍 사물 인식을 통한 외부 디바이스의 제어 방법
US9699431B2 (en) * 2010-02-10 2017-07-04 Satarii, Inc. Automatic tracking, recording, and teleprompting device using multimedia stream with video and digital slide

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100626977B1 (ko) * 2004-03-03 2006-09-21 (주)아이디에스 이동 가능한 카메라를 장착한 휴대폰
KR102077675B1 (ko) * 2013-07-26 2020-02-14 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102163894B1 (ko) * 2014-01-22 2020-10-12 엘지전자 주식회사 이동 단말기 거치대 및 이를 이용한 이동 단말기의 방향 변환 방법
KR102031874B1 (ko) * 2014-06-10 2019-11-27 삼성전자주식회사 구도 정보를 이용하는 전자 장치 및 이를 이용하는 촬영 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9699431B2 (en) * 2010-02-10 2017-07-04 Satarii, Inc. Automatic tracking, recording, and teleprompting device using multimedia stream with video and digital slide
KR20150007875A (ko) * 2013-07-12 2015-01-21 삼성전자주식회사 전자 장치의 촬영 이미지 생성 방법 및 장치
KR200473426Y1 (ko) * 2013-11-21 2014-07-04 조원석 후면 터치스크린을 구비한 스마트폰
KR20150089340A (ko) * 2014-01-27 2015-08-05 엘지전자 주식회사 이동단말기, 이동단말기용 거치대 그리고 이들을 이용한 영상 촬영방법
KR101553503B1 (ko) * 2015-01-12 2015-09-16 주식회사 월드텍 사물 인식을 통한 외부 디바이스의 제어 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045518A (zh) * 2019-12-09 2020-04-21 上海瑾盛通信科技有限公司 获取姿态数据的方法及相关装置
CN111045518B (zh) * 2019-12-09 2023-06-30 上海瑾盛通信科技有限公司 获取姿态数据的方法及相关装置
WO2022121731A1 (zh) * 2020-12-07 2022-06-16 维沃移动通信有限公司 图像拍摄方法、装置、电子设备和可读存储介质
WO2023093169A1 (zh) * 2021-11-25 2023-06-01 荣耀终端有限公司 拍摄的方法和电子设备
CN117714846A (zh) * 2023-07-12 2024-03-15 荣耀终端有限公司 摄像头的控制方法及装置

Also Published As

Publication number Publication date
KR102512839B1 (ko) 2023-03-22
KR20190123869A (ko) 2019-11-04

Similar Documents

Publication Publication Date Title
WO2020032555A1 (en) Electronic device and method for providing notification related to image displayed through display and image stored in memory based on image analysis
WO2020213915A1 (en) Foldable electronic device including sliding structure and method for controlling the same
WO2020171512A1 (en) Electronic device for recommending composition and operating method thereof
WO2020091262A1 (ko) 인공 신경망을 이용한 이미지 처리 방법 및 이를 지원하는 전자 장치
WO2020166911A1 (en) Screen providing method and electronic device supporting same
WO2017010628A1 (en) Method and photographing apparatus for controlling function based on gesture of user
WO2021112525A1 (en) Electronic device and method for controlling camera motion
WO2019017641A1 (ko) 전자 장치 및 전자 장치의 이미지 압축 방법
WO2021025534A1 (ko) 카메라 프리뷰 이미지를 제공하기 위한 전자 장치 및 그의 동작 방법
WO2017090833A1 (en) Photographing device and method of controlling the same
WO2019143050A1 (en) Electronic device and method for controlling autofocus of camera
WO2019164290A1 (en) Method of biometric authenticating using plurality of camera with different field of view and electronic apparatus thereof
WO2021157954A1 (ko) 복수의 카메라를 이용한 동영상 촬영 방법 및 그 장치
WO2020071823A1 (en) Electronic device and gesture recognition method thereof
WO2022010122A1 (ko) 영상을 제공하는 방법 및 이를 지원하는 전자 장치
WO2022139262A1 (ko) 관심 객체를 이용하여 비디오를 편집하는 전자 장치 및 그 동작 방법
WO2020159262A1 (en) Electronic device and method for processing line data included in image frame data into multiple intervals
WO2022154387A1 (ko) 전자 장치 및 그의 동작 방법
WO2019208915A1 (ko) 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법
WO2019045517A1 (ko) 복수의 이미지 센서들의 동기화 제어 방법 및 이를 구현한 전자 장치
WO2021118220A1 (en) Electronic device for changing display in designated area of display and operating method thereof
WO2021025509A1 (en) Apparatus and method for displaying graphic elements according to object
WO2019017586A1 (ko) 이미지 데이터 및 이미지 촬영의 제어와 관련된 데이터의 크기에 기반하여, 이미지 데이터 및 이미지 촬영의 제어와 관련된 데이터를 전송하는 방법 및 이를 지원하는 전자 장치
WO2021145667A1 (ko) 카메라 이동 제어 방법 및 장치
WO2019054626A1 (ko) 제 1 이미지 센서에서 제공된 신호를 이용하여 제 2 이미지 센서에서 데이터를 획득하는 방법 및 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19793895

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19793895

Country of ref document: EP

Kind code of ref document: A1