CN102214065B - 移动终端及其图像显示控制方法 - Google Patents
移动终端及其图像显示控制方法 Download PDFInfo
- Publication number
- CN102214065B CN102214065B CN201110087532XA CN201110087532A CN102214065B CN 102214065 B CN102214065 B CN 102214065B CN 201110087532X A CN201110087532X A CN 201110087532XA CN 201110087532 A CN201110087532 A CN 201110087532A CN 102214065 B CN102214065 B CN 102214065B
- Authority
- CN
- China
- Prior art keywords
- image
- display
- degree
- area
- shows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
公开了一种移动终端和一种用于控制其图像显示的方法。在此公开的用于移动终端的显示模块可以包括:显示器,用于显示包括一个或多个对象的图像;用户输入接口,用于接收输入以在2D显示和3D显示之间改变图像;以及控制器,其被配置成基于所接收到的输入来在2D显示和3D显示之间改变显示的图像。控制器可以控制显示器在显示的图像中的改变期间顺序显示一个或多个中间图像,以便逐渐地改变一个或多个对象的至少一个被感知相对于显示器凸出或凹陷的程度。
Description
技术领域
本公开涉及一种移动终端,并且更具体地涉及一种移动终端及其图像显示控制方法。虽然本公开适合于大范围的应用,但是它可能特别适用于执行对象的二维和三维显示。
背景技术
通常,可以将终端分类为移动/便携终端和固定终端。根据用户的直接便携性的可能,可以再一次将移动终端分类为手持终端和车载终端。
随着终端的功能多样化,终端被实现为多媒体播放器,该多媒体播放器设置有复合功能,诸如照片或移动图片的拍摄、音乐或移动图片文件的回放、游戏播放和广播接收等。
为了支持和增加终端功能,能够考虑终端的结构部分和/或软件部分的改善。
通常,在将二维(2D)显示切换到三维(3D)显示的切换操作的情况下,能够执行2D显示和3D显示两者的终端能够以下述方式三维地显示图像:图像具有与切换操作的完成状态相对应的凸出程度(或凹陷程度)。并且,在执行将3D显示切换到2D显示的切换操作的情况下,如果完成了切换操作,则终端能够二维地显示图像。
根据相关技术,移动终端在执行切换操作的过程中根据在2D显示和3D显示之间的切换操作而不显示图像。
而且,只有完成了切换操作时,移动终端才根据切换操作的执行结果来显示具有凸出或凹陷程度的图像。因此,相关技术的移动终端在切换操作的过程中不提供用于逐渐改变对应图像的凸出或凹陷程度的处理。
在对于附加或替代细节、特征和/或技术背景的适当教导适用时,上面的参考文献通过引用的方式合并在此。
附图说明
将参考下面的附图来详细描述实施例,在附图中,相同的附图标记指的是相同的元件,其中:
图1是根据一个实施例的移动终端的框图;
图2A是根据一个实施例的移动终端的前透视图;
图2B是根据一个实施例的移动终端的后透视图;
图3是根据一个实施例的移动终端的前视图,用于图示移动终端的一个操作状态;
图4是用于解释接近传感器的接近深度的概念的图;
图5和图6是用于描述根据实施例的使用双眼视差的立体图像显示方法的图;
图7是根据第一实施例的移动终端的图像显示控制方法的流程图;
图8A是由于左/右眼图像位置造成的凸出显示的图;
图8B是由于左/右眼图像位置造成的凹陷显示的图;
图9A至11E是用于接收切换命令动作的输入的处理的图;
图12A至12F是用于顺序显示对象图标的凸出显示处理的第一图;
图13A至13F是用于顺序显示对象图标的凹陷显示处理的第一图;
图14A至14H是用于顺序显示对象图标的凸出显示处理的第二图;
图15A至15H是用于顺序显示对象图标的凹陷显示处理的第二图;
图16是根据第二实施例的移动终端的图像显示控制方法的流程图;
图17是根据第二实施例的修改在移动终端中的立体图像的一个示 例的图;
图18至21是用于描述图17的图;
图22是根据第二实施例的修改在移动终端中的立体图像的另一个示例的图;
图23和图24是用于描述图22的图;
图25是根据第二实施例的修改在移动终端中的立体图像的进一步示例的图;
图26和图27是用于描述图25的图;
图28至31是根据第二实施例的修改在移动终端中的立体图像的另一个示例的图;
图32是根据第三实施例的移动终端的图像显示控制方法的流程图;
图33A和33B是图示根据第三实施例的立体对象的显示的图;以及,
图34是根据第三实施例的移动立体对象以显示的一个示例的图。
具体实施方式
在下面的详细描述中,参考附图,附图形成本公开的一部分,并且通过图示示出了本公开的特定实施例。本领域的普通技术人员应当明白,可以利用其他实施例,并且在不偏离本公开的范围的情况下,可以进行结构、电气以及过程的改变。只要可能,在全部附图中使用相同的附图标记来表示相同或类似的部分。
通过考虑在撰写本公开上的便利,公共地给出或使用在下面的描述中使用的元件的后缀“模块”和“单元”,但是后缀“模块”和“单元”未能具有彼此相区别的含义或功能。
首先,在本公开中描述的移动终端可以包括移动电话、智能电话、膝上型计算机、数字广播终端、PDA(个人数字助理)、PMP(便携多媒体播放机)和导航系统等。
除了仅适用于移动终端的情况之外,对于本领域的技术人员显而易见的是,根据在本公开中描述的实施例的配置适用于诸如数字TV和台式计算机等的固定终端。
图1是根据一个实施例的移动终端的框图。
参见图1,根据一个实施例的移动终端100包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等。图1示出了具有各种组件的无线终端100,但是应当明白,不要求实现所有图示的组件。可以替代地实现更多或更少的组件。
在下面的描述中,依序解释移动终端100的上述元件。
首先,无线通信单元110通常包括一个或多个组件,无线通信单元110允许在移动终端100和移动终端100所位于的无线通信系统或网络之间的无线通信。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线因特网模块113、短距离通信模块114和位置定位模块115等。
广播接收模块111经由广播信道来从外部广播管理服务器接收广播信号和/或广播关联信息。
广播信道可以包括卫星信道和陆地信道。
广播管理服务器一般指的是生成和发射广播信号和/或广播关联信息的服务器或被提供有预先生成的广播信号和/或广播关联信息并且然后向终端发射所提供的信号或信息的服务器。广播信号可以特别地被实现为TV广播信号、无线电广播信号和数据广播信号。如果期望, 则广播信号可以进一步包括与TV或无线电广播信号组合的广播信号。
广播关联信息包括与广播信道、广播节目、广播服务提供商等相关联的信息。并且,可以经由移动通信网络来提供广播关联信息。在该情况下,移动通信模块112可以接收广播关联信息。
可以以各种形式来实现广播关联信息。例如,广播关联信息可以包括数字多媒体广播(DMB)的电子节目指南(EPG)和手持数字视频广播(DVB-H)的电子服务指南(ESG)。
广播接收模块111可以被配置成接收从各种类型的广播系统发射的广播信号。通过非限定性示例,这样的广播系统包括陆地数字多媒体广播(DMB-T)、卫星数字多媒体广播(DMB-S)、手持数字视频广播(DVB-H)、被称为仅媒体前向链路 的数据广播系统和陆地综合业务数字广播(ISDB-T)。可选地,广播接收模块111可以被配置适合于其他广播系统以及上述的数字广播系统。
由广播接收模块111接收到的广播信号和/或广播关联信息可以被存储在诸如存储器160的适当设备中。
移动通信模块112向一个或多个网络实体(例如,基站、外部终端、服务器等)发射一个或多个网络实体/从一个或多个网络实体接收无线信号,这样的无线信号可以根据文本/多媒体消息收发来特别表示音频、视频和数据。
无线因特网模块113支持移动终端100的因特网接入。该模块可以内部或外部地耦合到移动终端100。在该情况下,无线因特网技术可以包括WLAN(无线局域网)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波接入互操作性)、HSDPA(高速下行链路分组接入)等。
短距离通信模块114促进相对短距离通信。用于实现这个模块的适当技术包括射频识别(RFID)、红外线数据协会(IrDA)、超宽带(UWB)以及被通称为蓝牙和ZigBee的联网技术,这里仅列出了几个。
位置定位模块115识别或以其它方式获得移动终端100的位置,如果期望,则可以利用全球定位系统(GPS)模块来实现这个模块。
参见图1,音频/视频(A/V)输入单元120被配置成向移动终端100提供音频或视频信号输入。如图所示,A/V输入单元120包括相机121和麦克风122。相机121接收并且处理由在视频呼叫模式或拍摄模式中的图像传感器获得的静止图片或视频的图像帧。并且,可以在显示单元151上显示已处理的图像帧。
由相机121处理的图像帧可以被存储在存储器160中,或可以经由无线通信单元110向外部发射。可选地,根据使用环境,可以向移动终端100提供至少两个相机121。
在便携装置在诸如电话呼叫模式、记录模式和语音识别的特定模式中时,麦克风122接收外部音频信号。这个音频信号被处理和转换为电子音频数据。已处理的音频数据被转变为可在呼叫模式的情况下经由移动通信模块112发射到移动通信基站的格式。麦克风122通常包括各种噪声去除算法,用于去除在接收外部音频信号的过程中生成的噪声。
用户输入单元130响应于一个或多个关联的输入装置的用户操纵而生成输入数据。这样的设备的示例包括小键盘、薄膜开关、触摸板(例如,静压/电容)、滚轮、轻摇开关等。
感测单元140提供用于使用移动终端的各个方面的状态测量来控制移动终端100的操作的感测信号。例如,感测单元140可以检测移动 终端100的打开/闭合状态、移动终端100的组件(例如显示器和小键盘)的相对定位、移动终端100或移动终端100的组件的位置改变、用户有没有与移动终端100接触、移动终端100的方向或加速/减速。作为示例,考虑移动终端100被配置为滑动型移动终端。在这种配置中,感测单元140可以感测移动终端的滑动部分是打开还是闭合。其他示例包括感测单元140感测有没有由电源190提供的电力、在接口单元170和外部装置之间有没有耦合或其他连接。并且,感测单元140可以包括接近传感器141。
输出单元150生成与视觉、听觉和触觉等相关的输出。并且,输出单元150包括显示单元151、音频输出模块152、警报单元153、触觉模块154和投影器模块155等等。
显示单元151通常被实现成视觉上显示(输出)与移动终端100相关联的信息。例如,如果移动终端在电话呼叫模式中操作,则显示器将通常提供用户界面(UI)或图形用户界面(GUI),用户界面(UI)或图形用户界面(GUI)包括与拨打、进行和终止电话呼叫相关联的信息。作为另一个示例,如果移动终端100在视频呼叫模式或拍摄模式中,则显示单元151可以另外或替代地显示与这些模式、UI或GUI相关联的图像。
可以使用已知显示技术来实现显示模块151,所述显示技术例如包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管显示器(OLED)、柔性显示器和三维显示器。移动终端100可以包括一个或多个这样的显示器。
可以以透明或透光型实现上述显示器的一些,它们被称为透明显示器。作为透明显示器的代表性示例,存在TOLED(透明OLED)等。也可以以透光型实现显示单元151的背面配置。在这种配置中,用户能够经由由终端主体的显示单元151占用的区域看到在终端主体后面的 对象。
根据所实现的移动终端100的配置,可以向移动终端100提供至少两个显示单元151。例如,可以以将多个显示单元彼此隔开或内置在一个主体中的方式来在移动终端100的单个面上布置所述多个显示单元。替代地,可以在移动终端100的不同面上布置多个显示单元。
在显示单元151和用于检测接触动作的传感器(在下文中称为“触摸传感器”)配置相互层结构(在下文中称为“触摸屏”)的情况下,能够使用显示单元151作为输入设备以及输出设备。在该情况下,触摸传感器可以被配置为触摸膜、触摸片或触摸板等。
触摸传感器可以被配置成将向显示单元151的特定部分施加的压力或从显示单元151的特定部分生成的电容的变化转换为电输入信号。而且,能够配置触摸传感器来检测检测触摸压力以及触摸的位置或大小。
如果向触摸传感器提供了触摸输入,则与触摸相对应的信号(多个)被传送到触摸控制器。触摸控制器处理所述信号(多个),并且然后将已处理的信号(多个)传送到控制器180。因此,控制器180能够知道是否触摸了显示单元151的指定部分。
参见图1,可以向由触摸屏围绕或在触摸屏周围的移动终端100的内部区域提供接近传感器(图中未示出)。接近传感器是下述传感器,该传感器在没有机械接触的情况下使用电磁场强度或红外线来检测有没有靠近指定的检测表面的对象或在接近传感器周围存在的对象。因此,接近传感器具有比接触型传感器的耐用性更长的耐用性,并且也可以具有比接触型传感器的用途更宽的用途。
接近传感器可以包括透射光电传感器、直接反射光电传感器、镜 面反射光电传感器、射频振荡接近传感器、静电电容接近传感器、磁接近传感器和红外接近传感器等之一。在触摸屏包括静电电容接近传感器的情况下,该传感器被配置成使用根据指示器的接近的电场的变化来检测指示器的接近。在该情况下,可以将触摸屏(触摸传感器)可以被分类为接近传感器。
在下面的描述中,为了清楚,指示器靠近而不接触所述触摸屏以被识别为位于触摸屏上的动作被称为“接近触摸”。并且,指示器实际上触摸所述触摸屏的动作被称为“接触触摸”。由指示器接近触摸的触摸屏上的位置的含义意指当指示器执行接近触摸时垂直地相对触摸屏的指示器的位置。
接近传感器检测接近触摸和接近触摸模式(例如,接近触摸距离、接近触摸持续时间、接近触摸位置、接近触摸移位状态等)。并且,可以向触摸屏输出与所检测到的接近触摸底在和所检测到的接近触摸模式相对应的信息。
音频输出模块152可以以包括呼叫接收模式、呼叫拨打模式、记录模式、语音识别模式和广播接收模式等的各种模式来起作用,以输出从无线通信单元110接收到的或被存储在存储器160中的音频数据。在操作期间,音频输出模块152输出与特定功能(例如,接收到呼叫、接收到消息等)相关的音频。常常可以使用一个或多个扬声器、蜂鸣器、其他音频产生设备及其组合来实现音频输出模块152。
警报单元153输出用于声明与移动终端100相关联的特定事件的发生的信号。典型事件包括接收到呼叫事件、接收到消息事件和接收到触摸输入事件。警报单元153能够输出用于借助于振动以及视频信号或音频信号来声明事件发生的信号。也可以经由显示单元151或音频输出模块152来输出该视频或音频信号。因此,显示单元151或音频输出模块152可以被看作为警报单元153的一部分。
触觉模块154生成用户可以感觉到的各种触觉效果。振动是由触觉模块154生成的触觉效果的代表性触觉效果。由触觉模块154生成的振动的强度和模式是可控的。例如,可以以合成在一起的方式来输出或可以依序输出不同的振动。
触觉模块154能够生成各种触觉效果以及振动。例如,触觉模块154生成归因于触针相对于接触皮肤表面垂直地移动的布置的效果、归因于通过喷射/吸入孔的空气的喷射/吸入力的效果、归因于在皮肤表面上的掠过的效果、归因于与电极的接触的效果、归因于静电力的效果和归因于使用吸热或放热设备的热/冷感觉的表示的效果等。
触觉模块154可以被实现成使得用户能够通过手指或手臂等的肌肉感觉来感觉触觉效果,并且通过直接接触来传送触觉效果。可选地,可以根据移动终端100的相应配置类型来向移动终端100提供至少两个触觉模块154。
投影器模块155是用于使用移动终端100来执行图像投影器功能的元件。并且,投影器模块155能够根据控制器180的控制信号来在外部屏幕或壁上显示与在显示单元151上显示的图像相同或至少部分地不同的图像。
具体地说,投影器模块155可以包括:光源(图中未示出),用于生成光(例如,激光)以向外投影图像;图像产生装置(图中未示出),用于使用从光源生成的光来产生图像以向外部输出;以及透镜(图中未示出),用于以预定焦距放大以向外部输出图像。并且,投影器模块155可以进一步包括用于通过机械地移动透镜或整个模块来调整图像投影方向的设备(图中未示出)。
投影器模块155可以根据显示装置的类型被分类为CRT(阴极射线 管)模块、LCD(液晶显示)模块或DLP(数字光处理)模块等。具体地说,DLP模块由使得从光源生成的光能够在DMD(数字微反射镜设备)芯片上反射的机构来操作,并且可以有利于降低显示单元151的大小。
优选地,投影器模块155可以被设置在移动终端100的侧面的长度方向、前面和后面方向中。并且,应当明白,投影器模块155可以根据其必要性而被设置到移动终端100的任何部分。
存储器160一般用于存储用于支持移动终端100的处理、控制和存储要求的各种类型的数据。这样的数据的示例包括用于在移动终端100上操作的应用、联系人数据、电话簿数据、消息、音频、静止图片、移动图片等的程序指令。并且,可以在存储器160中存储每一个数据的近期使用历史或累积使用频率(例如,每一个电话簿、每一个消息或每一个多媒体的使用频率)。而且,可以在存储器160中存储在对于触摸屏的触摸输入的情况下输出的振动和/或声音的各种模式的数据。
可以使用适当的易失性和非易失性存储器或存储设备的任何类型或组合来实现存储器160,所述适当的易失性和非易失性存储器或存储设备包括硬盘、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、电子可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、闪速存储器、磁盘或光盘、多媒体卡微型存储器、卡型存储器(例如,SD存储器、XD存储器等)或其他类似的存储器或数据存储设备。并且,移动终端100能够与用于在因特网上执行存储器160的存储功能的网络存储器相关联地操作。
接口单元170经常被实现成将移动终端100与外部装置耦合。接口单元170从外部设备接收数据或被提供电力,并且然后将所述数据或电力传送到移动终端100的各个元件,或使得在移动终端100中的数据能 够被传送到外部设备。可以使用有线/无线头带式受话器端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于耦合到具有身份模块的装置的端口、音频输入/输出端口、视频输入/输出端口和/或耳机端口等来配置接口单元170。
所述身份模块是用于存储用于认证移动终端100的使用授权的各种各样的信息的芯片,并且可以包括用户身份模块(UIM)、订户身份模块(SIM)和/或通用订户身份模块(USIM)等。可以将具有身份模块的装置(在下文中称为“身份设备”)制造为智能卡。因此,身份设备可以经由相应的端口连接到移动终端100。
当无线通信单元110连接到外部托架时,接口单元170变为从托架向移动终端100供电的通道,或用于向移动终端100递送由用户从托架输入的各种命令信号的通道。从托架或电源输入的各种命令信号中的每一个可以操作为用于使得移动终端100能够识别其被正确地加载在托架中的信号。
控制器180通常控制移动终端100的整体操作。例如,控制器180执行与语音呼叫、数据通信、视频呼叫等相关联的控制和处理。控制器180可以包括用于提供多媒体回放的多媒体模块181。多媒体模块181可以被配置为控制器180的一部分,或被实现为独立的组件。
而且,控制器180能够执行模式识别处理,用于将在触摸屏上执行的手写输入和图片绘制输入分别识别为字符或图像。
电源单元190提供移动终端100的各个组件所需要的电力。所述电力可以是内部电力、外部电力或其组合。
可以例如使用计算机软件、硬件或其某种组合来在计算机可读介质中实现在此所述的各个实施例。对于硬件实现,可以在下述部分的 一个或多个内实现在此所述的实施例:专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计成执行在此所述的功能的其他电子单元或其选择性组合。这样的实施例也可以被控制器180实现。
对于软件实现,可以利用独立的软件模块来实现在此所述的实施例,所述独立的软件模块诸如是过程和功能,其中每一个执行在此所述的功能和操作中的一个或多个。可以利用以任何适当的编程语言编写的软件应用来实现软件代码,并且软件代码可以被存储在诸如存储器160的存储器中,并且被诸如控制器180的控制器或处理器执行。
图2A是根据一个实施例的移动终端的前透视图。
在附图中所示的移动终端100具有直板型终端主体,但是,可以以多种不同的配置来实现移动终端100。这样的配置的示例包括折叠型、滑动型、旋转型、摆动型及其组合。为了清楚,进一步的公开将主要涉及直板型移动终端100。然而,这样的教导同样地适用于其他类型的移动终端。
参见图2A,移动终端100包括配置其外型的壳体(外壳、外罩、外盖等)。在本实施例中,所述壳体可以被划分为前壳体101和后壳体102。可以在前壳体101和后壳体102之间提供的空间中加载各种电子部分。可选地,可以进一步在前壳体101和后壳体102之间进一步提供至少一个中间壳体。
可以通过合成树脂的注射模塑来形成壳体101和102,或可以由诸如不锈钢(STS)或钛(Ti)等的金属物质形成壳体101和102。
可以向终端主体、并且更具体地向前壳体101设置显示单元151、 音频输出单元152、相机121、用户输入单元130/131和132、麦克风122和接口180等。
显示单元151占用前壳体101的主面的大部分。音频输出单元152和相机121被设置到与显示单元151的两个端部之一相邻的区域,而用户输入单元131和麦克风122被设置到与显示单元151的另一端部相邻的另一个区域。用户输入单元132和接口170可以被设置到前壳体101和后壳体102的侧面。
输入单元130被操纵成接收用于控制终端100的操作的命令。并且,输入单元130能够包括多个操纵单元131和132。操纵单元131和132可以被称为操纵部分,并且可以采用触觉方式的任何机制,所述触觉方式的任何机制使得用户能够通过体验触觉感觉来执行操纵动作。
可以不同地设置由第一或第二操纵单元131或132输入的内容,例如,可以向第一操纵单元131输入诸如开始、结束和滚动等的命令。并且,可以向第二操纵单元132输入用于从音频输出模块152输出的声音的音量调整的命令或用于切换到显示单元151的触摸识别模式的命令等。
图2B是在图2A中示出的终端的背面的透视图。
参见图2B,相机121’可以另外被设置到终端主体的背面,并且更具体地被设置到后壳体102。相机121’具有与在图2A中所示的先前相机121的拍摄方向基本上相反的拍摄方向,并且可以具有与先前相机121的像素不同的像素。
优选地,例如,先前相机121具有足以捕获和发射用户的面部的图片来用于视频呼叫的较少像素,而相机121’具有用于在没有发射所捕获的对象的情况下捕获要拍摄的一般对象的较多像素。并且,相机121和 121’中的每个可以被安装在终端主体上,以旋转和/或弹出。
闪光灯123和镜子124另外被设置为与相机121’相邻。闪光灯123在使用相机121’拍摄对象的情况下向对象投射光。在用户试图使用相机121’来拍摄用户的图片(自拍)的情况下,镜子124使得用户能够观看由镜子124反射的用户的面部。
可以向终端主体的背面设置附加音频输入单元152’。附加音频输入单元152’能够与在图2A中所示的先前音频输出模块152一起实现立体声功能,并且可以用于在通过终端谈话中实现免提扬声器模式。
广播信号接收天线124可以附加地被设置到终端主体的侧面以及用于通信的天线等。构成在图1中所示的广播接收模块111的一部分的天线124可以被可伸缩地设置到终端主体。
向终端主体设置用于向终端100供电的电源单元190。并且,电源单元190可以被配置成内置在终端主体内。替代地,电源单元190可以被配置成可拆卸地连接到终端主体。
用于检测触摸的触摸板135被附加设置到后壳体102。可以以像显示单元151那样的透光型来配置触摸板135。在该情况下,如果显示单元151被配置成从其两面输出视觉信息,则也能够经由触摸板135来识别视觉信息。触摸板135可以整体控制从两面输出的信息。替代地,可以向触摸板135进一步提供显示器,使得也可以向后壳体102提供触摸屏。
通过与前壳体101的显示单元151互连来激活触摸板135。也可以在显示单元151的后部平行地设置触摸板135。触摸板135可以具有等于或小于显示单元151的大小的大小。
将参考图3来解释在显示单元151和触摸板135之间的互连操作机制如下。
图3是根据一个实施例的终端的前视图,用于图示终端的操作状态。
首先,可以在显示单元151上显示各种视觉信息。并且,可以以字符、数字、符号、图形和图标等来显示这些信息。
为了输入信息,将字符、数字、符号、图形和图标中的至少一个表示为单个预定阵列,以便以小键盘形式来实现。并且这个小键盘形式可以是所谓的“软键”。
图3示出通过终端主体的前面而输入被应用到软键的触摸。
显示单元151能够通过整个区域或通过被划分为多个区域来操作。在后一种情况下,多个区域可以被配置为能够互操作。
例如,在显示单元151上显示输出窗口151a和输入窗口151b。向输入窗口151b输出表示用于输入电话号码等的数字的软键151c’。如果触摸了软键151c’,则向输出窗口151a输出与所触摸的软键相对应的数字。如果操纵第一操纵单元131,则尝试在输出窗口151a上显示的电话号码的呼叫连接。
参考图4来详细解释参考图1描述的接近传感器141如下。
图4是用于解释接近传感器的接近深度的概念图。
参见图4,当诸如用户的手指和钢笔等的指示器靠近触摸屏时,在触摸屏之内或附近设置的接近传感器141检测指示器的靠近,并且然后 输出接近信号。
接近传感器141可以被配置成根据在指示器和接近触摸的触摸屏之间的距离(在下文中称为“接近深度”)来输出不同的接近信号。
在图4中,示例性地示出了触摸屏的截面,该触摸屏设置有能够达到例如三个接近深度的接近传感器。并且,应当明白,能够达到小于3或等于或大于4的数目的接近深度的接近传感器是可能的。
详细而言,如果指示器完全与触摸屏接触(d0),则其被识别为接触触摸。如果指示器的位置与触摸屏相隔小于d1的距离,则其被识别为第一接近深度的接近触摸。如果指示器的位置与触摸屏相隔在d1和d2之间的距离,则其被识别为第二接近深度的接近触摸。如果指示器的位置与触摸屏相距小于d3或等于或大于d2的距离,则其被识别为第三接近深度的接近触摸。如果指示器的位置与触摸屏相距等于或大于d3的距离,则其被识别为释放了接近触摸。
因此,控制器180能够根据指示器的接近深度和位置将接近触摸识别为各种输入信号之一。并且,控制器180能够根据各种输入信号来执行各种操作控制。
图5和图6是用于描述根据实施例的使用双眼视差的立体图像显示方法的图。具体地说,图5示出了使用柱状透镜阵列的方案,并且图6示出了使用视差屏障的方案。
首先,双眼视差意指在对象的右眼视觉和对象的右眼视觉之间的差。如果经由左眼观看的图像和经由右眼观看的图像被人脑合成,则所合成的图像使得人能够感觉到光谱。使得人能够根据双眼视差来感觉到立体观测的现象被称为“立体视觉”。引起立体视觉的图像被称为“立体图像”。如果在图像中包括的特定对象造成立体视觉,则相 应的对象被称为“立体对象”。
由于双眼视差引起的立体图像显示方法被分类为玻璃类型和非玻璃类型。在该情况下,玻璃类型需要一对特殊玻璃,而非玻璃类型不需要一对玻璃。玻璃类型可以进一步被分类为:使用具有波形选择性的一对有色玻璃的方案;使用由于极化差引起的遮光效果的偏振玻璃类型;以及,时分玻璃方案,用于在眼睛的余像持续时间内交错地给出左右图像;等等。此外,有一种方案,用于通过分别向左右眼提供在透射率上彼此不同的过滤器来获得由于归因于透射率差的视觉系统的时间差引起的在左/右方向上的移动的立体观测。
根据非玻璃类型,不是从观察者而是从图像显示侧生成立体观测。非玻璃类型可以被分类为视差屏障方案、柱状透镜方案和微透镜阵列方案等。
参见图5,显示单元151包括柱状透镜阵列11a,用于显示立体图像。在该情况下,柱状透镜阵列11a位于显示平面13和左/右眼12a/12b之间。具体地说,向左眼12a输入的像素L和向右眼12b输入的像素R被交错地布置在显示平面上的宽度方向上。并且,柱状透镜阵列11a提供了向左眼12a输入的像素L和向右眼12b输入的像素R的光学区别方位。因此,以分别被分离为左右眼12a和12b的方式来观察已经通过柱状透镜阵列11a的图像。随后,人脑合成通过左右眼12a和12b观看的图像,以观察立体图像。
参见图6,显示单元151包括垂直网格类型的视差屏障11b以显示立体图像。视差屏障11b位于显示平面13和左/右眼12a/12b之间。在该情况下,在显示平面13上交错地布置向左眼12a输入的像素L和向右眼12b输入的像素R。视差屏障11b使得能够以经由光圈被左眼12a和右眼12b分离的方式来观察图像。因此,人脑将经由左眼12a观看的图像和经由右眼12b观看的图像合成在一起,以观察立体图像。只有试图显示立体 图像时,这个视场屏障11b才被接通以分离入射视觉。在试图显示2D图像的情况下,视差屏障11b被断开以使得入射视觉不分离地通过。
同时,上述的立体图像显示方法被提供来解释本公开的实施例,本公开不限于这些实施例。而且,在此公开的设备能够通过各种方案以及上述方法使用双眼视差来显示立体图像。
首先,在本公开中的移动终端可以包括在图1中所示的组件的至少一个。并且,在图1中所示的显示单元151可以执行3D显示以及2D显示。而且,显示单元151可以进一步包括触摸屏。
在该情况下,根据3D显示,分别向用户的两眼(即,左眼和右眼)提供不同的图像,以使得能够例如三维地(或立体地)观看相应的图像。而且,显示单元151三维地显示当前在屏幕上显示的图像,或能够三维地显示在屏幕上显示的图像中包括的多个对象中的特定一个。
在下面的描述中,将参考附图来解释控制图像显示的方法。
首先,参考图7至15D来解释根据第一实施例的移动终端的图像显示控制方法如下。
图7是根据第一实施例的移动终端的图像显示控制方法的流程图。
参见图7,移动终端100经由显示单元151来显示包括至少一个对象的图像[S710]。
例如,对象包括用于指示菜单项目的图标图像。并且,对象可以包括被显示为缩略图的照片(或视频)。而且,对象能够包括在图像中包括的至少一个事物(例如,人、建筑物等)。
在显示步骤S710中,移动终端100能够二维或三维地显示图像。
在该情况下,2D显示意指在图像中包括的对象凸出或凹陷的程度(凸出/凹陷程度或感知的三维深度)被设置为0。换句话说,所显示的对象的感知的三维深度未被配置成相对于显示器凸出或凹陷。并且,3D显示可以意指通过凸出[在下文中称为3D凸出显示]或通过凹陷[在下文中称为3D凹陷显示]来显示在图像中包括的对象。因此,在根据3D凸出显示来显示在图像中包括的特定对象的情况下,可以以在大于其余对象的距离凸出的方式来显示特定对象。在根据3D凹陷显示来显示在图像中包括的特定对象的情况下,可以以在比其余对象低的距离凹陷的方式来显示特定对象。
在下面的描述中,将参考图8A和8B来详细解释根据左/右眼图像的位置来执行3D凸出或凹陷显示的情况。
参见图8A和8B,移动终端100设置彼此不同的左眼图像和右眼图像以执行3D显示。移动终端100然后能够经由显示单元151三维地显示通过将左右眼图像合成在一起而生成的图像。
在该情况下,合成图像的凸出或凹陷程度可以取决于在左右眼图像之间的距离和左右眼图像的位置。根据在从左眼到左眼图像的直线(在下文中称为左眼直线)和从右眼到右眼图像的直线(在下文中称为右眼直线)之间的相交点的位置,如果相交点(交叉点)位于凸出(或凹陷)程度被设置成0的点之前,则可以以凸出的方式来显示合成图像。如果相交点位于相应的点之后,则可以以凹陷的方式来显示合成图像。
图8A是合成图像的凸出显示的图。
参见图8A,在位于相同位置以使得在左眼图像和右眼图像之间的 距离被设置为0的情况下,移动终端100能够实际上以将合成图像803(0)的凸出程度设置为0的方式来给出2D显示的相同效果。
当在右眼图像801(d1)和左眼图像802(d1)之间的距离被设置为D1时,如果在右眼直线和左眼直线之间的相交点位于与具有被设置为0的凸出程度的点相距d1处,则移动终端100能够显示被凸出d1的合成图像803(d1)。
当在右眼图像801(d2)和左眼图像802(d2)之间的距离被设置为D2(>D1)时,如果在右眼直线和左眼直线之间的相交点位于与具有被设置为0的凸出程度的点相距d2(>d1)处,则移动终端100能够显示被凸出d2的合成图像803(d2)。
即,假定在右眼直线和左眼直线之间的相交点位于具有被设置为0的凸出程度的点之前,如果在右眼图像和左眼图像之间的距离增大,则可以以被进一步凸出的方式来显示合成图像。
图8B是合成图像的凹陷显示的图。
参见图8B,在位于相同位置以使得在左眼图像和右眼图像之间的距离被设置为0的情况下,移动终端100能够实际上以将合成图像803(0)的凹陷程度设置为0的方式来给出2D显示的相同效果。
当在右眼图像801(-d3)和左眼图像802(-d3)之间的距离被设置为D3时,如果在右眼直线和左眼直线之间的相交点位于与具有被设置为0的凹陷程度的点相距-d3处,则移动终端100能够显示被凹陷-d3的合成图像803(-d3)。
当在右眼图像801(-d4)和左眼图像802(-d4)之间的距离被设置为D4(>D3)时,如果在右眼直线和左眼直线之间的相交点位于与具 有被设置为0的凹陷程度的点相距-d4(<-d3)处,则移动终端100能够显示被凹陷-d4的合成图像803(-d4)。
即,假定在右眼直线和左眼直线之间的相交点位于具有被设置为0的凹陷程度的点之后,如果在右眼图像和左眼图像之间的距离增大,则可以以被进一步凹陷的方式来显示合成图像。
再一次参见图7,在执行显示步骤S710的过程中,移动终端100经由用户输入单元130来接收用于切换到2D显示或3D显示的切换命令动作的输入。换句话说,可以在2D和3D模式之间切换移动终端100的显示模式。
具体地说,在当前显示方案是2D显示的情况下,移动终端100能够接收用于将2D显示切换为3D凹陷或凸出显示的切换命令动作的输入。相反,在当前显示方案是3D显示(例如,3D凸出显示、3D凹陷显示等)的情况下,移动终端100能够接收用于将3D显示切换到2D显示的切换命令动作的输入。
而且,在当前显示方案是3D凹陷显示(或3D凸出显示)的情况下,移动终端100能够执行用于将3D凹陷显示(或3D凸出显示)切换到3D凸出显示(或3D凹陷显示)的切换命令操作。
如果用户选择与显示方案切换命令相对应的菜单项目或按键(或包括按键区触摸屏),则移动终端100能够接收切换命令动作的输入。
在显示单元151包括触摸屏的情况下,移动终端100能够接收作为切换命令动作的与切换命令相对应的触摸操作(或触摸动作)的输入。
例如,在正在执行2D显示的情况下,与用于将2D显示切换到3D凹陷或凸出显示的切换命令相对应的触摸动作可以具有不同的触摸模 式。具体地说,与用于切换到3D凹陷显示的切换命令相对应的触摸动作包括从与要三维地显示的对象相对应的一个点向右方向的触摸和拖动动作。与用于切换到3D凸出显示的切换命令相对应的触摸动作可以包括从与要三维地显示的对象相对应的一个点向左方向的触摸和拖动动作。
同时,移动终端100能够接收作为切换命令动作的、在预定方向上倾斜预定角度的倾斜动作(例如,旋转移动终端100)的输入。在该情况下,移动终端100能够使用在用户输入单元130或感测单元140中包括的移动检测传感器来检测倾斜动作的方向和角度以及有没有生成倾斜动作。
具体地说,在检测到在顺时针或逆时针方向上的预定角度上的倾斜动作的情况下,移动终端100能够接收切换命令动作的输入。
例如,在检测到在2D显示模式中在顺时针10度上的倾斜动作的情况下,移动终端100能够接收用于切换到3D显示的切换命令动作。在返回到在检测到倾斜动作之前的模式(例如,移动终端旋转回原始位置)的情况下,移动终端100能够维持由所输入的切换命令动作切换的3D显示。
在执行2D显示的过程中,在检测到在顺时针的预定角度上的倾斜动作的情况下,在移动终端100已经接收到用于切换到3D凸出显示的切换命令动作的输入后,如果移动终端100检测到在逆时针的预定角度上的倾斜动作,则移动终端100能够接收用于切换到3D凸出显示的切换命令动作的输入。而且,在返回到在检测到倾斜动作之前的模式(例如,移动终端旋转回原始位置)的情况下,移动终端100能够维持由所输入的切换命令动作切换的3D凸出或凹陷显示。
在垂直观看方向上执行2D显示(或3D显示)的过程中,如果移动 终端100检测到顺时针或逆时针的预定角度内的倾斜动作或垂直观看方向(或水平观看方向)改变为水平观看方向(或垂直观看方向),则移动终端100能够接收用于切换3D显示(或2D显示)的切换命令动作的输入。
而且,移动终端100能够接收作为切换命令动作的用于摇动移动终端100的摇动动作的输入。
例如,如果输入了预定计数的摇动动作,则移动终端100能够接收切换命令动作的输入。在执行2D显示的过程中,如果输入了单个摇动动作,则移动终端100能够接收用于切换到3D凹陷显示的切换命令动作的输入。如果输入了两个摇动动作,则移动终端100能够接收用于切换到3D凸出显示的切换命令动作的输入。
在控制器180的控制下,在输入步骤S720中接收到切换命令动作的情况下,移动终端100执行在2D显示和3D显示之间的切换操作[S730]。
例如,如果当前正在执行2D显示,则移动终端100执行从2D显示到3D显示的切换操作。又例如,如果当前正在执行3D显示,则移动终端100执行从3D显示到2D显示的切换操作。
而且,如果当前正在执行2D显示,则移动终端100能够根据由所输入的切换命令动作指示的3D显示方案是凹陷显示还是凸出显示来执行从2D显示到3D凹陷或凸出显示的切换操作。
在控制器180的控制下,为了在以指定对象逐渐地变为凸出或凹陷的方式来执行切换操作的过程中显示在所显示图像中包括的至少一个或多个对象中的指定的一个,移动终端100顺序显示至少一个中间图像[S740]。在该情况下,可以经由显示单元151来执行显示步骤S740。
至少一个中间图像包括在显示步骤S710中显示的图像中包括的至少一个对象,并且可以具有切换操作的目标对象的顺序凸出或凹陷的程度。
移动终端100对于由用户从所显示的至少一个或多个对象选择的特定对象执行切换操作,或能够对于所显示的至少一个或多个对象的全部执行切换操作。具体地,在前一种情况下,用户输入单元130能够在执行切换操作之前从用户接收特定对象的选择动作的输入。而且,移动终端100能够对于所显示的图像本身而不是选择的对象执行切换操作。
根据第一情况,在控制器180的控制下,在执行从2D显示到3D显示的切换操作的情况下,移动终端100能够以增加切换目标对象的凸出程度的顺序来顺序显示至少一个或多个中间图像。
根据第二情况,在控制器180的控制下,在执行从2D显示到3D凹陷显示的切换操作的情况下,移动终端100能够以增加切换目标对象的凹陷程度的顺序来顺序显示至少一个或多个中间图像。
而且,根据第一或第二情况,在完成切换操作后,控制器180可以将在中间图像中的切换目标对象的凸出/凹陷程度设置为小于切换目标对象的凸出/凹陷程度。
而且,可以提供图形效果,使得从2D向3D的在显示图像中的改变可以看起来弹性或柔性地改变。例如,切换目标对象看起来凸出或凹陷的程度可以在每一个中间图像中逐渐地增大,使得在返回到对于最后的3D图像设置的量之前,切换目标对象看起来凸出或凹陷大于在最后的3D图像中的量。具有大于最后的3D图像的凸出或凹陷量的中间图像可以是在显示最后的3D图像紧前的中间图像。因此,在切换目标对象图像的显示中的改变可能看起来弹性或柔性地改变。
根据第三情况,在控制器180的控制下,在执行从3D凸出显示到2D显示的切换操作的情况下,移动终端100能够以减少切换目标对象的凸出程度的顺序来顺序显示至少一个或多个中间图像。
根据第四情况,在控制器180的控制下,在执行从3D凹陷显示到2D显示的切换操作的情况下,移动终端100能够以减少切换目标对象的凹陷程度的顺序来顺序显示至少一个或多个中间图像。
此外,根据第三或第四情况,在完成切换操作后,控制器180可以将在中间图像中的切换目标对象的凸出/凹陷程度设置为大于在最后的2D图像中的切换目标对象的凸出/凹陷程度。
而且,可以提供图形效果,使得从3D到2D的在显示图像中的改变可以看起来弹性或柔性地改变。例如,在凸出的3D图像的情况下,可以逐渐地减小在每一个中间图像中的切换目标对象看起来凸出的程度。而且,在显示最后的2D图像之前,在最后的2D图像紧前显示的中间图像可以将切换目标对象显示得看起来凹陷入显示器内,使得切换目标对象看起来从3D图像到2D图像弹性或柔性地改变。类似的处理可以用于将凹陷的3D图像改变为2D图像。
如在上面的描述中所述,移动终端使用以显示在切换目标对象的凸出/凹陷程度上彼此不同的至少一个或多个中间图像的方式逐渐地凸出/凹陷切换目标对象的处理来显示图像,并且在完成切换操作的情况下显示具有特定凸出/凹陷程度的切换目标对象。
参考附图来详细地解释这个显示步骤S740如下。
图9A至11C是根据切换命令动作的输入的中间图像显示的图。为了清楚和方便,假定在图9A至9D或图10A至10C中所示的垂直视图具有 范围从0至10度的倾斜角,同时假定水平视图具有范围从80至90度的倾斜角(参考垂直于视图)。
图9A至9D图示了根据一个实施例的将3D垂直视图改变为3D水平视图。在垂直视图中执行3D显示的同时,如图9A中所示,如果移动终端100顺时针倾斜(或旋转),则它能够在10和30度之间的倾斜角范围内顺序地显示至少一个或多个中间图像,如图9B中所示。
例如,可以根据倾斜角来确定中间图像的显示定时点。具体地说,可以在15度处显示第一中间图像。可以在20度处显示第二中间图像。并且,可以在25度处显示第三中间图像。换句话说,可以以与移动终端100的位置相对应的指定间隔来改变所感知的图像的三维深度。
在移动终端100进一步倾斜以具有在30和60度之间的倾斜角的情况下,它能够完成从3D显示到2D显示的切换操作,如图9C中所示。
在移动终端100进一步倾斜以具有在60和80度之间的倾斜角的情况下,它能够顺序地显示至少一个或多个中间图像,如图9B中所示。
在水平视图被设置为具有在80度上的倾斜角的情况下,移动终端100完成从2D显示到3D显示的切换操作,并且然后能够在水平视图中执行3D显示,如图9D中所示。
而且,当移动终端100已经完成了向2D显示的切换(例如,在30至60度之间的倾斜角,如图9C中所示)时,如果移动终端100旋转回其原始位置(例如,到在0至10度之间的角度,如图9A中所示),则可以在移动终端100上维持2D显示。应当理解,图9A的初始显示模式可以是2D显示模式,并且图9C的显示模式可以是3D显示模式。在此,图9B的中间图像可以是具有对象相对于显示器逐渐增加的凸出或凹陷程度的3D图像。
图10A至10C图示了根据一个实施例的将3D垂直视图改变为2D水平视图。虽然如图10A中所示正在垂直视图中执行3D显示,但是如果移动终端100顺时针倾斜(在切换到水平视图之前),则其能够顺序地显示至少一个或多个中间图像,如图10B中所示。
例如,可以根据倾斜角来确定中间图像的显示定时点。具体地说,可以在15度处显示第一中间图像。可以在30度处显示第二中间图像。可以在45度处显示第三中间图像。可以在60度处显示第四中间图像。并且,可以在75度处显示第五中间图像。
而且,在水平视图被设置为具有在80度上的倾斜角的情况下,移动终端100完成从3D显示到2D显示的切换操作,并且然后能够在水平视图中执行2D显示,如图10C中所示。
如果移动终端100在达到水平视图(例如,80至90度)之前旋转回垂直视图,则在显示上的改变可以反转,并且可以在移动终端100上显示原始3D图像,如图10A中所示。例如,可以根据显示定时点以逆序显示中间图像,以将显示返回到其原始状态。应当理解,图10A的初始显示模式可以是2D显示,并且图10C的最后显示模式可以是3D显示模式。
同时,在图9A至9D或图10A至10C中,移动终端100可以逆时针倾斜。如果移动终端100逆时针倾斜,则垂直视图的角度的范围可以在0和10度之间,并且水平视图的角度的范围可以在-80和-90度之间。
图11A至11E示出了根据倾斜方向来执行3D凸出/凹陷显示的处理。为了在参考图11A至11E的描述中清楚和方便,假定水平视图具有在-10和10度之间的倾斜角,并且假定垂直视图具有在80和90度之间或在-80和-90度之间的倾斜角(参考水平视图)。
参见图11A,移动终端100能够在水平视图中执行2D显示。
参见图11B和11C,如果移动终端100在图11A中逆时针倾斜1101,则移动终端100在切换到垂直视图之前(例如,在-10和-80度之间的倾斜角)顺序地显示至少一个或多个中间图像[图11B]。如果完成了到垂直视图的切换(例如,在-80和-90度之间的倾斜角),则移动终端100完成从2D显示向3D凹陷显示的切换操作,并且然后能够执行3D凹陷显示[图11C]。
这么做,能够显示用于使用至少一个中间图像来逐渐地凹陷特定对象或图像本身的处理。
参见图11D至11E,如果移动终端100如图11A中所示顺时针倾斜1102,则移动终端100在切换到水平视图之前(例如,在10和80度之间的倾斜角)顺序地显示至少一个或多个中间图像[图11D]。如果完成了到垂直视图的切换(例如,在80和90度之间的倾斜角),则移动终端100完成从2D显示到3D凸出显示的切换操作,并且然后能够执行3D凸出显示[图11E]。
这么做,移动终端100能够基于用于使用至少一个中间图像逐渐地凸出特定对象或图像本身的处理来显示图像。
同时,根据参考图9A至11E所述的实施例,能够以向彼此切换的方式来应用3D显示和2D显示。例如,虽然如图11A中所示的初始显示模式在此被描述为是2D图像,但是本公开不限于此,并且初始显示图像可以是可以被切换到2D图像的3D图像。由于在图9至11的描述中提及的特定角度仅是示例性的,所以其他数值适用于此。当选择了向在图9至11之一中所示的终端设置的特定按键或按钮时,如果输入了倾斜动作,则可以执行切换操作。而且,在已经选择了特定按键后,如果输入了倾斜动作,则可以执行切换操作。
在下面的描述中,解释一种处理,该处理用于在以逐渐凸出或凹陷切换目标对象的方式执行在3D显示和2D显示之间的切换操作的过程中显示在多个对象(在下文中称为对象图标1至4)当中的切换目标对象。
为了下面的描述清楚和方便,切换目标对象限于对象图标1。当然,切换目标对象可以包括显示图像本身或在图像中包括的每一个对象。
图12A至12F是根据一个实施例的用于顺序凸出或显示对象图标的处理的图。具体地说,图12A至12F示出了凸出程度的增大速率是恒定的(例如,改变的斜率/速率或凸出速度恒定)的情况。
为了下面的描述的清楚和方便,假定能够显示总共两个中间图像。并且,假定能够分别在切换操作的执行时间段t的点t/3和2t/3处显示第一中间图像和第二中间图像。当然,能够以各种方式来设置中间图像的数目和显示点。
参见图12A至12D,移动终端100二维地显示包括对象图标1至41201至1204的图像并且然后能够对于对象图标1 1201执行向3D凸出显示的切换操作[图12A]。
在该情况下,如果用户选择与切换操作执行相对应的按键、按键区或菜单项目,则可以执行切换操作。
移动终端100能够三维地显示第一中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点t/3处凸出a1[图12B]。并且,移动终端100也能够三维地显示第二中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点2t/3处凸出2a1[图12C]。
而且,移动终端100能够三维地显示图像,其中,对象图标1 1201在切换操作的完成点凸出3a1[图12D]。
参考图12E至12F来检查用于执行在图12A至12D中所示的切换操作的处理。
参见图12E,当在执行2D显示的过程中执行向3D凸出显示的切换操作时,对象图标1 1201在点t/3(=t1)处凸出和显示a1,对象图标1 1201在2t/3(=t2)处凸出和显示2a1,并且,对象图标1 1201在切换操作的完成点t(=t_completed)处凸出和显示3a1。具体地说,可以观察到,作为切换操作的进行时间的切换目标对象的对象图标1 1201的凸出程度具有恒定的斜率(在凸出程度上的改变的恒定速率)。
参考图12A至12D和图12E至12F来解释用于从3D凸出显示切换到2D显示的处理如下。为了下面的描述的清楚和方便,假定以凸出3a1的方式来显示在3D凸出显示中的对象图标1。
首先,移动终端100能够三维地显示第一中间图像,其中,在切换操作的执行开始后,在点t/3处将对象图标1 1201凸出2a1(比3D凸出显示缩小a1)[参见图12C]。并且,移动终端100能够三维地显示第二中间图像,其中,在切换操作的执行开始后,在点2t/3处将对象图标1 1201凸出a1(即,比3D凸出显示缩小2a1)[参见图12B]。
而且,移动终端100能够在切换操作的完成点处二维地显示包括对象图标1 1201的图像(凸出程度=0)[参见图12A]。
参见图12E,当在执行3D凸出显示的过程中执行向2D显示的切换操作时,对象图标1 1201在点t/3(=t1)处凸出和显示2a1,对象图标11201在2t/3(=t2)处凸出和显示a1,并且,对象图标1 1201以不凸出的方式在切换操作的完成点t(=t_completed)处二维地显示。
图13A至13D和图13E至13F是根据一个实施例的以顺序凹陷对象图标的方式来显示对象图标的处理的图。具体地说,图13A至13F示出了根据时间的凹陷程度的增加速率是恒定(即,改变的斜率/速率或凹陷速度恒定)的情况。
为了下面的描述的清楚和方便,假定总共能够显示两个中间图像。并且,假定分别在切换操作的执行时间t的点t/3和2t/3处能够显示第一中间图像和第二中间图像。当然,能够以各种方式来设置中间图像的数目和显示点。
参见图13A至13D,移动终端100二维地显示包括对象图标1至41201至1204的图像,并且然后能够对于对象图标1 1201执行向3D凹陷显示的切换操作[图13A]。
在该情况下,如果用户选择与切换操作执行相对应的按键、按键区或菜单项目,则可以执行切换操作。
移动终端100能够三维地显示第一中间图像,其中,对象图标11201在切换操作的执行开始后在点t/3处凹陷-a1[图13B]。并且,移动终端100也能够三维地显示第二中间图像,其中,对象图标1 1201在切换操作的执行开始后在点2t/3处凹陷-2a1[图13C]。
而且,移动终端100能够三维地显示图像,其中,对象图标1 1201在切换操作的完成点处凹陷-3a1[图13D]。
参考图13E至13F来更详细地描述在图13A至13D中所示的用于执行切换操作的处理如下。
参见图13E,当在执行2D显示的过程中执行向3D凹陷显示的切换 操作时,对象图标1 1201在点t/3(=t1)处凹陷和显示-a1,对象图标11201在点2t/3(=t2)处凹陷和显示-2a1,并且对象图标1 1201在切换操作的完成点t(=t_completed)处凹陷和显示-3a1。具体地说,可以观察到作为切换操作的进行时间的切换目标对象的对象图标1 1201的凹陷程度具有恒定的速率(例如,改变速率)。
参考图13A至13D和图13E至13F来解释从3D凹陷显示切换到2D显示的处理如下。为了下面的描述的清楚和方便,假定初始以凹陷-3a1的方式来显示在3D凹陷显示中的对象图标1,如图13D中所示。
首先,移动终端100能够三维地显示第一中间图像,其中,对象图标1 1201在切换操作的执行开始后在点t/3处凹陷-2a1(比3D凹陷显示缩小-a1)[参见图13C]。并且,移动终端100能够三维地显示第二中间图像,其中,对象图标1 1201在切换操作的执行开始后的点2t/3处凹陷-a1(即,比3D凹陷显示缩小-2a1)[参见图13B]。
而且,移动终端100能够在切换操作的完成点处二维地显示包括对象图标1 1201的图像(凹陷程度=0)[参见图13A]。
参见图13F,当在执行3D凹陷显示的过程中执行向2D显示的切换操作时,对象图标1 1201在点t/3(=t1)处凹陷和显示-2a1,对象图标11201在点2t/3(=t2)处凹陷和显示-a1,并且以不凹陷的方式在切换操作的完成点t(=t_completed)处二维地显示对象图标1 1201。
图14A至14H是根据一个实施例的用于凸出和显示对象图标的处理的图。具体地说,图14A至14H示出了凸出对象的增加速率逐渐地增加(例如,改变的斜率/速率变得陡峭或凸出速度增加)的情况。
为了下面的描述的清楚和方便,假定能够显示总共四个中间图像。并且,假定分别在切换操作的执行时间t的点t/5、2t/5、3t/5和4t/5处能 够显示第一中间图像、第二中间图像、第三中间图像和第四中间图像。当然,能够以各种方式来设置中间图像的数目和显示点。
参见图14A至14F,移动终端100二维地显示包括对象图标1至41201至1204的图像,并且然后能够对于对象图标1 1201执行向3D凸出显示的切换操作。
在该情况下,如果用户选择与切换操作执行相对应的按键、按键区或菜单项目,则可以执行切换操作。
移动终端100能够三维地显示第一中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点t/5处凸出b1[图14B]。并且,移动终端100也能够三维地显示第二中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点2t/5处凸出b2[图14C]。移动终端100能够三维地显示第三中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点3t/5处凸出b3[图14D]。并且,移动终端100也能够三维地显示第四中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点4t/5处凸出b4[图14E]。
在该情况下,(b2-b1)(即,在t/5~2t/5中的凸出程度的增加速率)大于b1(即,在0~t/5中的凸出程度的增加速率),这意味着在2t/5处的斜率比在t/5处更陡。并且,(b3-b2)(即,从t=2t/5至t=3t/5的在凸出程度上的改变)大于(b2-b1),这意味着在3t/5处的斜率比在2t/5处的斜率更陡。而且,(b4-b3)(即,从t=3t/5至t=4t/5的在凸出程度上的改变)大于(b3-b2)。
而且,移动终端100能够三维地显示图像,其中,对象图标1 1201在完成切换操作的点t处凸出b5[图14F]。
在该情况下,b5可以是可以小于b4的凸出程度。可以说,可以以 下述方式来完成切换操作:对象图标1 1201在切换操作的完成点之前达到最大凸出程度,并且然后其凸出程度缩小到指定程度。因此,能够根据完成点来弹性或柔性地显示对象图标1 1201的凸出显示操作。当然,可以选择性地执行用于提供弹性地凸出显示对象的图形效果的操作。
参考图14G至14H的图形来更详细地描述在图14A至14C中所示的用于执行切换操作的处理如下。
参见图14G,当在执行2D显示的过程中执行向3D凸出显示的切换操作时,对象图标1 1201在点t/5(=t1)处凸出和显示b1,对象图标1 1201在点2t/5(=t2)处凸出和显示b2[(b2-b1)>b1],对象图标1 1201在点3t/5(=t3)处凸出和显示b3[(b3-b2)>(b2-b1)],对象图标1 1201在点4t/5(=t4)处凸出和显示b4[(b4-b3)>(b3-b2)],并且,对象图标1 1201在切换操作的完成点t(=t_completed)处凸出和显示b5[b5<b4]。
具体地说,可以观察到,作为切换操作的进行时间的切换目标对象的对象图标1 1201的凸出程度根据时间的过去而逐渐变得更陡峭。而且,由于最后显示的对象图标1 1201的凸出程度b4大于在切换操作的完成时显示的对象图标1 1201的凸出程度b5,所以用户可以观看对象图标1,就像对象图标1被弹性地凸出和显示那样。
参考图14A至14G来解释从3D凸出显示切换到2D显示的处理如下。为了下面的描述的清楚和方便,假定初始以凸出b5的方式来显示在3D凸出显示中的对象图标1,如图14F中所示。
首先,移动终端100能够三维地显示第一中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点t/5(=t1)处凸出b4[参见图14E],移动终端100能够三维地显示第二中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点2t/5(=t2)凸出b3[参见图14D], 移动终端100能够三维地显示第三中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点3t/5(=t3)处凸出b2[参见图14C],并且,移动终端100能够三维地显示第四中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点4t/5(=t4)处凸出b1[参见图14B]。
而且,移动终端100能够在切换操作的完成点t(=t_completed)处二维地显示包括对象图标1 1201的图像(凸出程度=0)[参见图14A]。
在图14H中示出了用于指示与从3D凸出显示切换到2D显示的处理相对应的切换操作的进行时间的凸出程度的图形。
图15A至15H是根据一个实施例的用于顺序凹陷和显示对象图标的处理的图。具体地说,图15A至15F示出了凹陷程度的增加速率逐渐增加(例如,改变的斜率/速率变得陡峭或凹陷速度增加)的情况。
为了下面的描述的清楚和方便,假定能够显示总共四个中间图像。并且,假定分别能够在切换操作的执行时间t的点t/5、2t/5、3t/5和4t/5处显示第一中间图像、第二中间图像、第三中间图像和第四中间图像。当然,能够以各种方式来设置中间图像的数目和显示点。
参见图15A至15F,移动终端100二维地显示包括对象图标1至41201至1204的图像,并且然后能够对于对象图标1 1201执行向3D凹陷显示的切换操作。
在该情况下,如果用户选择与切换操作执行相对应的按键、按键区或菜单项目,则可以执行切换操作。
移动终端100能够三维地显示第一中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点t/5处凹陷-b1[图15B]。并且,移动终端100也能够三维地显示第二中间图像,其中,在切换操作的执行开始 后,对象图标1 1201在点2t/5处凹陷-b2[图15C]。移动终端100能够三维地显示第三中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点3t/5处凹陷-b3[图15D]。并且,移动终端100也能够三维地显示第四中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点4t/5处凹陷-b4[图15E]。
在该情况下,|-b2-(-b1)|(即,在t/5~2t/5中的凹陷程度的增加速率)大于|-b1|(即,在从t=0至t=t/5的在凹陷程度上的改变),这意味着在2t/5处的斜率比在t/5处的斜率更陡。并且,|-b3-(-b2)|(即,从t=2t/5至t=3t/5的在凹陷程度上的改变)大于|-b2-(-b1)|,这意味着在3t/5处的斜率比在2t/5处的斜率更陡。而且,|-b4-(-b3)|(即,从t=3t/5至t=4t/5的在凹陷程度上的改变)大于|-b3-(-b2)|。
而且,移动终端100能够三维地显示图像,其中,对象图标1 1201在完成切换操作的时间t处凹陷-b5[图15F]。
在该情况下,|-b5|可以是可以小于|-b4|的凹陷程度。可以说,可以以下述方式来完成切换操作:对象图标1 1201在切换操作的完成点之前达到最大凹陷程度,并且其凸出程度然后缩小到指定程度。因此,能够根据完成点来弹性或柔性地显示对象图标1201的凹陷显示操作。当然,可以选择性地执行用于创建弹性地凹陷显示对象的图形效果的显示操作。
参考图15D的图形来更详细地描述在图15A至15F中所示的用于执行切换操作的处理如下。
参见图15G,当在执行2D显示的过程中执行向3D凹陷显示的切换操作时,对象图标1 1201在点t/5(=t1)处凹陷和显示-b1,对象图标11201在点2t/5(=t2)处凹陷和显示-b2[|-b2-(b1)|>|-b1|],对象图标1 1201在点3t/5(=t3)处凹陷和显示-b3[|-b3-(b2)|>|-b2-(b1)|],对象图标1 1201 在点4t/5(=t4)处凹陷和显示-b4[|-b4-(b3)|>|-b3-(b2)|],并且,对象图标1 1201在切换操作的完成点t(=t_completed)处凹陷和显示-b5[|-b5|<|-b4|]。
具体地说,可以观察到,作为切换操作的进行时间的切换目标对象的对象图标1 1201的凹陷程度根据时间的过去而逐渐变得更陡峭。而且,由于最后显示的对象图标1 1201的凹陷程度|-b4|大于在切换操作的完成处显示的对象图标1 1201的凹陷程度|-b5|,所以用户可以观看对象图标1,就像对象图标1被弹性地凹陷和显示那样。
参考图15A至15G来描述从3D凹陷显示切换到2D显示的处理如下。为了下面的描述的清楚和方便,假定初始以凹陷-b5的方式来显示在3D凹陷显示中的对象图标1,如图15F中所示。
首先,移动终端100能够三维地显示第一中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点t/5(=t1)处凹陷-b4[参见图15E],移动终端100能够三维地显示第二中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点2t/5(=t2)处凹陷-b3[参见图15D],移动终端100能够三维地显示第三中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点3t/5(=t3)处凹陷-b2[参见图15C],并且,移动终端100能够三维地显示第四中间图像,其中,在切换操作的执行开始后,对象图标1 1201在点4t/5(=t4)处凹陷-b1[参见图15B]。
而且,移动终端100能够在切换操作的完成点t(=t_completed)处二维地显示包括对象图标1 1201的图像(凹陷程度=0)[参见图15A]。
在图15H中示出用于指示与从3D凹陷显示切换到2D显示的处理相对应的切换操作的进行时间的凹陷程度的图形。
虽然在本说明书中公开了用于在2D显示和3D显示之间的切换操 作的中间图像显示处理,但是上述的中间图像显示处理适用于在1D/3D显示和2D/3D显示之间的切换操作。在该情况下,在1D至3D显示的每一个中的图像凸出/凹陷程度可以不同。
在本说明书中提及的2D显示包括以在同一点彼此重叠的方式来在3D显示中显示左右眼图像的状态(即,激活3D显示功能的状态)或不激活3D显示功能的状态。具体地说,2D显示主要聚焦在以二维来外部显示图像的情况。
根据本公开,移动终端100能够经由用户输入单元130从用户接收用于选择在切换操作的过程中显示的中间图像的数目的选择动作的输入、每一个中间图像的凸出或凹陷程度的选择动作的输入。因此,控制器180能够设置中间图像数目和凸出或凹陷程度以对应于所输入的选择动作。
在下面的描述中,参考图16至31来解释根据第二实施例的用于控制在移动终端中的图像显示的方法。
图16是根据第二实施例的移动终端的图像显示控制方法的流程图。
在下面的描述中,显示单元151可以包括触摸屏。
参见图16,移动终端100在控制器180的控制下在触摸屏上显示图像[S1610]。在该情况下,控制器180能够使用上述的立体图像显示方法之一来三维地显示图像(参见图5和图6)。当显示这个图像时,用户能够通过归因于双眼视差的立体效果来观察立体图像。
其后,在接收对于显示图像中的第一点执行的触摸动作的输入的情况下[S1620],移动终端获得包括具有向其输入的触摸动作的第一点 的第一区域,并且然后能够控制触摸屏以便以逐渐地凹陷相应的区域的方式来显示所获得的第一区域[S1630]。
在下面的描述中,其整个或局部部分被三维地显示的图像将被称为立体图像。而且,被用户识别对于其执行3D显示的图像显示平面将被称为虚拟显示平面。在该情况下,虚拟显示平面与显示真实图像的显示平面不同。
图17是根据本公开的第二实施例的在移动终端中的修改立体图像的一个示例的图。并且,图18至21是用于描述图17的图。
参见图17,在触摸屏上正在显示立体图像的同时,移动终端100接收通过接近或接触触摸对于第一点执行的触摸动作的输入[S201]。
因此,控制器180获得在虚拟显示平面中的包括由用户触摸的第一点的第一区域21,并且然后能够控制触摸屏在所有的所获得区域21上执行凹陷显示[S202]。具体地说,控制器180能够控制在局部显示平面中包括的多个像素,以向用户提供立体效果,该立体效果使得用户能够感测立体图像的局部显示平面(即,这个平面对应于第一区域21)正在降低(或凹陷)。
同时,控制器180能够以各种方式来实现用于降低或凹陷虚拟显示平面的第一区域21的立体视图。
例如,控制器180能够以下述方式来实现用于降低第一区域21的立体视图:通过移位与第一区域21相对应的多个像素中的至少一个来调整双眼视差值。在该情况下,当改变双眼视差值时,用户感到第一区域21的不同的高度感觉。
又例如,控制器180能够通过控制与第一区域21相对应的多个像素 的深度值来实现用于降低第一区域21的立体视图。在该情况下,控制器180通过调整每一个像素的亮度或色度等来控制深度值。当像素深度值改变时,用户能够在心理上感测改变了立体效果。
同时,在上述步骤S202中,控制器180能够控制第一区域21的降低高度根据接近触摸的深度(即,接近深度)来变化。参见图18,控制器180能够以下面的方式来控制触摸屏。首先,当接近触摸点变得更接近第一点(即,接近接触距离减小)时,第一区域21的降低程度逐渐增大[S301,S302]。因此,用户能够通过手指按下动作来感测逐渐降低的立体效果。图18示例性地示出了降低程度根据接近深度而变化的情况以解释相应的实施例,本公开不限于此。替代地,本公开的控制器180能够根据诸如触摸压力和触摸持续时间等以及接近触摸的条件来不同地改变降低高度。具体地说,当触摸压力增加得越高或触摸持续时间变得越长时,降低程度会被提高得越高。
图17和图18示出了第一区域21的大小恒定而与降低程度无关的情况,以解释相应的实施例,本公开不限于此。替代地,本公开可以包括第一区域21的大小根据降低程度而变得增大或减小的情况。
现在参见图17,在通过在第一点上执行的触摸动作的输入而降低虚拟显示平面的第一区域21后,如果去除了触摸动作,则控制器180能够将立体图像重建为在第一点上输入触摸动作之前的状态[S203]。具体地说,控制器180能够将与降低的第一区域21相对应的多个像素的深度值或位置重建为在接收触摸输入之前的状态。因此,由于从由触摸动作降低的局部虚拟显示平面去除了触摸动作,所以用户能够观察到重建为在降低之前的状态。
在该情况下,控制器180能够实现立体视图,该立体视图示出了由于降低的第一区域21的逐渐上升而引起逐渐地重建虚拟显示平面。参见图19,控制器180以下面的方式来实现立体视图。首先,当接近触摸 点变得与第一点更远(即,接近触摸距离增大)时,下降的第一区域21逐渐地上升[S401,S402]。因此,当从已经通过触摸动作而降低的第一区域21去除了触摸动作时,用户能够观察到第一区域21逐渐地上升,并且然后被重建为在相应的降低之前的状态。
同时,在上述步骤S202中,在接收到在第一点上的触摸动作的情况下,控制器180能够以各种方式来获得包括第一点的第一区域21。
例如,参见图20,控制器180获得包括位于在相对于用户触摸的第一点21a的预定距离内的多个像素的区域作为第一区域21。在该情况下,控制器180能够获得具有各种形状之一的第一区域21,各种形状包括圆型、矩形、菱形、三角形和心形等。
又例如,参见图21,在特定对象中包括第一点21a的情况下,控制器180获得其中包括第一对象的区域作为第一区域21。在该情况下,对象可以指的是具有在立体图像中显示的各种形状之一的对象,并且图像可以包括人、东西、按钮、图标、缩略图和文本等之一。
图22是根据第二实施例的在移动终端中修改立体图像的另一个示例的图,并且图23和图24是用于描述图22的图。
参见图22,在触摸屏上正在显示立体图像的同时,移动终端100通过接近或接触触摸来接收在第一点上执行的触摸动作的输入[S501]。
因此,控制器180获得在虚拟显示平面中包括输入了触摸动作的第一点的第一区域21,并且然后能够控制所获得的第一区域21以凹陷或降低的方式显示[S502]。具体地说,控制器180能够控制在第一区域21中包括的多个像素,以实现立体视图,该立体视图用于根据在所触摸的第一点和在所获得的第一区域21中包括的每一个像素之间的距离来改变凹陷程度。
例如,参见图22,控制器180能够以下面的方式来实现立体视图。首先,当所获得的第一区域21的虚拟显示平面变得相距触摸点更远时,它具有逐渐升高的曲面。又例如,控制器180能够以下面的方式来实现立体视图。首先,当所获得的第一区域21的虚拟显示平面根据与触摸点的距离而升高多个阶梯时。在该情况下,控制器180将降低程度划分为多个级别,并且然后能够根据在触摸点和虚拟显示平面之间的距离来选择相应的降低程度级别。
同时,在上述步骤S502中,控制器180能够控制第一区域21的降低程度根据接近触摸的深度(即,接近深度)而变化。参见图23,控制器180能够设置降低程度在接近触摸的点变得更接近第一点的情况下逐渐地增大[S601,S602]。而且,参见图23,控制器180能够以下面的方式来实现立体视图。首先,当接近触摸点变得更接近第一点时,下降的第一区域21的大小逐渐地变得更大。
现在参见图23,在已经通过在第一点上执行的触摸动作的输入降低了虚拟显示平面的第一区域21后,如果去除了触摸动作,则控制器180能够将立体图像重建为在第一点上输入触摸动作之前的状态[S503]。具体地说,控制器180能够将与降低的第一区域21相对应的多个像素的深度值或位置重建为在接收到触摸动作的输入之前的状态。因此,由于从由触摸动作降低的局部虚拟显示平面去除了触摸动作,所以用户能够观察到向在降低之前的状态的重建。
在该情况下,控制器180能够实现立体视图,该立体视图示出了由于降低的第一区域21的逐渐升高而引起逐渐地重建虚拟显示平面。参见图24,控制器180能够以下面的方式来实现立体视图。首先,当接近触摸点变得与第一点更远时,降低的第一区域21逐渐升高[S701,S702]。而且,参见图24,控制器180能够以下面的方式来实现立体视图。首先,当接近触摸的点变得相距第一点更远时,下降的第一区域21逐渐变窄。
图25是根据第二实施例的在移动终端中修改立体图像的进一步示例的图,并且图26和27是用于描述图25的图。
参见图25,当在触摸屏上正在显示立体图像时[S801],移动终端100接收在第一点上的触摸动作的输入。
因此,控制器180在立体图像的虚拟显示平面中的包括第一点的第一区域21上执行凹陷显示,并且能够在除了与第一区域21的凹陷显示相对应的降低的第一区域21之外的其余区域22a和22b上执行凸出显示[S802]。
在该情况下,控制器180能够以下述方式根据在第一点和相应的像素之间的距离来实现立体视图:第一区域变得逐渐凹陷或其余区域22a和22b变得逐渐凸出。参见图26,当接近触摸点变得更接近第一点时,控制器180以下述方式来实现立体视图:逐渐地凹陷包括第一点的第一区域21,并且使得除了第一区域21之外的其余区域22a和22b逐渐地升高[S901,S902]。同时,图26示例性地示出了除了降低的第一区域21之外的全部其余区域逐渐地升高的情况,本公开不限于此。替代地,本发明也能够以使得围绕第一区域21的局部区域逐渐地升高的方式来控制立体视图。在该情况下,升高区域的升高高度可以与位置无关地恒定,或可以根据与第一区域21的距离而变化。
再一次参见图25,当由接近触摸选择的第一区域21升高时,在围绕第一区域21的区域22a和22b降低或升高的同时,如果去除了触摸动作,则控制器180将立体图像重建为在触摸动作输入之前的状态[S803]。具体地说,控制器180能够以升高降低的第一区域21并且降低升高的其余区域22a和22b的方式将立体图像重建为在触摸动作输入之前的状态。
在该情况下,控制器180能够以下述方式来实现重建为先前状态的 立体视图:区域21、22a和22b中的每一个根据接近触摸的深度,即接近深度来逐渐地升高或降低。参见图27,控制器180能够以下述方式来实现立体视图:当接近触摸点变得与第一点更远时,逐渐地凸出降低的第一区域21,并且逐渐地凹陷升高的其余区域22a和22b[S1001,S1002]。
图28是根据第二实施例的在移动终端中修改立体图像的又一个示例的图。
参见图28,在正在显示包括三维凸出和显示的立体对象的图像的同时[S1101],移动终端100接收与显示立体对象的虚拟显示平面相对应的触摸动作的输入。
因此,直到显示相应的立体对象的区域21的3D显示程度变得等于围绕立体对象的其他区域22a和22b的3D显示程度,控制器180才能够以相应的区域21变得逐渐凹陷的方式来显示相应的区域21。
在已经以立体对象显示区域21的3D显示程度变得等于其余区域22a和22b的3D显示程度的方式来将立体对象显示区域21凹陷后[S1102],立体对象显示区域21进一步变得逐渐凹陷,并且围绕相应的区域21的区域22a和22b可以进一步逐渐升高[S1103]。
其后,如果从立体对象去除了触摸动作,则控制器180将立体图像重建为在输入触摸动作之前的状态[S1104,S1105]。具体地说,立体对象显示区域21被凸出到在输入触摸动作之前的状态,并且围绕相应的区域21的区域22a和22b可以被凹陷为在输入触摸动作之前的状态。
图29是根据第二实施例的在移动终端中修改立体对象的又一个示例的图。
参见图29,在触摸屏上正在显示立体图像的同时,如果触摸了指 定点,则移动终端100能够控制触摸屏以凹陷包括触摸点的局部区域21的方式来显示该局部区域21[S1201,S1202]。具体地说,以降低在虚拟显示平面中的包括当前输入触摸和拖动动作的点的区域21并且逐渐地升高包括先前输入触摸和拖动动作的点的区域23的方式,最后重建在触摸和拖动动作的输入之前的状态。而且,控制器180能够凸出和显示包括估计点的区域24,对于该估计点,将输入触摸和拖动动作。
例如,如果在指定点的触摸输入是在第一方向上移动的触摸和拖动输入,则局部区域21可以被移动以对应于触摸和拖动输入的移动。在触摸输入的移动期间,可以基于该移动来改变图像的凹陷部分的形状。例如,在移动输入的位置和图像的凹陷部分(在触摸和拖动输入的移动的方向上与区域24相邻的区域)的前缘之间的第一距离可以小于在移动输入的位置和在区域23处的图像的凹陷部分的后缘之间的距离。因此,图像的凹陷部分可以看起来相对应于触摸和拖动输入的移动而拉伸。凹陷部分的形状可以改变的量可以基于例如移动的速度。如图29中所示,在位于输入之前的触摸和拖动输入的路径中的凹陷图像的斜率(角度)可能大于在输入后的该输入的路径中的凹陷图像的斜率。在图像的凹陷部分的各个位置处的相对倾斜角可以对应于输入的移动和在输入指示器的位置和凹陷图像(例如,区域23、24)的外边缘之间的相关联的距离。
因此,在使用手指等来输入触摸和拖动动作的情况下,用户能够观察到立体效果。在该情况下,立体图像看起来就像相对于由触摸和拖动动作触摸的点进行推动。
图30是根据第二实施例的在移动终端中修改立体图像的又一个示例的图。
参见图30,在正在在触摸屏上显示立体图像的同时,移动终端100通过多触摸来接收触摸动作的输入[S1301]。
其后,如果在用于使得两个多触摸点彼此更接近的方向上执行拖动动作,则控制器180能够实现立体视图,该立体视图使得立体视图图像能够看起来好像在拖动方向上被折叠[S1302]。在该情况下,控制器180以下面的方式来实现立体视图:如果两个多触摸点变得彼此更接近,则立体图像的虚拟显示平面形成逐渐升高的曲面,由此提供使得立体图像看起来好象折叠的立体效果。
而且,在已经实现了使得立体视图图像看起来好象在拖动方向上折叠的立体视图后,如果执行使得两个多触摸点变得彼此更远的拖动动作,则控制器180能够实现使得立体图像不折叠的立体视图。具体地说,控制器180能够实现立体视图,其中,逐渐地重建在折叠立体图像之前的状态[S1303]。
图31是根据第二实施例的在移动终端中修改立体图像的又一个示例的图。
参见图31,在触摸屏上正在显示立体图像的同时,移动终端100通过多触摸来接收触摸动作的输入[S1401]。
其后,如果在用于使得两个多触摸点彼此更接近的方向上执行拖动动作,则控制器180能够实现立体视图,该立体视图使得立体视图图像看起来好像在拖动方向上折叠了立体视图图像[S1402]。在该情况下,控制器180以在两个多触摸点之间显示的立体图像起皱的方式来实现立体视图。
而且,在已经实现了使得立体视图图像看起来好像在拖动方向上起皱的的立体视图后,如果执行了使得两个多触摸点彼此更远的拖动动作,则控制器180能够实现使得立体图像再一次去皱的立体视图。具体地说,控制器180能够实现立体视图,其中逐渐地重建在折叠立体图 像之前的状态[S1403]。
在下面的描述中,将参考图32-34来详细解释根据第三实施例的移动终端的图像显示控制方法。
图32是根据本公开的第三实施例的移动终端的图像显示控制方法的流程图。
参见图32,移动终端100在控制器180的控制下显示包括至少一个或多个立体对象的图像[S3210]。
例如,参见图33A和33B,可以以凸出的方式来在图像中显示立体对象31a、31b和31c。
在接收到对于至少一个或多个立体对象的特定的一个执行的触摸动作的输入的情况下[S3220],移动终端100移位和显示与触摸动作相对应的特定立体对象[S3230]。
图34是根据第三实施例的移位要显示的立体对象的一个示例的图。
参见图34,在凸出和显示立体对象的同时[S1601],控制器180接收显示立体对象的区域31中进行的触摸和拖动动作的输入。
因此,控制器180能够以在拖动方向上移位立体对象的方式来显示立体对象[S1602]。在该情况下,控制器180能够基于拖动速度来不同地控制移位距离或立体对象的速度。例如,如果拖动速度变大,则控制器180能够将立体对象移位更大的距离。而且,如果拖动速度变大,则控制器180能够控制立体对象的移位速度变得更快。
根据本公开的一个实施例,上述的图像显示控制方法可以在程序记录介质中被实现为计算机可读代码。计算机可读介质包括其中存储能够由计算机系统读取的数据的所有种类的记录设备。计算机可读介质包括例如ROM、RAM、CD-ROM、磁带、软盘和光学数据存储设备等,并且也包括载波类型的实现(例如,经由因特网的传输)。
本申请或专利针对移动终端及其图像显示控制方法,它们基本上消除了由于相关技术的限制和缺点而引起的一个或多个问题。
本公开的目的是提供一种移动终端及其图像显示控制方法。具体地说,当执行在2D显示和3D显示之间的切换操作时,可以提供在切换操作的过程中的图像的凸出或凹陷程度的逐渐改变。
本公开的附加优点、目的和特征在说明书中部分地进行了阐述,并且部分地对于查看了本公开的本领域内的普通技术人员将变得显而易见,或可以从本公开的实施来获悉本公开的附加优点、目的和特征。可以通过在书面描述及其权利要求以及附图中具体指出的结构来实现和获得本公开的目的和其他优点。
为了实现这些目的和其他优点,并且根据本公开的目的,如在此体现和广义地描述的,根据本公开的移动终端可以包括:显示单元,其显示包括至少一个或多个对象的图像;用户输入单元,其接收用于将2D显示和3D显示彼此切换的切换命令动作;以及,控制器,其被配置成执行在所述2D显示和所述3D显示之间的切换操作以对应于所输入的切换命令动作,所述控制器控制所述显示单元在执行所述切换操作的过程中顺序地显示至少一个中间图像以逐渐地凸出/凹陷并且显示所述至少一个或多个对象中的指定的一个。
在这个实施例中,所述至少一个中间图像可以包括所述至少一个或多个对象,并且可以具有所指定对象的顺序凸出或凹陷的程度。所 述切换命令动作可以包括在预定方向上将所述移动终端倾斜指定角度的动作,并且所述3D显示可以包括3D凸出显示或3D凹陷显示中的至少一个。
在执行从所述2D显示到所述3D凸出显示的切换操作的情况下,所述显示单元可以在所述控制器的控制下以增加所指定对象的凸出程度的顺序来顺序显示所述至少一个中间图像。在执行从所述2D显示到所述3D凹陷显示的切换操作的情况下,所述显示单元可以在所述控制器的控制下以增加所指定对象的凹陷程度的顺序来顺序显示所述至少一个中间图像。在执行从所述3D凸出显示到所述2D显示的切换操作的情况下,所述显示单元可以在所述控制器的控制下以减小所指定对象的凸出程度的顺序来顺序显示所述至少一个中间图像。而且,在执行从所述3D凹陷显示到所述2D显示的切换操作的情况下,所述显示单元可以在所述控制器的控制下以减小所指定对象的凹陷程度的顺序来顺序显示所述至少一个中间图像。
此外,在执行从所述2D显示到所述3D显示的切换操作的情况下,所述控制器可以将在执行所述切换操作的过程中显示的所指定的对象的凸出或凹陷程度设置为小于在完成所述切换操作处显示的所指定对象的所述凸出或凹陷程度。在所述至少一个中间图像的特定一个中包括的所指定的对象的凸出或凹陷程度可以被设置为大于在完成所述切换操作处显示的所指定对象的所述凸出或凹陷程度。在执行从所述3D显示向所述2D显示的切换操作的情况下,所述控制器可以将在执行所述切换操作的过程中显示的所述指定对象的凸出或凹陷程度设置为大于在完成所述切换操作处显示的所指定的对象的所述凸出或凹陷程度。
而且,所述控制器可以将用于所述切换操作的进行时间的所述至少一个图像的每一个中包括的所指定的对象的所述凸出或凹陷程度的斜率设置为恒定或逐渐变得更陡峭。所述用户输入单元接收所述至少 一个中间图像的数目的选择动作的输入和所述至少一个中间图像的每一个的凸出或凹陷程度的选择动作的输入,并且其中,所述控制器将所述至少一个中间图像的所述数目和所述凸出或凹陷程度设置成对应于所输入的选择动作。
所述显示单元可以包括触摸屏,其中,所述触摸屏接收在所述显示图像的第一点上的触摸动作,其中,所述控制器获得包括所述第一点的第一区域,并且控制所述触摸屏以所获得的第一区域逐渐凹陷的方式来显示所获得的第一区域,其中,所述第一区域可以包括所述至少一个或多个对象的所指定的一个,所指定的一个包括所述第一点。所述控制器可以根据与所述第一点的距离来将在所述第一区域中包括的多个像素的凹陷程度设置为不同。
而且,所述控制器可以获得位于所述第一区域外围的第二区域,并且其中,所述控制器控制所述触摸屏以所述第二区域逐渐凸出的方式来显示所述第二区域,以对应于所述第一区域的逐渐地凹陷的显示。所述控制器可以根据与所述第一区域的距离来将在所述第二区域中包括的多个像素的凸出的程度设置为不同。如果从所述第一点去除了所述触摸动作,则所述控制器可以将所述第一区域的所述凹陷的显示重建为在输入所述触摸动作之前的状态。如果在所述第一点上的所述触摸动作是触摸和拖动动作,则所述控制器可以控制所述触摸屏逐渐地凹陷显示所述第一区域以对应于拖动路径。
在这个实施例中,如果所述第一点是所述触摸和拖动动作的当前触摸点,则所述第一区域可以包括包含所述当前触摸点的第二区域,并且其中,如果所述当前触摸点更接近所述第一点,则所述控制器可以将所述第二区域的凹陷程度设置得逐渐地变大。所述第一区域可以是所述第二区域的邻居,其中,所述第一区域可以包括第三区域,所述第三区域包括由所述触摸和拖动动作的至少一个先前的触摸点,并且其中,如果当前触摸点更接近所述第一点,则所述控制器可以将所 述第三区域的凹陷程度设置成逐渐地重建为在输入所述触摸和拖动动作之前的状态。
所述控制器可以获得第四区域,所述第四区域包括被估计由所述触摸和拖动动作触摸的至少一个点,其中,所述第四区域可以是所述第二区域的邻居,并且其中,如果触摸了所述第一区域,则所述控制器可以将所述第四区域的凸出程度设置成大于对于所述第一点的触摸的凸出程度。
在本申请或专利的另一个方面,根据本公开的用于控制在移动终端中的图像显示的方法可以包括步骤:显示包括至少一个或多个对象的图像;接收用于将2D显示和3D显示彼此切换的切换命令动作;执行在所述2D显示和所述3D显示之间的切换操作,以对应于所输入的切换命令动作;以及,在执行所述切换操作的过程中顺序地显示至少一个中间图像,以逐渐地凸出/凹陷和显示所述一个或多个对象的指定的一个。
所述3D显示可以包括3D凸出显示和3D凹陷显示中的至少一个。所述中间图像显示步骤可以包括:如果执行从所述2D显示到所述3D凸出显示的切换操作,则以增加所指定的对象的凸出程度的顺序来顺序显示所述至少一个中间图像;以及,如果执行从所述2D显示到所述3D凹陷显示的切换操作,则以增加所指定的对象的凹陷程度的顺序来顺序显示所述至少一个中间图像。
所述中间图像显示步骤可以包括:如果执行从所述3D凸出显示到所述2D显示的切换操作,则以减小所指定的对象的凸出程度的顺序来顺序显示所述至少一个中间图像;并且,如果执行从所述3D凹陷显示到所述2D显示的切换操作,则以减小所指定的对象的凹陷程度的顺序来顺序显示所述至少一个中间图像。
所述方法可以进一步包括:如果执行从所述2D显示到所述3D显示的切换操作,则将在执行所述切换操作的过程中显示的所指定的对象的凸出或凹陷程度设置成小于在所述切换操作的完成处显示的所指定的对象的所述凸出或凹陷程度。而且,如果执行从所述3D显示到所述2D显示的切换操作,则所述方法可以包括:将在执行所述切换操作的过程中显示的所指定的对象的凸出或凹陷程度设置成大于在所述切换操作的完成处显示的所指定的对象的所述凸出或凹陷程度。此外,所述方法可以进一步包括:接收在所述显示图像的第一点上的触摸动作;获得包括所述第一点的第一区域;以及,以所获得的第一区域逐渐凹陷的方式来显示所获得的第一区域。
在一个实施例中,在此广义体现和描述的一种用于移动终端的显示模块可以包括:显示器,用于显示包括一个或多个对象的图像;用户输入接口,用于接收输入以在2D显示和3D显示之间改变图像;以及,控制器,其被配置成基于所接收到的输入来在所述2D显示和所述3D显示之间改变所显示的图像,所述控制器控制所述显示器顺序地显示一个或多个中间图像,以在所显示的图像中的所述改变期间逐渐地改变所述一个或多个对象的至少一个被感知相对于所述显示器凸出或凹陷的程度。
所述一个或多个中间图像可以包括所述对象中的所述至少一个,其中,在所述一个或多个中间图像中显示的所述对象中的所述至少一个可以被配置成被感知为凸出或凹陷中间量。所述输入可以是所述移动终端在预定方向上旋转指定角度。所述3D显示可以包括3D凸出显示或3D凹陷显示中的至少一个。
在这个实施例中,当从所述2D显示向所述3D凸出显示改变所显示的图像时,可以根据所述至少一个对象被感知凸出的增加的程度来顺序显示所述一个或多个中间图像。当将所显示的图像从所述2D显示改变到所述3D凹陷显示时,可以根据所述至少一个对象被感知凹陷的增 加的程度来顺序显示所述一个或多个中间图像。当将所显示的图像从所述3D凸出显示改变到所述2D显示时,可以根据所述至少一个对象被感知凸出的减少的程度来顺序显示所述一个或多个中间图像。当将所显示的图像从所述3D凹陷图像改变到所述2D图像时,可以根据所述至少一个对象被感知凹陷到显示器中的减少的程度来顺序显示所述一个或多个中间图像。
而且,当将所显示的图像从所述2D显示改变到所述3D显示时,所述控制器可以控制在第一中间图像中的所述至少一个对象的显示比在所述3D显示中凸出或凹陷较小的量。所述控制器也可以控制在第二中间图像中的所述至少一个对象的显示比在所述3D显示中凸出或凹陷较大的量。当将所显示的图像从所述3D显示改变到第二3D显示时,在所述中间图像中显示的所述指定对象可以被配置成比在所述第二3D显示中显示的所述至少一个对象较多地凸出或凹陷。
所述控制器可以被配置成在改变所显示的图像的指定时间段期间控制所述对象的所述至少一个被感知相对于所述显示器凸出或凹陷的程度上的改变的速率,所述改变的速率被控制成在所述指定时间段期间是恒定的或逐渐地增加。所述控制器也可以控制在所显示的图像中的改变期间显示的所述中间图像的数目和在所述中间图像的每一个中的所述至少一个对象凸出或凹陷的程度。
在这个实施例中,所述显示器可以包括触摸屏,所述触摸屏被配置成在所显示的图像的第一点接收触摸输入。所述控制器可以被配置成定义包括所述第一点的所述显示图像的第一区域,并且将在所述第一区域的所述图像的所述显示改变成逐渐地凹陷。所述触摸输入可以是所述一个或多个对象中的所述至少一个的选择,并且所述第一区域可以包括所述对象中的所述至少一个。在所述第一区域中的图像可以包括多个像素,其中,所述控制器可以控制所述多个像素凹陷的程度,使得每一个像素的所述凹陷程度随着与所述第一点的距离增大而减 小。
而且,所述控制器可以定义围绕所述第一区域的第二区域,在所述第二区域中的图像被显示成与在所述第一区域中的所述图像凹陷的程度相对应地逐渐凸出。在所述第二区域中的所述图像可以包括多个像素。所述控制器可以控制在所述第二区域中的所述多个像素凸出的程度,使得每一个像素的所述凸出程度随着与所述第一区域的距离的增加而减小。如果从所述第一点去除了所述触摸输入,则在所述第一区域中显示的所述图像可以被恢复到在所述触摸输入之前的状态。
在这个实施例中,如果在所述第一点处的所述触摸输入是在第一方向上的触摸和拖动输入,则所述第一区域可以相对应于所述触摸和拖动输入的移动而在所述第一方向上移动。在所述触摸输入的所述移动期间,在所述触摸输入的位置和所述第一区域的前缘之间的第一距离可以被配置成小于在所述触摸输入的所述位置和所述第一区域的后缘之间的第二距离,所述前缘位于所述移动的方向上,并且所述后缘位于与所述移动的方向相反。而且,在所述第一区域中与所述前缘图像相邻的所述图像可以以第一角度凹陷,并且,在所述第一区域中与所述后缘图像相邻的所述图像以第二角度凹陷,所述第一和第二角度对应于所述第一和第二距离。
当所述第一区域从所述第一点移开时,在所述第一点处显示的所述图像可以逐渐地恢复为先前状态。第二区域可以被定位在所述第一区域的所述前沿处与所述第一区域相邻,其中,在所述第二区域中显示的图像被配置成感知为相对于所述触摸输入的所述移动而凸出。
在一个实施例中,一种用于控制在移动终端中的显示的方法可以包括:显示包括一个或多个对象的图像;接收输入以在2D显示和3D显示之间改变所显示的图像;以及,在所述2D显示和所述3D显示之间改变所显示的图像,其中,所述改变所显示的图像包括顺序地显示一个 或多个中间图像,以在所显示的图像中的所述改变期间逐渐地改变所述一个或多个对象中的至少一个被感知为相对于所述显示器凸出或凹陷的程度。
所述3D显示可以包括3D凸出显示和3D凹陷显示中的至少一个。所述顺序地显示所述一个或多个中间图像可以包括:当将所显示的图像从所述2D显示改变到所述3D凸出显示时,根据所述至少一个对象被感知为凸出的增加的程度来顺序显示所述一个或多个中间图像。而且,这种方法可以包括:当将所显示的图像从所述2D显示改变到所述3D凹陷显示时,根据所述至少一个对象被感知向所述显示器内凹陷的增加的程度来顺序显示所述一个或多个中间图像。
所述顺序地显示所述一个或多个中间图像可以包括:当将所显示的图像从所述3D凸出显示改变到所述2D显示时,根据所述至少一个对象被感知为凸出的降低的程度来顺序显示所述一个或多个中间图像;并且,当将所显示的图像从所述3D凹陷显示改变到所述2D显示时,根据所述至少一个对象被感知向所述显示器内凹陷的降低的程度来顺序显示所述一个或多个中间图像。
所述方法可以进一步包括:当将所显示的图像从所述2D显示改变到所述3D显示时,将在所述一个或多个中间图像中的所述至少一个对象被显示为凸出或凹陷的程度设置成比在所述3D显示中少。而且,所述方法可以包括:当将所显示的图像从所述3D显示改变到所述2D显示时,将在所述一个或多个中间图像中的所述至少一个对象被显示为凸出或凹陷的程度设置成比在所述2D显示中大。另外,所述方法可以进一步包括:在所显示的图像的第一点处接收触摸输入;定义包括所述第一点的所显示的图像的第一区域;以及,在所述第一区域中将所述图像显示成逐渐地凹陷。
在一个实施例中,一种用于移动终端的显示模块可以包括:显示 器,用于显示3D图像;输入接口;以及,控制器,其被配置成逐渐地在3D图像和2D图像之间改变显示图像的一部分,其中,可以基于在所述输入接口处的输入来定义所述图像的区域,并且,在所述第一区域中显示的所述图像的感知的三维深度可以在指定的时间段期间逐渐地改变,其中,当将所显示的图像的所述部分从所述2D图像改变到所述3D图像时,可以逐渐地增加所感知的三维深度,并且,当将所显示图像的所述部分从所述3D图像改变到所述2D图像时,可以逐渐地减小在所述第一区域中的所述图像的所感知的三维深度。
在一个实施例中,一种在移动终端上显示3D图像的方法可以包括:在触摸屏显示器上显示图像;接收所述图像的选择以改变所述图像的一部分的3D显示特性;基于所接收到的选择来定义所述图像的区域;以及,逐渐地改变在所定义的区域中显示的所述图像的感知的三维深度,其中,所述图像的所感知的三维深度在指定时间段内被改变指定次数。
在本说明书中对于“一个实施例”、“实施例”、“示例实施例”等的任何引用意指与该实施例相关地描述的特定特征、结构或特性被包括在本公开的至少一个实施例中。这样的短语在说明书中的各个位置的出现不一定都指的是同一实施例。而且,当与任何实施例相关地描述特定特征、结构或特性时,与其他实施例相关地实现这样的特征、结构或特征在本领域内的技术人员的视界之内。
虽然已经参考其多个说明性实施例描述了实施例,但是应当明白,本领域内的技术人员可以设计落在本公开的原理的精神和范围内的多个其他修改和实施例。更具体地,在本公开、附图和所附的权利要求的范围内的主题组合布置的组件部分和/或布置上,各种改变和修改是可能的。除了在组件部分和/或布置上的改变和修改之外,替代使用对于本领域内的技术人员也将是显而易见的。
Claims (30)
1.一种用于移动终端的显示模块,所述显示模块包括:
显示器,用于显示包括一个或多个对象的图像;
用户输入接口,用于接收输入以在二维显示和三维显示之间改变图像;以及
控制器,所述控制器被配置成基于所接收到的输入来在所述二维显示和所述三维显示之间改变所显示的图像,所述控制器控制所述显示器在所述改变所显示的图像期间顺序显示一个或多个中间图像,以逐渐地改变所述一个或多个对象中的至少一个被感知相对于所述显示器凸出或凹陷的程度;
其中,所述控制器配置为通过改变包括所述一个或多个对象的至少一个的左眼和右眼图像之间的距离、或者通过改变包括一个或多个对象的至少一个的左眼和右眼图像的位置来同步所述一个或多个中间图像。
2.根据权利要求1所述的显示模块,其中,所述一个或多个中间图像包括所述对象中的所述至少一个,在所述一个或多个中间图像中显示的所述对象中的所述至少一个被配置成被感知为凸出或凹陷了中间量。
3.根据权利要求1所述的显示模块,其中,所述输入是所述移动终端在预定方向上旋转指定角度。
4.根据权利要求1-3中的任何一项所述的显示模块,其中,所述三维显示包括三维凸出显示或三维凹陷显示中的至少一个。
5.根据权利要求4所述的显示模块,其中,当将所显示的图像从所述二维显示改变到所述三维凸出显示时,根据所述至少一个对象被感知凸出的增加的程度来顺序显示所述一个或多个中间图像。
6.根据权利要求4所述的显示模块,其中,当将所显示的图像从所述二维显示改变到所述三维凹陷显示时,根据所述至少一个对象被感知向所述显示器内凹陷的增加的程度来顺序显示所述一个或多个中间图像。
7.根据权利要求4所述的显示模块,其中,当将所显示的图像从所述三维凸出显示改变到所述二维显示时,根据所述至少一个对象被感知凸出的减少的程度来顺序显示所述一个或多个中间图像。
8.根据权利要求4所述的显示模块,其中,当将所显示的图像从所述三维凹陷图像改变到所述二维图像时,根据所述至少一个对象被感知向所述显示器内凹陷的减少的程度来顺序显示所述一个或多个中间图像。
9.根据权利要求1-3中的任何一项所述的显示模块,其中,当将所显示的图像从所述二维显示改变到所述三维显示时,所述控制器控制在第一中间图像中的所述至少一个对象的显示比在所述三维显示中凸出或凹陷了较小的量。
10.根据权利要求9所述的显示模块,其中,所述控制器控制在第二中间图像中的所述至少一个对象的显示比在所述三维图像中凸出或凹陷了较大的量。
11.根据权利要求1-3中的任何一项所述的显示模块,其中,当将所显示的图像从所述三维显示改变到第二三维显示时,在所述一个或多个中间图像的至少一个中显示的所指定的对象被配置成比在所述第二三维显示中显示的所述至少一个对象较多地凸出或凹陷。
12.根据权利要求1-3中的任何一项所述的显示模块,其中,所述控制器被配置成:在改变所显示的图像的指定时间段期间,控制所述对象中的所述至少一个被感知相对于所述显示器凸出或凹陷的程度上的改变的速率,所述改变的速率被控制成在所指定的时间段期间是恒定的或逐渐地增加。
13.根据权利要求1-3中的任何一项所述的显示模块,其中,所述控制器控制在所述改变所显示的图像期间要显示的所述中间图像的数目和在所述中间图像的每一个中的所述至少一个对象凸出或凹陷的程度。
14.根据权利要求1-3中的任何一项所述的显示模块,其中,所述显示器包括触摸屏,所述触摸屏被配置成在所显示的图像的第一点处接收触摸输入,并且其中,所述控制器被配置成定义包括所述第一点的所显示的图像的第一区域,并且将在所述第一区域中的所述图像的所述显示改变成逐渐地凹陷。
15.根据权利要求14所述的显示模块,其中,所述触摸输入是所述一个或多个对象中的所述至少一个的选择,并且所述第一区域包括所述对象中的所述至少一个。
16.根据权利要求14所述的显示模块,其中,在所述第一区域中的所述图像包括多个像素,并且其中,所述控制器控制所述多个像素凹陷的程度,使得每一个像素的所述凹陷程度随着与所述第一点的距离增大而减小。
17.根据权利要求14所述的显示模块,其中,所述控制器定义围绕所述第一区域的第二区域,在所述第二区域中的图像被显示成与在所述第一区域中的所述图像凹陷的程度相对应地逐渐凸出。
18.根据权利要求17所述的显示模块,其中,在所述第二区域中的所述图像包括多个像素,并且其中,所述控制器控制在所述第二区域中的所述多个像素凸出的程度,使得每一个像素的所述凸出程度随着与所述第一区域的距离的增加而减小。
19.根据权利要求14所述的显示模块,其中,如果从所述第一点去除了所述触摸输入,则在所述第一区域中显示的所述图像被恢复到在所述触摸输入之前的状态。
20.根据权利要求14所述的显示模块,其中,如果在所述第一点处的所述触摸输入是在第一方向上的触摸和拖动输入,则所述第一区域相对应于所述触摸和拖动输入的移动而在所述第一方向上移动。
21.根据权利要求20所述的显示模块,其中,在所述触摸输入的所述移动期间,在所述触摸输入的位置和所述第一区域的前缘之间的第一距离小于在所述触摸输入的所述位置和所述第一区域的后缘之间的第二距离,所述前缘位于所述移动的方向上,并且所述后缘位于与所述移动的方向相反,并且其中
在所述第一区域中与所述前缘相邻的所述图像以第一角度凹陷,并且,在所述第一区域中与所述后缘相邻的所述图像以第二角度凹陷,所述第一角度和第二角度对应于所述第一距离和第二距离。
22.根据权利要求21所述的显示模块,其中,当所述第一区域从所述第一点移开时,在所述第一点处显示的所述图像逐渐地恢复为先前的状态。
23.根据权利要求21所述的显示模块,其中,第二区域被定位在所述第一区域的所述前缘与所述第一区域相邻,其中,在所述第二区域中显示的图像被配置成感知为相对于所述触摸输入的所述移动而凸出。
24.一种控制在移动终端中的显示的方法,所述方法包括:
显示包括一个或多个对象的图像;
接收输入以在二维显示和三维显示之间改变所显示的图像;以及
在所述二维显示和所述三维显示之间改变所显示的图像,其中,所述改变所显示的图像包括在所述改变所显示的图像期间顺序地显示一个或多个中间图像,以逐渐地改变所述一个或多个对象中的至少一个被感知相对于显示器凸出或凹陷的程度,以及
其中,改变所显示的图像进一步包括:通过改变包括所述一个或多个对象的至少一个的左眼和右眼图像之间的距离、或者通过改变包括一个或多个对象的至少一个的左眼和右眼图像的位置来同步所述一个或多个中间图像。
25.根据权利要求24所述的方法,其中,所述三维显示包括三维凸出显示和三维凹陷显示中的至少一个。
26.根据权利要求25所述的方法,其中,所述顺序地显示所述一个或多个中间图像包括:
当将所显示的图像从所述二维显示改变到所述三维凸出显示时,根据所述至少一个对象被感知凸出的增加的程度来顺序显示所述一个或多个中间图像;以及
当将所显示的图像从所述二维显示改变到所述三维凹陷显示时,根据所述至少一个对象被感知向所述显示器内凹陷的增加的程度来顺序显示所述一个或多个中间图像。
27.根据权利要求25所述的方法,其中,所述顺序地显示所述一个或多个中间图像包括:
当将所显示的图像从所述三维凸出显示改变到所述二维显示时,根据所述至少一个对象被感知凸出的减少的程度来顺序显示所述一个或多个中间图像;以及
当将所显示的图像从所述三维凹陷显示改变到所述二维显示时,根据所述至少一个对象被感知向所述显示器内凹陷的减少的程度来顺序显示所述一个或多个中间图像。
28.根据权利要求24-27中的任何一项所述的方法,进一步包括:
当将所显示的图像从所述二维显示改变到所述三维显示时,将在所述一个或多个中间图像中的所述至少一个对象被显示为凸出或凹陷的程度设置成比在所述三维显示中小。
29.根据权利要求24-27中的任何一项所述的方法,进一步包括:
当将所显示的图像从所述三维显示改变到所述二维显示时,将在所述一个或多个中间图像中的所述至少一个对象被显示为凸出或凹陷的程度设置成比在所述二维显示中大。
30.根据权利要求24-27中的任何一项所述的方法,进一步包括:
在所显示的图像的第一点处接收触摸输入;
定义包括所述第一点的所显示的图像的第一区域;以及
将所述第一区域中的所述图像显示为逐渐地凹陷。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2010-0030759 | 2010-04-05 | ||
KR1020100030759A KR101739043B1 (ko) | 2010-04-05 | 2010-04-05 | 이동 단말기 및 이동 단말기의 입체 영상 표시 방법 |
KR10-2010-0046789 | 2010-05-19 | ||
KR1020100046789A KR101781846B1 (ko) | 2010-05-19 | 2010-05-19 | 이동 단말기 및 이것의 이미지 디스플레이 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102214065A CN102214065A (zh) | 2011-10-12 |
CN102214065B true CN102214065B (zh) | 2013-10-30 |
Family
ID=44201078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110087532XA Expired - Fee Related CN102214065B (zh) | 2010-04-05 | 2011-04-06 | 移动终端及其图像显示控制方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8826184B2 (zh) |
EP (1) | EP2372515A3 (zh) |
CN (1) | CN102214065B (zh) |
Families Citing this family (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10146426B2 (en) | 2010-11-09 | 2018-12-04 | Nokia Technologies Oy | Apparatus and method for user input for controlling displayed information |
JP5684621B2 (ja) * | 2011-03-28 | 2015-03-18 | 京セラ株式会社 | 電子機器、表示制御方法及び表示制御プログラム |
GB2490108B (en) * | 2011-04-13 | 2018-01-17 | Nokia Technologies Oy | A method, apparatus and computer program for user control of a state of an apparatus |
JP5161999B2 (ja) * | 2011-04-19 | 2013-03-13 | 株式会社東芝 | 電子機器、表示制御方法及び表示制御プログラム |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
DE102011110974A1 (de) | 2011-08-18 | 2013-02-21 | Volkswagen Aktiengesellschaft | Verfahren und Einrichtung zum Bedienen einer elektronischen Einrichtung und/ oder Applikationen |
DE102011112448A1 (de) * | 2011-09-03 | 2013-03-07 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug |
KR20130030406A (ko) * | 2011-09-19 | 2013-03-27 | 엘지전자 주식회사 | 이동 단말기 |
JP2013097593A (ja) * | 2011-11-01 | 2013-05-20 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
US20130117717A1 (en) * | 2011-11-03 | 2013-05-09 | Shenzhen Super Perfect Optics Limited | 3d user interaction system and method |
US9367146B2 (en) * | 2011-11-14 | 2016-06-14 | Logiteh Europe S.A. | Input device with multiple touch-sensitive zones |
CN104012073B (zh) * | 2011-12-16 | 2017-06-09 | 奥林巴斯株式会社 | 拍摄装置及其拍摄方法、存储能够由计算机来处理的追踪程序的存储介质 |
EP2608000A1 (en) * | 2011-12-22 | 2013-06-26 | Research In Motion Limited | Method and apparatus pertaining to modification of a three-dimensional presentation of a user-interaction opportunity |
US20130162624A1 (en) * | 2011-12-22 | 2013-06-27 | Research In Motion Limited | Method and apparatus pertaining to modification of a three-dimensional presentation of a user-interaction opportunity |
EP2641126B1 (en) * | 2012-01-30 | 2017-03-22 | Sony Mobile Communications, Inc | Electronic display projection assembly having substantially white off state |
CN108595009B (zh) * | 2012-02-29 | 2020-12-18 | 联想(北京)有限公司 | 一种人机交互控制方法及电子终端 |
US9093012B2 (en) | 2012-02-29 | 2015-07-28 | Lenovo (Beijing) Co., Ltd. | Operation mode switching method and electronic device |
KR101872865B1 (ko) * | 2012-03-05 | 2018-08-02 | 엘지전자 주식회사 | 전자 기기 및 전자 기기의 제어 방법 |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
JP6002836B2 (ja) | 2012-05-09 | 2016-10-05 | アップル インコーポレイテッド | ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース |
EP2847661A2 (en) | 2012-05-09 | 2015-03-18 | Apple Inc. | Device, method, and graphical user interface for moving and dropping a user interface object |
KR101956082B1 (ko) | 2012-05-09 | 2019-03-11 | 애플 인크. | 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
DE112013002387T5 (de) | 2012-05-09 | 2015-02-12 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
WO2013169846A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying additional information in response to a user contact |
WO2013169854A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
WO2013169875A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
US8732620B2 (en) * | 2012-05-23 | 2014-05-20 | Cyberlink Corp. | Method and system for a more realistic interaction experience using a stereoscopic cursor |
US8947385B2 (en) | 2012-07-06 | 2015-02-03 | Google Technology Holdings LLC | Method and device for interactive stereoscopic display |
US20140009461A1 (en) * | 2012-07-06 | 2014-01-09 | Motorola Mobility Llc | Method and Device for Movement of Objects in a Stereoscopic Display |
DE102012217148A1 (de) * | 2012-09-24 | 2014-03-27 | Robert Bosch Gmbh | Clienteinrichtung zur Darstellung von Kamerabildern einer steuerbaren Kamera, Verfahren, Computerprogramm sowie Überwachungssystem mit der Clienteinrichtung |
CN102982233B (zh) * | 2012-11-01 | 2016-02-03 | 华中科技大学 | 具有立体视觉显示的医学影像工作站 |
DE102012022312A1 (de) | 2012-11-14 | 2014-05-15 | Volkswagen Aktiengesellschaft | Informationswiedergabesystem und Verfahren zur Informationswiedergabe |
TWI524736B (zh) * | 2012-11-20 | 2016-03-01 | 群康科技(深圳)有限公司 | 三維影像顯示系統及其校正方法 |
EP2939096B1 (en) | 2012-12-29 | 2019-08-28 | Apple Inc. | Device, method, and graphical user interface for determining whether to scroll or select contents |
WO2014105276A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for transitioning between touch input to display output relationships |
KR101755029B1 (ko) | 2012-12-29 | 2017-07-06 | 애플 인크. | 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
KR102000253B1 (ko) | 2012-12-29 | 2019-07-16 | 애플 인크. | 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
EP2939095B1 (en) | 2012-12-29 | 2018-10-03 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
JP6167529B2 (ja) * | 2013-01-16 | 2017-07-26 | 株式会社リコー | 画像投影装置、画像投影システム、制御方法およびプログラム |
US9417697B2 (en) | 2013-03-08 | 2016-08-16 | Qualcomm Incorporated | 3D translator device |
US9798461B2 (en) * | 2013-03-15 | 2017-10-24 | Samsung Electronics Co., Ltd. | Electronic system with three dimensional user interface and method of operation thereof |
US10592064B2 (en) | 2013-09-17 | 2020-03-17 | Amazon Technologies, Inc. | Approaches for three-dimensional object display used in content navigation |
US10067634B2 (en) * | 2013-09-17 | 2018-09-04 | Amazon Technologies, Inc. | Approaches for three-dimensional object display |
US9967546B2 (en) | 2013-10-29 | 2018-05-08 | Vefxi Corporation | Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications |
US20150116458A1 (en) | 2013-10-30 | 2015-04-30 | Barkatech Consulting, LLC | Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications |
US20150177947A1 (en) * | 2013-12-20 | 2015-06-25 | Motorola Mobility Llc | Enhanced User Interface Systems and Methods for Electronic Devices |
US10158847B2 (en) | 2014-06-19 | 2018-12-18 | Vefxi Corporation | Real—time stereo 3D and autostereoscopic 3D video and image editing |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US9785305B2 (en) | 2015-03-19 | 2017-10-10 | Apple Inc. | Touch input cursor manipulation |
US10152208B2 (en) | 2015-04-01 | 2018-12-11 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9674426B2 (en) | 2015-06-07 | 2017-06-06 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
CN106325655B (zh) * | 2015-06-19 | 2020-04-03 | 深圳超多维科技有限公司 | 应用于触摸终端的3d应用图标交互方法及触摸终端 |
CN106325692B (zh) * | 2015-06-19 | 2020-04-03 | 深圳超多维科技有限公司 | 切换显示模式的方法、装置及其移动终端 |
CN104991707B (zh) * | 2015-07-20 | 2019-01-22 | 青岛海信移动通信技术股份有限公司 | 一种显示用户界面方法及装置 |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
CN107037955A (zh) | 2016-10-24 | 2017-08-11 | 阿里巴巴集团控股有限公司 | 一种显示图像信息的方法及装置 |
US10476966B2 (en) * | 2016-11-14 | 2019-11-12 | Sharp Kabushiki Kaisha | Portable communication terminal, electronic apparatus, and method of controlling electronic apparatus by using portable communication terminal |
CN106648694A (zh) * | 2016-12-30 | 2017-05-10 | 深圳超多维科技有限公司 | 显示切换方法、装置、电子设备及计算机可读存储介质 |
CN107734322B (zh) * | 2017-11-15 | 2020-09-22 | 深圳超多维科技有限公司 | 用于裸眼3d显示终端的图像显示方法、装置及终端 |
CN109343782A (zh) * | 2018-08-02 | 2019-02-15 | 维沃移动通信有限公司 | 一种显示方法及终端 |
CN109240563A (zh) * | 2018-08-21 | 2019-01-18 | 珠海格力电器股份有限公司 | 移动终端三维图标显示方法、程序启动方法和移动终端 |
CN109542321B (zh) * | 2018-11-21 | 2021-03-12 | 维沃移动通信有限公司 | 一种屏幕显示内容的控制方法及装置 |
CN111246012B (zh) * | 2020-01-06 | 2022-09-16 | 北京小米移动软件有限公司 | 应用界面显示方法、装置及存储介质 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004040445A (ja) * | 2002-07-03 | 2004-02-05 | Sharp Corp | 3d表示機能を備える携帯機器、及び3d変換プログラム |
WO2005119591A1 (ja) * | 2004-06-04 | 2005-12-15 | Matsushita Electric Industrial Co., Ltd. | 表示制御方法および装置、プログラム、並びに携帯機器 |
US7880726B2 (en) | 2004-10-12 | 2011-02-01 | Nippon Telegraph And Telephone Corporation | 3D pointing method, 3D display control method, 3D pointing device, 3D display control device, 3D pointing program, and 3D display control program |
EP1932141A4 (en) * | 2005-09-13 | 2009-08-19 | Spacetime3D Inc | SYSTEM AND METHOD FOR FORMING A THREE-DIMENSIONAL USER GRAPHIC INTERFACE |
WO2007069122A1 (en) | 2005-12-14 | 2007-06-21 | Koninklijke Philips Electronics N.V. | Controlling the perceived depth of autostereoscopic display device and method therefor |
US20090262074A1 (en) * | 2007-01-05 | 2009-10-22 | Invensense Inc. | Controlling and accessing content using motion processing on mobile devices |
US8462109B2 (en) * | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US9513765B2 (en) * | 2007-12-07 | 2016-12-06 | Sony Corporation | Three-dimensional sliding object arrangement method and system |
US8384718B2 (en) * | 2008-01-10 | 2013-02-26 | Sony Corporation | System and method for navigating a 3D graphical user interface |
CN101299843B (zh) | 2008-01-10 | 2012-05-30 | 常州津通视频技术有限公司 | 3d显示手机及3d图像显示方法 |
US8681093B2 (en) * | 2008-02-11 | 2014-03-25 | Apple Inc. | Motion compensation for screens |
CN100548056C (zh) | 2008-04-30 | 2009-10-07 | 北京超多维科技有限公司 | 一种感应式2d-3d自动立体显示装置 |
US9092053B2 (en) * | 2008-06-17 | 2015-07-28 | Apple Inc. | Systems and methods for adjusting a display based on the user's position |
EP3258361B1 (en) * | 2008-07-01 | 2020-08-12 | LG Electronics Inc. -1- | Mobile terminal using pressure sensor and method of controlling the mobile terminal |
KR101602363B1 (ko) * | 2008-09-11 | 2016-03-10 | 엘지전자 주식회사 | 3차원 사용자 인터페이스의 제어방법과 이를 이용한 이동 단말기 |
US20100115471A1 (en) * | 2008-11-04 | 2010-05-06 | Apple Inc. | Multidimensional widgets |
US8456466B1 (en) * | 2009-04-01 | 2013-06-04 | Perceptive Pixel Inc. | Resolving ambiguous rotations in 3D manipulation |
US8232990B2 (en) * | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
-
2011
- 2011-03-16 US US13/049,784 patent/US8826184B2/en not_active Expired - Fee Related
- 2011-03-31 EP EP11002708.3A patent/EP2372515A3/en not_active Withdrawn
- 2011-04-06 CN CN201110087532XA patent/CN102214065B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP2372515A2 (en) | 2011-10-05 |
CN102214065A (zh) | 2011-10-12 |
US20110246877A1 (en) | 2011-10-06 |
EP2372515A3 (en) | 2016-08-10 |
US8826184B2 (en) | 2014-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102214065B (zh) | 移动终端及其图像显示控制方法 | |
USRE48677E1 (en) | Mobile terminal and control method thereof | |
CN102446064B (zh) | 移动终端及其控制方法 | |
KR101674957B1 (ko) | 이동 단말기 및 그 제어방법 | |
CN102595157B (zh) | 显示3d图像的装置及其控制方法 | |
KR101873759B1 (ko) | 영상 표시 장치 및 그 제어방법 | |
KR101728728B1 (ko) | 이동 단말기 및 그 제어방법 | |
CN102857592B (zh) | 移动终端及其3d图像显示方法 | |
KR101830966B1 (ko) | 전자 기기 및 전자 기기의 컨텐츠 생성 방법 | |
KR20140016495A (ko) | 휴대 단말기 및 그 제어 방법 | |
CN102402379A (zh) | 移动终端及其控制方法 | |
CN104423886A (zh) | 移动终端及其控制方法 | |
CN102377874A (zh) | 移动终端以及用于转换其显示模式的方法 | |
KR20110054256A (ko) | 이동 단말기 및 그 제어방법 | |
KR20120007195A (ko) | 이동 단말기 및 그 제어방법 | |
KR20120048116A (ko) | 이동 단말기 및 그 제어방법 | |
KR101633336B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101723413B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101709500B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101739043B1 (ko) | 이동 단말기 및 이동 단말기의 입체 영상 표시 방법 | |
KR101753033B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR20110060125A (ko) | 이동 단말기 및 그 제어방법 | |
KR20130053476A (ko) | 휴대 단말기 및 그 제어 방법 | |
KR101289527B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR20120130394A (ko) | 휴대 단말기 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20131030 Termination date: 20200406 |
|
CF01 | Termination of patent right due to non-payment of annual fee |