CN113906374A - 用于音频同步的方法和用户界面 - Google Patents
用于音频同步的方法和用户界面 Download PDFInfo
- Publication number
- CN113906374A CN113906374A CN202080040424.4A CN202080040424A CN113906374A CN 113906374 A CN113906374 A CN 113906374A CN 202080040424 A CN202080040424 A CN 202080040424A CN 113906374 A CN113906374 A CN 113906374A
- Authority
- CN
- China
- Prior art keywords
- audio
- timing synchronization
- output
- synchronization process
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 236
- 230000008569 process Effects 0.000 claims abstract description 161
- 238000004891 communication Methods 0.000 claims abstract description 64
- 230000004044 response Effects 0.000 claims description 45
- 238000003860 storage Methods 0.000 claims description 27
- 230000033001 locomotion Effects 0.000 description 51
- 230000003287 optical effect Effects 0.000 description 25
- 238000001514 detection method Methods 0.000 description 18
- 230000002093 peripheral effect Effects 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 241000699666 Mus <mouse, genus> Species 0.000 description 12
- 230000007423 decrease Effects 0.000 description 12
- 238000007726 management method Methods 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 9
- 230000036541 health Effects 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 238000009499 grossing Methods 0.000 description 7
- 230000001934 delay Effects 0.000 description 6
- 230000001965 increasing effect Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 230000003213 activating effect Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000000977 initiatory effect Effects 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000021317 sensory perception Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 241001422033 Thestylus Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013503 de-identification Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009528 vital sign measurement Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/02—Spatial or constructional arrangements of loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/03—Synergistic effects of band splitting and sub-band processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/15—Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Telephone Function (AREA)
Abstract
本公开整体涉及音频同步。示例性方法包括在具有通信设备的第一设备处:执行音频定时同步过程,所述音频定时同步过程包括:经由所述通信设备向第二设备传输对于所述第二设备参与所述音频定时同步过程的请求;在向所述第二设备传输所述请求之后,使得输出音频音调;在使得所述输出所述音频音调之后,基于所述音频音调从所述第二设备接收数据;以及至少部分地基于从所述第二设备接收的所述数据来调节第三设备的音频定时同步设置。
Description
相关申请的交叉引用
本专利申请要求2019年5月31日提交的美国临时申请62/855,911以及2019年10月29日提交的美国专利申请16/667,684的权益,这两个申请的内容据此全文以引用方式并入本文以用于所有目的。
技术领域
本公开总体涉及计算机用户界面,更具体地讲,涉及用于音频同步的技术。
背景技术
包括音频的媒体(包括电影、音乐、有声读物)的回放可通过使用多个输出设备来增强,这可提供更沉浸式的音频。
发明内容
可通过同步音频输出定时来改善经由多个设备的音频输出。用于使用电子设备的音频同步的一些技术通常很麻烦且效率低下。例如,一些现有技术使用复杂且耗时的用户界面,该用户界面可包括多次按键或击键。现有技术需要比所需更多的时间,这导致浪费用户的时间和设备能量。这后一考虑在电池驱动的设备中是特别重要的。
因此,本技术为电子设备提供了用于音频同步的更快、更有效的方法和界面。此类方法和界面任选地补充或替换用于音频同步的其他方法。此类方法和界面减少对用户所造成的认知负担,并且产生更有效的人机界面。对于电池驱动的计算设备,此类方法和界面节省功率,并且增大电池充电之间的时间间隔。
本文公开了示例方法。一种示例性方法包括在包括具有通信设备的第一设备的电子设备处执行音频定时同步过程,该音频定时同步过程包括:经由通信设备向第二设备传输对于第二设备参与音频定时同步过程的请求;在向第二设备传输该请求之后,导致输出音频音调;在导致输出音频音调之后,基于音频音调从第二设备接收数据;以及至少部分地基于从第二设备接收的数据来调节第三设备的音频定时同步设置。
本文描述了示例非暂态计算机可读存储介质。一种示例性非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储一个或多个程序,该一个或多个程序被配置为由具有通信设备的电子设备的一个或多个处理器执行,该一个或多个程序包括用于执行以下操作的指令:执行音频定时同步过程,该音频定时同步过程包括:经由通信设备向第二设备传输对于第二设备参与音频定时同步过程的请求;在向第二设备传输该请求之后,导致输出音频音调;在导致输出音频音调之后,基于音频音调从第二设备接收数据;以及至少部分地基于从第二设备接收的数据来调节第三设备的音频定时同步设置。
本文描述了示例暂态计算机可读存储介质。一种示例性暂态计算机可读存储介质,该暂态计算机可读存储介质存储一个或多个程序,该一个或多个程序被配置为由具有通信设备的电子设备的一个或多个处理器执行,该一个或多个程序包括用于执行以下操作的指令:执行音频定时同步过程,该音频定时同步过程包括:经由通信设备向第二设备传输对于第二设备参与音频定时同步过程的请求;在向第二设备传输该请求之后,导致输出音频音调;在导致输出音频音调之后,基于音频音调从第二设备接收数据;以及至少部分地基于从第二设备接收的数据来调节第三设备的音频定时同步设置。
本文描述了示例电子设备。一种示例性电子设备包括:通信设备;一个或多个处理器;以及存储器,该存储器存储一个或多个程序,该一个或多个程序被配置为由该一个或多个处理器执行,该一个或多个程序包括用于执行以下操作的指令:执行音频定时同步过程,该音频定时同步过程包括:经由通信设备向第二设备传输对于第二设备参与音频定时同步过程的请求;在向第二设备传输该请求之后,导致输出音频音调;在导致输出音频音调之后,基于音频音调从第二设备接收数据;以及至少部分地基于从第二设备接收的数据来调节第三设备的音频定时同步设置。
一种示例性电子设备包括:通信设备;以及用于执行音频定时同步过程的装置,该音频定时同步过程包括:经由通信设备向第二设备传输对于第二设备参与音频定时同步过程的请求;在向第二设备传输该请求之后,导致输出音频音调;在导致输出音频音调之后,基于音频音调从第二设备接收数据;以及至少部分地基于从第二设备接收的数据来调节第三设备的音频定时同步设置。
用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的非暂态计算机可读存储介质或其他计算机程序产品中。用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的暂态计算机可读存储介质或其他计算机程序产品中。
因此,为设备提供了用于音频同步的更快、更高效的方法和界面,从而提高了此类设备的有效性、效率和用户满意度。此类方法和界面可补充或替换用于音频同步的其他方法。
附图说明
为了更好地理解各种所述实施方案,应结合以下附图参考下面的具体实施方式,其中类似的附图标号在所有附图中指示对应的部分。
图1A是示出了根据一些实施方案的具有触敏显示器的便携式多功能设备的框图。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框图。
图2示出了根据一些实施方案的具有触摸屏的便携式多功能设备。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。
图4A示出了根据一些实施方案的针对便携式多功能设备上应用程序的菜单的示例性用户界面。
图4B示出了根据一些实施方案的针对具有与显示器分开的触敏表面的多功能设备的示例性用户界面。
图5A示出了根据一些实施方案的个人电子设备。
图5B是示出了根据一些实施方案的个人电子设备的框图。
图6示出了根据一些实施方案的示例性家庭媒体系统中的示例性电子设备的示例性布置。
图7A至图7F示出了根据一些实施方案的用于执行音频定时同步过程的示例性用户界面。
图8A至图8F示出了根据一些实施方案的用于执行音频定时同步过程的示例性用户界面。
图9是示出根据一些实施方案的用于执行音频定时同步过程的方法的流程图。
具体实施方式
以下描述阐述了示例性方法、参数等。然而,应当认识到,此类描述并非意在限制本公开的范围,而是作为对示例性实施方案的描述来提供。
需要提供用于音频同步的高效的方法和界面的电子设备。此类技术可减轻执行音频同步的用户的认知负担,从而提高生产率。此外,此类技术可减少以其他方式浪费在冗余用户输入上的处理器功率和电池功率。
下面图1A至图1B、图2、图3、图4A至图4B和图5A至图5B提供了对用于执行管理事件通知的技术的示例性设备的描述。图6、图7A至图7F、和图8A至图8F示出了根据一些实施方案的用于执行音频定时同步过程的示例性用户界面。图9是示出根据一些实施方案的用于执行音频定时同步过程的方法的流程图。图6中的示例性家庭媒体系统中的示例性电子设备的示例性布置和图7A至图7F和图8A至图8F中的用户界面用于例示下文描述的过程,包括图9中的过程。
尽管以下描述使用术语“第一”、“第二”等来描述各种元件,但这些元件不应受术语的限制。这些术语只是用于将一个元件与另一元件区分开。例如,第一触摸可被命名为第二触摸并且类似地第二触摸可被命名为第一触摸,而不脱离各种所述实施方案的范围。第一触摸和第二触摸两者均为触摸,但是它们不是同一触摸。
在本文中对各种所述实施方案的描述中所使用的术语只是为了描述特定实施方案的目的,而并非旨在进行限制。如在对各种所述实施方案中的描述和所附权利要求书中所使用的那样,单数形式“一个”和“该”旨在也包括复数形式,除非上下文另外明确地指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”(“includes”、“including”、“comprises”和/或“comprising”)在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件和/或其分组。
根据上下文,术语“如果”任选地被解释为意指“当......时”、“在......时”或“响应于确定”或“响应于检测到”。类似地,根据上下文,短语“如果确定……”或“如果检测到[所陈述的条件或事件]”任选地被解释为是指“在确定……时”或“响应于确定……”或“在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
本文描述了电子设备、此类设备的用户界面和使用此类设备的相关过程的实施方案。在一些实施方案中,该设备为还包含其他功能诸如PDA和/或音乐播放器功能的便携式通信设备,诸如移动电话。便携式多功能设备的示例性实施方案包括但不限于来自AppleInc.(Cupertino,California)的设备、iPod 设备、和设备。任选地使用其他便携式电子设备,诸如具有触敏表面(例如,触摸屏显示器和/或触控板)的膝上型电脑或平板电脑。还应当理解的是,在一些实施方案中,该设备并非便携式通信设备,而是具有触敏表面(例如,触摸屏显示器和/或触控板)的台式计算机。
在下面的讨论中,描述了一种包括显示器和触敏表面的电子设备。然而,应当理解,该电子设备任选地包括一个或多个其他物理用户界面设备,诸如物理键盘、鼠标和/或操纵杆。
该设备通常支持各种应用程序,诸如以下中的一者或多者:绘图应用程序、呈现应用程序、文字处理应用程序、网站创建应用程序、盘编辑应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息应用程序、健身支持应用程序、照片管理应用程序、数字相机应用程序、数字视频摄像机应用程序、网页浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
在设备上执行的各种应用程序任选地使用至少一个通用的物理用户界面设备,诸如触敏表面。触敏表面的一种或多种功能以及被显示在设备上的对应信息任选地对于不同应用程序被调整和/或变化,和/或在相应应用程序内被调整和/或变化。这样,设备的共用物理架构(诸如触敏表面)任选地利用对于用户而言直观且清楚的用户界面来支持各种应用程序。
现在将注意力转到具有触敏显示器的便携式设备的实施方案。图1A是示出了根据一些实施方案的具有触敏显示器系统112的便携式多功能设备100的框图。触敏显示器112有时为了方便被叫做“触摸屏”,并且有时被称为或被叫做“触敏显示器系统”。设备100包括存储器102(其任选地包括一个或多个计算机可读存储介质)、存储器控制器122、一个或多个处理单元(CPU)120、外围设备接口118、RF电路108、音频电路110、扬声器111、麦克风113、输入/输出(I/O)子系统106、其他输入控制设备116和外部端口124。设备100任选地包括一个或多个光学传感器164。设备100任选地包括用于检测设备100(例如,触敏表面,诸如设备100的触敏显示器系统112)上的接触的强度的一个或多个接触强度传感器165。设备100任选地包括用于在设备100上生成触觉输出的一个或多个触觉输出发生器167(例如,在触敏表面(诸如设备100的触敏显示器系统112或设备300的触控板355)上生成触觉输出)。这些部件任选地通过一个或多个通信总线或信号线103进行通信。
如在本说明书和权利要求书中所使用的,术语触敏表面上的接触的“强度”是指触敏表面上的接触(例如,手指接触)的力或压力(每单位面积的力),或是指触敏表面上的接触的力或压力的替代物(代用物)。接触的强度具有值范围,该值范围包括至少四个不同的值并且更典型地包括上百个不同的值(例如,至少256个)。接触的强度任选地使用各种方法和各种传感器或传感器的组合来确定(或测量)。例如,在触敏表面下方或相邻于触敏表面的一个或多个力传感器任选地用于测量触敏表面上的不同点处的力。在一些具体实施中,来自多个力传感器的力测量值被组合(例如,加权平均)以确定所估计的接触力。类似地,触笔的压敏顶端任选地用于确定触笔在触敏表面上的压力。另选地,在触敏表面上检测到的接触区域的大小和/或其变化、接触附近的触敏表面的电容和/或其变化以及/或者接触附近的触敏表面的电阻和/或其变化任选地被用作触敏表面上的接触的力或压力的替代物。在一些具体实施中,接触力或压力的替代物测量直接用于确定是否已经超过强度阈值(例如,强度阈值以对应于替代物测量的单位来描述)。在一些具体实施中,接触力或压力的替代物测量被转换成估计的力或压力,并且估计的力或压力用于确定是否已超过强度阈值(例如,强度阈值是以压力的单位进行测量的压力阈值)。使用接触的强度作为用户输入的属性,从而允许用户访问用户在实地面积有限的尺寸更小的设备上本来不可访问的附加设备功能,该尺寸更小的设备用于(例如,在触敏显示器上)显示示能表示和/或接收用户输入(例如,经由触敏显示器、触敏表面或物理控件/机械控件,诸如旋钮或按钮)。
如本说明书和权利要求书中所使用的,术语“触觉输出”是指将由用户利用用户的触感检测到的设备相对于设备的先前位置的物理位移、设备的部件(例如,触敏表面)相对于设备的另一个部件(例如,外壳)的物理位移、或部件相对于设备的质心的位移。例如,在设备或设备的部件与用户对触摸敏感的表面(例如,手指、手掌或用户手部的其他部分)接触的情况下,通过物理位移生成的触觉输出将由用户解释为触感,该触感对应于设备或设备的部件的物理特征的所感知的变化。例如,触敏表面(例如,触敏显示器或触控板)的移动任选地由用户解释为对物理致动按钮的“按下点击”或“松开点击”。在一些情况下,用户将感觉到触感,诸如“按下点击”或“松开点击”,即使在通过用户的移动而物理地被按压(例如,被移位)的与触敏表面相关联的物理致动按钮没有移动时。又如,即使在触敏表面的光滑度无变化时,触敏表面的移动也会任选地由用户解释或感测为触敏表面的“粗糙度”。虽然用户对触摸的此类解释将受到用户的个体化感官知觉的限制,但是对触摸的许多感官知觉是大多数用户共有的。因此,当触觉输出被描述为对应于用户的特定感官知觉(例如,“按下点击”、“松开点击”、“粗糙度”)时,除非另外陈述,否则所生成的触觉输出对应于设备或其部件的物理位移,该物理位移将会生成典型(或普通)用户的所述感官知觉。
应当理解,设备100仅仅是便携式多功能设备的一个示例,并且设备100任选地具有比所示出的部件更多或更少的部件,任选地组合两个或更多个部件,或者任选地具有这些部件的不同配置或布置。图1A中所示的各种部件以硬件、软件、或硬件与软件两者的组合来实现,包括一个或多个信号处理和/或专用集成电路。
存储器102任选地包括高速随机存取存储器,并且还任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、闪存存储器设备、或其他非易失性固态存储器设备。存储器控制器122任选地控制设备100的其他部件访问存储器102。
外围设备接口118可用于将设备的输入外围设备和输出外围设备耦接到CPU 120和存储器102。一个或多个处理器120运行或执行存储器102中所存储的各种软件程序和/或指令集以执行设备100的各种功能并处理数据。在一些实施方案中,外围设备接口118、CPU120和存储器控制器122任选地被实现在单个芯片诸如芯片104上。在一些其他实施方案中,它们任选地在独立的芯片上实现。
RF(射频)电路108接收和发送也被称作电磁信号的RF信号。RF电路108将电信号转换为电磁信号/将电磁信号转换为电信号,并且经由电磁信号与通信网络及其他通信设备进行通信。RF电路108任选地包括用于执行这些功能的熟知的电路,包括但不限于天线系统、RF收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码芯片组、用户身份模块(SIM)卡、存储器等等。RF电路108任选地通过无线通信来与网络和其他设备进行通信,这些网络为诸如互联网(也被称为万维网(WWW))、内联网和/或无线网络(诸如,蜂窝电话网络、无线局域网(LAN)和/或城域网(MAN))。RF电路108任选地包括用于诸如通过近程通信无线电部件来检测近场通信(NFC)场的熟知的电路。无线通信任选地使用多种通信标准、协议和技术中的任一者,包括但不限于全球移动通信系统(GSM)、增强型数据GSM环境(EDGE)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、演进、纯数据(EV-DO)、HSPA、HSPA+、双单元HSPA(DC-HSPDA)、长期演进(LTE)、近场通信(NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、蓝牙低功耗(BTLE)、无线保真(Wi-Fi)(例如,IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n和/或IEEE802.11ac)、互联网协议语音(VoIP)、Wi-MAX、电子邮件协议(例如,互联网消息访问协议(IMAP)和/或邮局协议(POP))、即时消息(例如,可扩展消息处理和存在协议(XMPP)、用于即时消息和存在利用扩展的会话发起协议(SIMPLE)、即时消息和存在服务(IMPS))、和/或短消息服务(SMS),或者包括在本文档提交日期时还未开发出的通信协议的任何其他适当的通信协议。
音频电路110、扬声器111和麦克风113提供用户与设备100之间的音频接口。音频电路110从外围设备接口118接收音频数据,将音频数据转换为电信号,并将电信号传输到扬声器111。扬声器111将电信号转换为人类可听到的声波。音频电路110还接收由麦克风113从声波转换的电信号。音频电路110将电信号转换为音频数据,并且将音频数据传输到外围设备接口118以用于处理。音频数据任选地由外围设备接口118检索自和/或传输至存储器102和/或RF电路108。在一些实施方案中,音频电路110还包括耳麦插孔(例如,图2中的212)。耳麦插孔提供音频电路110与可移除音频输入/输出外围设备之间的接口,该外围设备为诸如仅输出的耳机或者具有输出(例如,单耳耳机或双耳耳机)和输入(例如,麦克风)两者的耳麦。
I/O子系统106将设备100上的输入/输出外围设备诸如触摸屏112和其他输入控制设备116耦接到外围设备接口118。I/O子系统106任选地包括显示控制器156、光学传感器控制器158、深度相机控制器169、强度传感器控制器159、触觉反馈控制器161,以及用于其他输入或控制设备的一个或多个输入控制器160。该一个或多个输入控制器160从其他输入控制设备116接收电信号/将电信号发送到该其他输入控制设备。该其他输入控制设备116任选地包括物理按钮(例如,下压按钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、点击式转盘等。在一些另选实施方案中,输入控制器160任选地耦接至以下各项中的任一者(或不耦接至以下各项中的任一者):键盘、红外线端口、USB端口以及指向设备诸如鼠标。一个或多个按钮(例如,图2中的208)任选地包括用于扬声器111和/或麦克风113音量控制的增大/减小按钮。该一个或多个按钮任选地包括下压按钮(例如,图2中的206)。
快速按下下压按钮任选地脱离触摸屏112的锁定或者任选地开始使用触摸屏上的手势来对设备进行解锁的过程,如在2005年12月23日提交的名称为“通过在解锁图像上执行手势解锁设备(Unlocking a Device by Performing Gestures on an Unlock Image)”的美国专利申请11/322,549(即,美国专利No.7,657,849)中所述的,该美国专利申请据此全文以引用方式并入本文。长按下压按钮(例如206)任选地使设备100开机或关机。一个或多个按钮的功能任选地为用户可定制的。触摸屏112用于实现虚拟按钮或软按钮以及一个或多个软键盘。
触敏显示器112提供设备和用户之间的输入接口和输出接口。显示控制器156从触摸屏112接收电信号和/或将电信号发送到触摸屏112。触摸屏112向用户显示视觉输出。视觉输出任选地包括图形、文本、图标、视频以及它们的任何组合(统称为“图形”)。在一些实施方案中,一些视觉输出或全部的视觉输出任选地与用户界面对象对应。
触摸屏112具有基于触觉和/或触感接触来接受来自用户的输入的触敏表面、传感器、或传感器组。触摸屏112和显示控制器156(与存储器102中的任何相关联的模块和/或指令集一起)检测触摸屏112上的接触(和该接触的任何移动或中断),并且将所检测到的接触转换为与被显示在触摸屏112上的用户界面对象(例如,一个或多个软键、图标、网页或图像)的交互。在示例性实施方案中,触摸屏112与用户之间的接触点对应于用户的手指。
触摸屏112任选地使用LCD(液晶显示器)技术、LPD(发光聚合物显示器)技术或LED(发光二极管)技术,但是在其他实施方案中使用其他显示技术。触摸屏112和显示控制器156任选地使用现在已知的或以后将开发出的多种触摸感测技术中的任何技术以及其他接近传感器阵列或用于确定与触摸屏112接触的一个或多个点的其他元件来检测接触及其任何移动或中断,该多种触摸感测技术包括但不限于电容性的、电阻性的、红外线的、和表面声波技术。在示例性实施方案中,使用投射式互电容感测技术,诸如在来自Apple Inc.(Cupertino,California)的和iPod中使用的技术。
触摸屏112的一些实施方案中的触敏显示器任选地类似于以下美国专利中描述的多点触敏触控板:6,323,846(Westerman等人)、6,570,557(Westerman等人)和/或6,677,932(Westerman等人)和/或美国专利公开2002/0015024A1,该每个专利据此全文以引用方式并入。然而,触摸屏112显示来自设备100的视觉输出,而触敏触控板不提供视觉输出。
在一些实施方案中,触摸屏112的触敏显示器如以下专利申请所述:(1)提交于2006年5月2日的名称为“Multipoint Touch Surface Controller”的美国专利申请No.11/381,313;(2)2004年5月6日提交的名称为“多点触控表面控制器(MultipointTouchscreen)”的美国专利申请No.10/840,862;(3)2004年7月30日提交的名称为“用于触摸敏感输入设备的手势(Gestures For Touch Sensitive Input Devices)”的美国专利申请No.10/903,964;(4)2005年1月31日提交的名称为“用于触摸敏感输入设备的手势(Gestures For Touch Sensitive Input Devices)”的美国专利申请No.11/048,264;(5)2005年1月18日提交的名称为“用于触摸敏感输入设备的基于模式的图形用户界面(Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices)”的美国专利申请No.11/038,590;(6)2005年9月16日提交的名称为“触摸屏用户界面上的虚拟输入设备放置(Virtual Input Device Placement On A Touch Screen User Interface)”的美国专利申请No.11/228,758;(7)2005年9月16日提交的名称为“带有触摸屏界面的计算机的操作(Operation Of A Computer With A Touch Screen Interface)”的美国专利申请No.11/228,700;(8)2005年9月16日提交的名称为“激活触摸屏虚拟键盘的虚拟键(Activating Virtual Keys Of A Touch-Screen Virtual Keyboard)”的美国专利申请No.11/228,737;以及(9)2006年3月3日提交的名称为“多功能手持设备(Multi-FunctionalHand-Held Device)”的美国专利申请No.11/367,749。所有这些申请全文以引用方式并入本文。
触摸屏112任选地具有超过100dpi的视频分辨率。在一些实施方案中,触摸屏具有约160dpi的视频分辨率。用户任选地使用任何合适的物体或附加物诸如触笔、手指等等来与触摸屏112接触。在一些实施方案中,将用户界面设计为主要通过基于手指的接触和手势来工作,由于手指在触摸屏上的接触区域较大,因此这可能不如基于触笔的输入精确。在一些实施方案中,设备将基于手指的粗略输入转化为精确的指针/光标位置或命令以用于执行用户所期望的动作。
在一些实施方案中,除了触摸屏之外,设备100任选地包括用于激活或去激活特定功能的触控板。在一些实施方案中,触控板是设备的触敏区域,与触摸屏不同,该触敏区域不显示视觉输出。触控板任选地是与触摸屏112分开的触敏表面,或者是由触摸屏形成的触敏表面的延伸部分。
设备100还包括用于为各种部件供电的电力系统162。电力系统162任选地包括电力管理系统、一个或多个电源(例如,电池、交流电(AC))、再充电系统、电力故障检测电路、功率转换器或逆变器、电源状态指示符(例如,发光二极管(LED))以及与便携式设备中的电力的生成、管理和分配相关联的任何其他部件。
设备100任选地还包括一个或多个光学传感器164。图1A示出了耦接到I/O子系统106中的光学传感器控制器158的光学传感器。光学传感器164任选地包括电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)光电晶体管。光学传感器164从环境接收通过一个或多个透镜而投射的光,并且将光转换为表示图像的数据。结合成像模块143(也叫做相机模块),光学传感器164任选地捕获静态图像或视频。在一些实施方案中,光学传感器位于设备100的后部上,与设备前部上的触摸屏显示器112相背对,使得触摸屏显示器能够用作用于静态图像和/或视频图像采集的取景器。在一些实施方案中,光学传感器位于设备的前部上,使得在用户在触摸屏显示器上查看其他视频会议参与者的同时任选地获取该用户的图像以用于视频会议。在一些实施方案中,光学传感器164的位置可由用户改变(例如,通过旋转设备外壳中的透镜和传感器),使得单个光学传感器164与触摸屏显示器一起使用,以用于视频会议和静态图像和/或视频图像采集两者。
设备100任选地还包括一个或多个深度相机传感器175。图1A示出了耦接到I/O子系统106中的深度相机控制器169的深度相机传感器。深度相机传感器175从环境接收数据以从视点(例如,深度相机传感器)创建场景内的对象(例如,面部)的三维模型。在一些实施方案中,结合成像模块143(也称为相机模块),深度相机传感器175可选地用于确定由成像模块143捕获的图像的不同部分的深度图。在一些实施方案中,深度相机传感器位于设备100的前部,使得在用户在触摸屏显示器上查看其他视频会议参与者的同时任选地获取具有深度信息的用户图像以用于视频会议,并且捕捉具有深度图数据的自拍。在一些实施方案中,深度相机传感器175位于设备的后部,或者设备100的后部和前部。在一些实施方案中,深度相机传感器175的位置可由用户改变(例如,通过旋转设备外壳中的透镜和传感器),使得深度相机传感器175与触摸屏显示器一起使用以用于视频会议和静态图像和/或视频图像采集两者。
设备100任选地还包括一个或多个接触强度传感器165。图1A示出了耦接到I/O子系统106中的强度传感器控制器159的接触强度传感器。接触强度传感器165任选地包括一个或多个压阻应变仪、电容式力传感器、电气力传感器、压电力传感器、光学力传感器、电容式触敏表面或其他强度传感器(例如,用于测量触敏表面上的接触的力(或压力)的传感器)。接触强度传感器165从环境接收接触强度信息(例如,压力信息或压力信息的代用物)。在一些实施方案中,至少一个接触强度传感器与触敏表面(例如,触敏显示器系统112)并置排列或邻近。在一些实施方案中,至少一个接触强度传感器位于设备100的后部上,与位于设备100的前部上的触摸屏显示器112相背对。
设备100任选地还包括一个或多个接近传感器166。图1A示出了耦接到外围设备接口118的接近传感器166。另选地,接近传感器166任选地耦接到I/O子系统106中的输入控制器160。接近传感器166任选地如以下美国专利申请中所述的那样执行:No.11/241,839,名称为“手持设备中的接近探测器(Proximity Detector In Handheld Device)”;No.11/240,788,名称为“手持设备中的接近探测器(Proximity Detector In HandheldDevice)”;No.11/620,702,名称为“使用环境光传感器增强接近传感器输出(UsingAmbient Light Sensor To Augment Proximity Sensor Output)”;No.11/586,862,名称为“自动响应与感知便携式设备中的用户活动(Automated Response To And Sensing OfUser Activity In Portable Devices)”;以及No.11/638,251,名称为“用于自动配置外部设备的方法和系统(Methods And Systems For Automatic Configuration OfPeripherals)”,这些美国专利申请据此全文以引用方式并入本文。在一些实施方案中,当多功能设备被置于用户的耳朵附近时(例如,当用户正在进行电话呼叫时),接近传感器关闭并且禁用触摸屏112。
设备100任选地还包括一个或多个触觉输出发生器167。图1A示出了耦接到I/O子系统106中的触觉反馈控制器161的触觉输出发生器。触觉输出发生器167任选地包括一个或多个电声设备诸如扬声器或其他音频部件;和/或用于将能量转换成线性运动的机电设备诸如电机、螺线管、电活性聚合物、压电致动器、静电致动器或其他触觉输出生成部件(例如,用于将电信号转换成设备上的触觉输出的部件)。接触强度传感器165从触觉反馈模块133接收触觉反馈生成指令,并且在设备100上生成能够由设备100的用户感觉到的触觉输出。在一些实施方案中,至少一个触觉输出发生器与触敏表面(例如,触敏显示器系统112)并置排列或邻近,并且任选地通过竖直地(例如,向设备100的表面内/外)或侧向地(例如,在与设备100的表面相同的平面中向后和向前)移动触敏表面来生成触觉输出。在一些实施方案中,至少一个触觉输出发生器传感器位于设备100的后部上,与位于设备100的前部上的触摸屏显示器112相背对。
设备100任选地还包括一个或多个加速度计168。图1A示出了耦接到外围设备接口118的加速度计168。另选地,加速度计168任选地耦接到I/O子系统106中的输入控制器160。加速度计168任选地如以下美国专利公开中所述的那样执行:美国专利公开No.20050190059,名称为“基于加速度的用于便携式电子设备的盗窃检测系统(Acceleration-based Theft Detection System for Portable Electronic Devices)”和美国专利公开No.20060017692,名称为“用于操作基于加速度计的便携式设备的方法和装置(Methods And Apparatuses For Operating A Portable Device Based On AnAccelerometer)”,这两个美国专利公开均全文以引用方式并入本文。在一些实施方案中,基于对从一个或多个加速度计接收的数据的分析来在触摸屏显示器上以纵向视图或横向视图显示信息。设备100任选地除了加速度计168之外还包括磁力仪和GPS(或GLONASS或其他全球导航系统)接收器,以用于获取关于设备100的位置和取向(例如,纵向或横向)的信息。
在一些实施方案中,存储于存储器102中的软件部件包括操作系统126、通信模块(或指令集)128、接触/运动模块(或指令集)130、图形模块(或指令集)132、文本输入模块(或指令集)134、全球定位系统(GPS)模块(或指令集)135以及应用程序(或指令集)136。此外,在一些实施方案中,存储器102(图1A)或370(图3)存储设备/全局内部状态157,如图1A和图3中所示。设备/全局内部状态157包括以下中的一者或多者:活动应用程序状态,其指示哪些应用程序(如果有的话)当前是活动的;显示状态,其指示什么应用程序、视图或其他信息占据触摸屏显示器112的各个区域;传感器状态,包括从设备的各个传感器和输入控制设备116获得的信息;以及关于设备的位置和/或姿态的位置信息。
操作系统126(例如,Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS或嵌入式操作系统诸如VxWorks)包括用于控制和管理一般系统任务(例如,存储器管理、存储设备控制、功率管理等)的各种软件部件和/或驱动器,并且促进各种硬件部件和软件部件之间的通信。
通信模块128有利于通过一个或多个外部端口124来与其他设备进行通信,并且还包括用于处理由RF电路108和/或外部端口124所接收的数据的各种软件组件。外部端口124(例如,通用串行总线(USB)、火线等)适于直接耦接到其他设备,或间接地通过网络(例如,互联网、无线LAN等)进行耦接。在一些实施方案中,外部端口是与(Apple Inc.的商标)设备上所使用的30针连接器相同的或类似的和/或与其兼容的多针(例如,30针)连接器。
接触/运动模块130任选地检测与触摸屏112(结合显示控制器156)和其他触敏设备(例如,触控板或物理点击式转盘)的接触。接触/运动模块130包括各种软件部件以用于执行与接触检测相关的各种操作,诸如确定是否已经发生了接触(例如,检测手指按下事件)、确定接触强度(例如,接触的力或压力,或者接触的力或压力的替代物)、确定是否存在接触的移动并跟踪在触敏表面上的移动(例如,检测一个或多个手指拖动事件),以及确定接触是否已经停止(例如,检测手指抬起事件或者接触断开)。接触/运动模块130从触敏表面接收接触数据。确定接触点的移动任选地包括确定接触点的速率(量值)、速度(量值和方向)和/或加速度(量值和/或方向的改变),所述接触点的移动由一系列接触数据表示。这些操作任选地被应用于单点接触(例如,单指接触)或者多点同时接触(例如,“多点触摸”/多个手指接触)。在一些实施方案中,接触/运动模块130和显示控制器156检测触控板上的接触。
在一些实施方案中,接触/运动模块130使用一组一个或多个强度阈值来确定操作是否已由用户执行(例如,确定用户是否已“点击”图标)。在一些实施方案中,根据软件参数来确定强度阈值的至少一个子集(例如,强度阈值不是由特定物理致动器的激活阈值来确定的,并且可在不改变设备100的物理硬件的情况下被调节)。例如,在不改变触控板或触摸屏显示器硬件的情况下,触控板或触摸屏的鼠标“点击”阈值可被设定成预定义的阈值的大范围中的任一个阈值。另外,在一些具体实施中,向设备的用户提供用于调节一组强度阈值中的一个或多个强度阈值(例如,通过调节各个强度阈值和/或通过利用对“强度”参数的系统级点击来一次调节多个强度阈值)的软件设置。
接触/运动模块130任选地检测由用户进行的手势输入。触敏表面上的不同手势具有不同的接触模式(例如,所检测到的接触的不同运动、计时和/或强度)。因此,任选地通过检测特定接触模式来检测手势。例如,检测手指轻击手势包括检测手指按下事件,然后在与手指按下事件相同的位置(或基本上相同的位置)处(例如,在图标的位置处)检测手指抬起(抬离)事件。作为另一个示例,在触敏表面上检测手指轻扫手势包括检测手指按下事件,然后检测一个或多个手指拖动事件,并且随后检测手指抬起(抬离)事件。
图形模块132包括用于在触摸屏112或其他显示器上呈现和显示图形的各种已知的软件部件,包括用于改变所显示的图形的视觉冲击(例如,亮度、透明度、饱和度、对比度或其他视觉属性)的部件。如本文所用,术语“图形”包括可被显示给用户的任何对象,其非限制性地包括文本、网页、图标(诸如包括软键的用户界面对象)、数字图像、视频、动画等。
在一些实施方案中,图形模块132存储表示待使用的图形的数据。每个图形任选地被分配有对应的代码。图形模块132从应用程序等接收用于指定待显示的图形的一个或多个代码,在必要的情况下还一起接收坐标数据和其他图形属性数据,并且然后生成屏幕图像数据,以输出至显示控制器156。
触觉反馈模块133包括用于生成指令的各种软件部件,该指令由触觉输出发生器167用于响应于用户与设备100的交互而在设备100上的一个或多个位置处产生触觉输出。
任选地为图形模块132的部件的文本输入模块134提供用于在各种应用程序(例如,联系人137、电子邮件140、IM 141、浏览器147和需要文本输入的任何其他应用程序)中输入文本的软键盘。
GPS模块135确定设备的位置,并提供该信息以供在各种应用程序中使用(例如提供给电话138以供在基于位置的拨号中使用;提供给相机143作为图片/视频元数据;以及提供给提供基于位置的服务的应用,诸如天气桌面小程序、本地黄页桌面小程序和地图/导航桌面小程序)。
应用程序136任选地包括以下模块(或指令集)或者其子集或超集:
·联系人模块137(有时称为通讯录或联系人列表);
·电话模块138;
·视频会议模块139;
·电子邮件客户端模块140;
·即时消息(IM)模块141;
·健身支持模块142;
·用于静态图像和/或视频图像的相机模块143;
·图像管理模块144;
·视频播放器模块;
·音乐播放器模块;
·浏览器模块147;
·日历模块148;
·桌面小程序模块149,其任选地包括以下各项中的一者或多者:天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4、词典桌面小程序149-5、和由用户获取的其他桌面小程序、以及用户创建的桌面小程序149-6;
·用于形成用户创建的桌面小程序149-6的桌面小程序创建器模块150;
·搜索模块151;
·视频和音乐播放器模块152,其合并视频播放器模块和音乐播放器模块;
·记事本模块153;
·地图模块154;以及/或者
·在线视频模块155。
任选地存储在存储器102中的其他应用程序136的示例包括其他文字处理应用程序、其他图像编辑应用程序、绘图应用程序、呈现应用程序、支持JAVA的应用程序、加密、数字权益管理、语音识别和语音复制。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、和文本输入模块134,联系人模块137任选地用于管理通讯录或联系人列表(例如,存储在存储器102或存储器370中的联系人模块137的应用程序内部状态192中),包括:向通讯录添加一个或多个姓名;从通讯录删除姓名;将电话号码、电子邮件地址、物理地址或其他信息与姓名关联;将图像与姓名关联;对姓名进行归类和分类;提供电话号码或电子邮件地址来发起和/或促进通过电话138、视频会议模块139、电子邮件140或IM141进行的通信;等等。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电话模块138任选地用于输入与电话号码对应的字符序列、访问联系人模块137中的一个或多个电话号码、修改已输入的电话号码、拨打相应的电话号码、进行会话,以及当会话完成时断开或挂断。如上所述,无线通信任选地使用多种通信标准、协议和技术中的任一种。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132、文本输入模块134、联系人模块137和电话模块138,视频会议模块139包括根据用户指令来发起、进行和终止用户与一个或多个其他参与方之间的视频会议的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电子邮件客户端模块140包括响应于用户指令来创建、发送、接收和管理电子邮件的可执行指令。结合图像管理模块144,电子邮件客户端模块140使得非常容易创建和发送具有由相机模块143拍摄的静态图像或视频图像的电子邮件。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,即时消息模块141包括用于以下操作的可执行指令:输入与即时消息对应的字符序列、修改先前输入的字符、传输相应即时消息(例如,使用短消息服务(SMS)或多媒体消息服务(MMS)协议以用于基于电话的即时消息或者使用XMPP、SIMPLE、或IMPS以用于基于互联网的即时消息)、接收即时消息以及查看所接收的即时消息。在一些实施方案中,所传输和/或接收的即时消息任选地包括图形、照片、音频文件、视频文件和/或MMS和/或增强消息服务(EMS)中所支持的其他附件。如本文所用,“即时消息”是指基于电话的消息(例如,使用SMS或MMS发送的消息)和基于互联网的消息(例如,使用XMPP、SIMPLE或IMPS发送的消息)两者。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135、地图模块154和音乐播放器模块,健身支持模块142包括用于创建健身(例如,具有时间、距离和/或卡路里燃烧目标)的可执行指令;与健身传感器(运动设备)进行通信;接收健身传感器数据;校准用于监视健身的传感器;为健身选择和播放音乐;以及显示、存储和传输健身数据。
结合触摸屏112、显示控制器156、光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132和图像管理模块144,相机模块143包括用于以下操作的可执行指令:捕获静态图像或视频(包括视频流)并且将它们存储到存储器102中、修改静态图像或视频的特征,或从存储器102删除静态图像或视频。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、和相机模块143,图像管理模块144包括用于排列、修改(例如,编辑)、或以其他方式操控、加标签、删除、呈现(例如,在数字幻灯片或相册中)、以及存储静态图像和/或视频图像的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,浏览器模块147包括用于根据用户指令来浏览互联网,包括搜索、链接至、接收和显示网页或其部分,以及链接至网页的附件和其他文件的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、电子邮件客户端模块140和浏览器模块147,日历模块148包括根据用户指令来创建、显示、修改和存储日历以及与日历相关联的数据(例如,日历条目、待办事项等)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序模块149是任选地由用户下载和使用的微型应用程序(例如,天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4和词典桌面小程序149-5)或由用户创建的微型应用程序(例如,用户创建的桌面小程序149-6)。在一些实施方案中,桌面小程序包括HTML(超文本标记语言)文件、CSS(层叠样式表)文件和JavaScript文件。在一些实施方案中,桌面小程序包括XML(可扩展标记语言)文件和JavaScript文件(例如,Yahoo!桌面小程序)。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序创建器模块150任选地被用户用于创建桌面小程序(例如,将网页的用户指定部分转变为桌面小程序)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,搜索模块151包括用于根据用户指令来搜索存储器102中与一个或多个搜索条件(例如,一个或多个用户指定的搜索词)匹配的文本、音乐、声音、图像、视频和/或其他文件的可执行指令。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108、和浏览器模块147,视频和音乐播放器模块152包括允许用户下载和回放以一种或多种文件格式诸如MP3或AAC文件存储的所记录的音乐和其他声音文件的可执行指令,以及用于显示、呈现或以其他方式回放视频(例如,在触摸屏112上或在经由外部端口124连接的外部显示器上)的可执行指令。在一些实施方案中,设备100任选地包括MP3播放器诸如iPod(Apple Inc.的商标)的功能。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,记事本模块153包括用于根据用户指令来创建和管理记事本、待办事项等的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135和浏览器模块147,地图模块154任选地用于根据用户指令接收、显示、修改和存储地图以及与地图相关联的数据(例如,驾驶方向、与特定位置处或附近的商店及其他兴趣点有关的数据,以及其他基于位置的数据)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108、文本输入模块134、电子邮件客户端模块140和浏览器模块147,在线视频模块155包括用于执行以下操作的指令:允许用户访问、浏览、接收(例如,通过流式传输和/或下载)、回放(例如在触摸屏上或在经由外部端口124所连接的外部显示器上)、发送具有至特定在线视频的链接的电子邮件,以及以其他方式管理一种或多种文件格式诸如H.264的在线视频。在一些实施方案中,使用即时消息模块141而不是电子邮件客户端模块140来发送特定在线视频的链接。在线视频应用程序的其他描述可见于2007年6月20日提交的名称为“用于播放在线视频的便携式多功能设备、方法和图形用户界面(PortableMultifunction Device,Method,and Graphical User Interface for Playing OnlineVideos)”的美国临时专利申请No.60/936,562和2007年12月31日提交的名称为“用于播放在线视频的便携式多功能设备、方法和图形用户界面(Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos)”的美国专利申请No.11/968,067,这两个专利申请的内容据此全文以引用方式并入本文。
上述每个模块和应用程序对应于用于执行上述一种或多种功能以及在本专利申请中所述的方法(例如,本文所述的计算机实现的方法和其他信息处理方法)的可执行指令集。这些模块(例如,指令集)不必以独立的软件程序、过程或模块实现,因此这些模块的各种子集任选地在各种实施方案中组合或以其他方式重新布置。例如,视频播放器模块任选地与音乐播放器模块组合成单个模块(例如,图1A中的视频和音乐播放器模块152)。在一些实施方案中,存储器102任选地存储上述模块和数据结构的子组。此外,存储器102任选地存储上文未描述的另外的模块和数据结构。
在一些实施方案中,设备100是该设备上的预定义的一组功能的操作唯一地通过触摸屏和/或触控板来执行的设备。通过使用触摸屏和/或触控板作为用于操作设备100的主要输入控制设备,任选地减少设备100上的物理输入控制设备(例如,下压按钮、拨盘等等)的数量。
唯一地通过触摸屏和/或触控板来执行的预定义的一组功能任选地包括在用户界面之间的导航。在一些实施方案中,触控板在被用户触摸时将设备100从设备100上显示的任何用户界面导航到主菜单、home菜单或根菜单。在此类实施方案中,使用触控板来实现“菜单按钮”。在一些其他实施方案中,菜单按钮是物理下压按钮或者其他物理输入控制设备,而不是触控板。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框图。在一些实施方案中,存储器102(图1A)或存储器370(图3)包括事件分类器170(例如,在操作系统126中)以及相应的应用程序136-1(例如,前述应用程序137至151、155、380至390中的任一个应用程序)。
事件分类器170接收事件信息并确定要将事件信息递送到的应用程序136-1和应用程序136-1的应用程序视图191。事件分类器170包括事件监视器171和事件分配器模块174。在一些实施方案中,应用程序136-1包括应用程序内部状态192,该应用程序内部状态指示当应用程序是活动的或正在执行时被显示在触敏显示器112上的一个或多个当前应用程序视图。在一些实施方案中,设备/全局内部状态157被事件分类器170用来确定哪个(哪些)应用程序当前是活动的,并且应用程序内部状态192被事件分类器170用来确定要将事件信息递送到的应用程序视图191。
在一些实施方案中,应用程序内部状态192包括附加信息,诸如以下各项中的一者或多者:当应用程序136-1恢复执行时将被使用的恢复信息、指示信息正被显示或准备好用于被应用程序136-1显示的用户界面状态信息、用于使得用户能够返回到应用程序136-1的前一状态或视图的状态队列,以及用户采取的先前动作的重复/撤销队列。
事件监视器171从外围设备接口118接收事件信息。事件信息包括关于子事件(例如,触敏显示器112上的用户触摸,作为多点触摸手势的一部分)的信息。外围设备接口118传输其从I/O子系统106或传感器诸如接近传感器166、一个或多个加速度计168和/或麦克风113(通过音频电路110)接收的信息。外围设备接口118从I/O子系统106接收的信息包括来自触敏显示器112或触敏表面的信息。
在一些实施方案中,事件监视器171以预先确定的间隔将请求发送至外围设备接口118。作为响应,外围设备接口118传输事件信息。在其他实施方案中,外围设备接口118仅当存在显著事件(例如,接收到高于预先确定的噪声阈值和/或接收到超过预先确定的持续时间的输入)时才传输事件信息。
在一些实施方案中,事件分类器170还包括命中视图确定模块172和/或活动事件识别器确定模块173。
当触敏显示器112显示多于一个视图时,命中视图确定模块172提供用于确定子事件已在一个或多个视图内的什么地方发生的软件过程。视图由用户能够在显示器上看到的控件和其他元素构成。
与应用程序相关联的用户界面的另一方面是一组视图,本文中有时也称为应用程序视图或用户界面窗口,在其中显示信息并且发生基于触摸的手势。在其中检测到触摸的(相应应用程序的)应用程序视图任选地对应于在应用程序的程序化或视图分级结构内的程序化水平。例如,在其中检测到触摸的最低水平视图任选地被称为命中视图,并且被识别为正确输入的事件集任选地至少部分地基于初始触摸的命中视图来确定,所述初始触摸开始基于触摸的手势。
命中视图确定模块172接收与基于触摸的手势的子事件相关的信息。当应用程序具有以分级结构组织的多个视图时,命中视图确定模块172将命中视图识别为应当对子事件进行处理的分级结构中的最低视图。在大多数情况下,命中视图是发起子事件(例如,形成事件或潜在事件的子事件序列中的第一子事件)在其中发生的最低水平视图。一旦命中视图被命中视图确定模块172识别,命中视图便通常接收与其被识别为命中视图所针对的同一触摸或输入源相关的所有子事件。
活动事件识别器确定模块173确定视图分级结构内的哪个或哪些视图应接收特定子事件序列。在一些实施方案中,活动事件识别器确定模块173确定仅命中视图应接收特定子事件序列。在其他实施方案中,活动事件识别器确定模块173确定包括子事件的物理位置的所有视图是活跃参与的视图,并因此确定所有活跃参与的视图都应接收特定子事件序列。在其他实施方案中,即使触摸子事件完全被局限到与一个特定视图相关联的区域,分级结构中的较高视图将仍然保持为活跃参与的视图。
事件分配器模块174将事件信息分配到事件识别器(例如,事件识别器180)。在包括活动事件识别器确定模块173的实施方案中,事件分配器模块174将事件信息递送到由活动事件识别器确定模块173确定的事件识别器。在一些实施方案中,事件分配器模块174在事件队列中存储事件信息,该事件信息由相应事件接收器182进行检索。
在一些实施方案中,操作系统126包括事件分类器170。另选地,应用程序136-1包括事件分类器170。在又一个实施方案中,事件分类器170是独立模块,或者是存储在存储器102中的另一个模块(诸如,接触/运动模块130)的一部分。
在一些实施方案中,应用程序136-1包括多个事件处理程序190和一个或多个应用程序视图191,其中的每一个都包括用于处理发生在应用程序的用户界面的相应视图内的触摸事件的指令。应用程序136-1的每个应用程序视图191包括一个或多个事件识别器180。通常,相应应用程序视图191包括多个事件识别器180。在其他实施方案中,事件识别器180中的一个或多个事件识别器是独立模块的一部分,该独立模块为诸如用户界面工具包或应用程序136-1从中继承方法和其他属性的更高级别的对象。在一些实施方案中,相应事件处理程序190包括以下各项中的一者或多者:数据更新器176、对象更新器177、GUI更新器178、和/或从事件分类器170接收的事件数据179。事件处理程序190任选地利用或调用数据更新器176、对象更新器177或GUI更新器178来更新应用程序内部状态192。另选地,应用程序视图191中的一个或多个应用程序视图包括一个或多个相应事件处理程序190。另外,在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178中的一者或多者被包括在相应应用程序视图191中。
相应的事件识别器180从事件分类器170接收事件信息(例如,事件数据179),并且根据事件信息识别事件。事件识别器180包括事件接收器182和事件比较器184。在一些实施方案中,事件识别器180还包括元数据183和事件传递指令188(其任选地包括子事件递送指令)的至少一个子集。
事件接收器182从事件分类器170接收事件信息。事件信息包括关于子事件例如触摸或触摸移动的信息。根据子事件,事件信息还包括附加信息,诸如子事件的位置。当子事件涉及触摸的运动时,事件信息任选地还包括子事件的速率和方向。在一些实施方案中,事件包括设备从一个取向旋转到另一取向(例如,从纵向取向旋转到横向取向,或反之亦然),并且事件信息包括关于设备的当前取向(也被称为设备姿态)的对应信息。
事件比较器184将事件信息与预定义的事件或子事件定义进行比较,并且基于该比较来确定事件或子事件,或者确定或更新事件或子事件的状态。在一些实施方案中,事件比较器184包括事件定义186。事件定义186包含事件的定义(例如,预定义的子事件序列),例如事件1(187-1)、事件2(187-2)以及其他。在一些实施方案中,事件(187)中的子事件例如包括触摸开始、触摸结束、触摸移动、触摸取消和多点触摸。在一个示例中,事件1(187-1)的定义是被显示对象上的双击。例如,双击包括被显示对象上的预先确定时长的第一触摸(触摸开始)、预先确定时长的第一抬离(触摸结束)、被显示对象上的预先确定时长的第二触摸(触摸开始)以及预先确定时长的第二抬离(触摸结束)。在另一个示例中,事件2(187-2)的定义是被显示对象上的拖动。例如,拖动包括被显示对象上的预先确定时长的触摸(或接触)、触摸在触敏显示器112上的移动、以及触摸的抬离(触摸结束)。在一些实施方案中,事件还包括用于一个或多个相关联的事件处理程序190的信息。
在一些实施方案中,事件定义187包括对用于相应用户界面对象的事件的定义。在一些实施方案中,事件比较器184执行命中测试以确定哪个用户界面对象与子事件相关联。例如,在触敏显示器112上显示三个用户界面对象的应用程序视图中,当在触敏显示器112上检测到触摸时,事件比较器184执行命中测试以确定这三个用户界面对象中的哪一个用户界面对象与该触摸(子事件)相关联。如果每个所显示对象与相应事件处理程序190相关联,则事件比较器使用该命中测试的结果来确定哪个事件处理程序190应当被激活。例如,事件比较器184选择与子事件和触发该命中测试的对象相关联的事件处理程序。
在一些实施方案中,相应事件(187)的定义还包括延迟动作,该延迟动作延迟事件信息的递送,直到已确定子事件序列确实对应于或不对应于事件识别器的事件类型。
当相应事件识别器180确定子事件序列不与事件定义186中的任何事件匹配时,该相应事件识别器180进入事件不可能、事件失败或事件结束状态,在此之后忽略基于触摸的手势的后续子事件。在这种情况下,对于命中视图保持活动的其他事件识别器(如果有的话)继续跟踪并处理持续进行的基于触摸的手势的子事件。
在一些实施方案中,相应事件识别器180包括具有指示事件递送系统应当如何执行对活跃参与的事件识别器的子事件递送的可配置属性、标记和/或列表的元数据183。在一些实施方案中,元数据183包括指示事件识别器彼此如何交互或如何能够交互的可配置属性、标志和/或列表。在一些实施方案中,元数据183包括指示子事件是否递送到视图或程序化分级结构中的不同层级的可配置属性、标志和/或列表。
在一些实施方案中,当事件的一个或多个特定子事件被识别时,相应事件识别器180激活与事件相关联的事件处理程序190。在一些实施方案中,相应事件识别器180将与事件相关联的事件信息递送到事件处理程序190。激活事件处理程序190不同于将子事件发送(和延期发送)到相应命中视图。在一些实施方案中,事件识别器180抛出与所识别的事件相关联的标记,并且与该标记相关联的事件处理程序190获取该标记并执行预定义过程。
在一些实施方案中,事件递送指令188包括递送关于子事件的事件信息而不激活事件处理程序的子事件递送指令。相反,子事件递送指令将事件信息递送到与子事件序列相关联的事件处理程序或者递送到活跃参与的视图。与子事件序列或与活跃参与的视图相关联的事件处理程序接收事件信息并执行预先确定的过程。
在一些实施方案中,数据更新器176创建并更新在应用程序136-1中使用的数据。例如,数据更新器176对联系人模块137中所使用的电话号码进行更新,或者对视频播放器模块中所使用的视频文件进行存储。在一些实施方案中,对象更新器177创建并更新在应用程序136-1中使用的对象。例如,对象更新器177创建新的用户界面对象或更新用户界面对象的位置。GUI更新器178更新GUI。例如,GUI更新器178准备显示信息,并且将显示信息发送到图形模块132用以显示在触敏显示器上。
在一些实施方案中,事件处理程序190包括数据更新器176、对象更新器177和GUI更新器178,或具有对该数据更新器、该对象更新器和该GUI更新器的访问权限。在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178被包括在相应应用程序136-1或应用程序视图191的单个模块中。在其他实施方案中,它们被包括在两个或更多个软件模块中。
应当理解,关于触敏显示器上的用户触摸的事件处理的上述论述还适用于利用输入设备来操作多功能设备100的其他形式的用户输入,并不是所有用户输入都是在触摸屏上发起的。例如,任选地与单次或多次键盘按下或按住协作的鼠标移动和鼠标按钮按下;触控板上的接触移动,诸如轻击、拖动、滚动等;触笔输入;设备的移动;口头指令;检测到的眼睛移动;生物特征输入;和/或它们的任何组合任选地被用作对应于限定要识别的事件的子事件的输入。
图2示出了根据一些实施方案的具有触摸屏112的便携式多功能设备100。触摸屏任选地在用户界面(UI)200内显示一个或多个图形。在本实施方案以及下文所述的其他实施方案中,用户能够通过例如利用一根或多根手指202(在图中未按比例绘制)或一支或多支触笔203(在图中未按比例绘制)在图形上作出手势来选择这些图形中的一个或多个图形。在一些实施方案中,当用户中断与一个或多个图形的接触时,将发生对一个或多个图形的选择。在一些实施方案中,手势任选地包括一次或多次轻击、一次或多次轻扫(从左向右、从右向左、向上和/或向下)和/或已与设备100发生接触的手指的滚动(从右向左、从左向右、向上和/或向下)。在一些具体实施中或在一些情况下,不经意地与图形接触不会选择图形。例如,当与选择对应的手势是轻击时,在应用程序图标上方扫动的轻扫手势任选地不会选择对应的应用程序。
设备100任选地还包括一个或多个物理按钮,诸如“home”或菜单按钮204。如前所述,菜单按钮204任选地用于导航到任选地在设备100上被执行的一组应用程序中的任何应用程序136。另选地,在一些实施方案中,菜单按钮被实现为被显示在触摸屏112上的GUI中的软键。
在一些实施方案中,设备100包括触摸屏112、菜单按钮204、用于使设备开机/关机和用于锁定设备的下压按钮206、一个或多个音量调节按钮208、用户身份模块(SIM)卡槽210、耳麦插孔212和对接/充电外部端口124。下压按钮206任选地用于通过压下该按钮并且将该按钮保持在压下状态持续预定义的时间间隔来对设备进行开/关机;通过压下该按钮并在该预定义的时间间隔过去之前释放该按钮来锁定设备;和/或对设备进行解锁或发起解锁过程。在另选的实施方案中,设备100还通过麦克风113接受用于激活或去激活某些功能的语音输入。设备100还任选地包括用于检测触摸屏112上的接触的强度的一个或多个接触强度传感器165,和/或用于为设备100的用户生成触觉输出的一个或多个触觉输出发生器167。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。设备300不必是便携式的。在一些实施方案中,设备300是膝上型电脑、台式计算机、平板电脑、多媒体播放器设备、导航设备、教育设备(诸如儿童学习玩具)、游戏系统或控制设备(例如,家用控制器或工业用控制器)。设备300通常包括一个或多个处理单元(CPU)310、一个或多个网络或其他通信接口360、存储器370和用于使这些部件互连的一条或多条通信总线320。通信总线320任选地包括使系统部件互连并且控制系统部件之间的通信的电路(有时称作芯片组)。设备300包括具有显示器340的输入/输出(I/O)接口330,该显示器通常是触摸屏显示器。I/O接口330还任选地包括键盘和/或鼠标(或其他指向设备)350和触控板355、用于在设备300上生成触觉输出的触觉输出发生器357(例如,类似于上文参考图1A所述的触觉输出发生器167)、传感器359(例如,光学传感器、加速度传感器、接近传感器、触敏传感器和/或接触强度传感器(类似于上文参考图1A所述的接触强度传感器165))。存储器370包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM,或其他随机存取固态存储器设备;并且任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器370任选地包括远离CPU 310定位的一个或多个存储设备。在一些实施方案中,存储器370存储与便携式多功能设备100(图1A)的存储器102中存储的程序、模块和数据结构类似的程序、模块和数据结构或其子集。此外,存储器370任选地存储在便携式多功能设备100的存储器102中不存在的附加程序、模块和数据结构。例如,设备300的存储器370任选地存储绘图模块380、呈现模块382、文字处理模块384、网站创建模块386、盘编辑模块388、和/或电子表格模块390,而便携式多功能设备100(图1A)的存储器102任选地不存储这些模块。
图3中的上述元素中的每个元素任选地存储于先前提到的存储器设备的一个或多个存储器设备中。上述模块中的每个模块对应于用于执行上述功能的指令集。上述模块或程序(例如,指令集)不必被实现为单独的软件程序、过程或模块,并且因此这些模块的各种子集任选地在各种实施方案中被组合或以其他方式重新布置。在一些实施方案中,存储器370任选地存储上述模块和数据结构的子组。此外,存储器370任选地存储上文未描述的附加模块和数据结构。
现在将注意力转到任选地在例如便携式多功能设备100上实现的用户界面的实施方案。
图4A示出了根据一些实施方案的便携式多功能设备100上的应用程序菜单的示例性用户界面。类似的用户界面任选地在设备300上实现。在一些实施方案中,用户界面400包括以下元件或者其子集或超集:
·无线通信诸如蜂窝信号和Wi-Fi信号的信号强度指示符402;
·时间404;
·蓝牙指示符405;
·电池状态指示符406;
·具有针对常用应用程序的图标的托盘408,该图标诸如:
ο电话模块138的被标记为“电话”的图标416,该图标416任选地包括未接来电或语音信箱的数量的指示符414;
ο电子邮件客户端模块140的被标记为“邮件”的图标418,该图标418任选地包括未读电子邮件的数量的指示符410;
ο浏览器模块147的标记为“浏览器”的图标420;以及
ο视频和音乐播放器模块152(也称为iPod(苹果公司(Apple Inc.)的商标)模块152)的被标记为“iPod”的图标422;以及
·其他应用的图标,诸如:
οIM模块141的被标记为“消息”的图标424;
ο日历模块148的被标记为“日历”的图标426;
ο图像管理模块144的被标记为“照片”的图标428;
ο相机模块143的被标记为“相机”的图标430;
ο在线视频模块155的被标记为“在线视频”的图标432;
ο股市桌面小程序149-2的被标记为“股市”的图标434;
ο地图模块154的被标记为“地图”的图标436;
ο天气桌面小程序149-1的被标记为“天气”的图标438;
ο闹钟桌面小程序149-4的被标记为“时钟”的图标440;
ο健身支持模块142的被标记为“健身支持”的图标442;
ο记事本模块153的标记为“记事本”的图标444;以及
ο设置应用程序或模块的被标记为“设置”的图标446,该图标提供对设备100及其各种应用程序136的设置的访问。
应当指出的是,图4A中示出的图标标签仅是示例性的。例如,视频和音乐播放器模块152的图标422被标记“音乐”或“音乐播放器”。对于各种应用程序图标任选地使用其他标签。在一些实施方案中,相应应用程序图标的标签包括与该相应应用程序图标对应的应用程序的名称。在一些实施方案中,特定应用程序图标的标签不同于与该特定应用程序图标对应的应用程序的名称。
图4B示出了具有与显示器450(例如,触摸屏显示器112)分开的触敏表面451(例如,图3的平板电脑或触控板355)的设备(例如,图3的设备300)上的示例性用户界面。设备300还任选地包括用于检测触敏表面451上的接触的强度的一个或多个接触强度传感器(例如,传感器359中的一个或多个传感器)和/或用于为设备300的用户生成触觉输出的一个或多个触觉输出发生器357。
尽管将参考触摸屏显示器112(其中组合了触敏表面和显示器)上的输入给出以下示例中的一些示例,但是在一些实施方案中,设备检测与显示器分开的触敏表面上的输入,如图4B中所示。在一些实施方案中,触敏表面(例如,图4B中的451)具有与显示器(例如,450)上的主轴(例如,图4B中的453)对应的主轴(例如,图4B中的452)。根据这些实施方案,设备检测在与显示器上的相应位置对应的位置(例如,在图4B中,460对应于468并且462对应于470)处与触敏表面451的接触(例如,图4B中的460和462)。这样,当触敏表面(例如,图4B中的451)与多功能设备的显示器(例如,图4B中的450)分开时,由设备在该触敏表面上检测到的用户输入(例如,接触460和462以及它们的移动)被该设备用于操纵该显示器上的用户界面。应当理解,类似的方法任选地用于本文所述的其他用户界面。
另外,虽然主要是参考手指输入(例如,手指接触、单指轻击手势、手指轻扫手势)来给出下面的示例,但是应当理解的是,在一些实施方案中,这些手指输入中的一个或多个手指输入由来自另一输入设备的输入(例如,基于鼠标的输入或触笔输入)替代。例如,轻扫手势任选地由鼠标点击(例如,而不是接触),之后是光标沿着轻扫的路径的移动(例如,而不是接触的移动)替代。又如,轻击手势任选地由在光标位于轻击手势的位置上方时的鼠标点击(例如,代替对接触的检测,之后是停止检测接触)替代。类似地,当同时检测到多个用户输入时,应当理解的是,多个计算机鼠标任选地被同时使用,或鼠标和手指接触任选地被同时使用。
图5A示出了示例性个人电子设备500。设备500包括主体502。在一些实施方案中,设备500可包括相对于设备100和300(例如,图1A至图4B)所述的特征中的一些或全部特征。在一些实施方案中,设备500具有在下文中称为触摸屏504的触敏显示屏504。作为触摸屏504的替代或补充,设备500具有显示器和触敏表面。与设备100和300的情况一样,在一些实施方案中,触摸屏504(或触敏表面)任选地包括用于检测所施加的接触(例如,触摸)强度的一个或多个强度传感器。触摸屏504(或触敏表面)的一个或多个强度传感器可提供表示触摸的强度的输出数据。设备500的用户界面可基于触摸的强度来对触摸作出响应,这意味着不同强度的触摸可调用设备500上的不同用户界面操作。
用于检测和处理触摸强度的示例性技术见于例如以下相关专利申请中:2013年5月8日提交的名称为“用于显示对应于应用程序的用户界面对象的设备、方法和图形用户界面(Device,Method,and Graphical User Interface for Displaying User InterfaceObjects Corresponding to an Application)”的国际专利申请序列No.PCT/US2013/040061,发布为WIPO专利公开No.WO/2013/169849;以及2013年11月11日提交的名称为“用于在触摸输入到显示输出关系之间转换的设备、方法和图形用户界面(Device,Method,andGraphical User Interface for Transitioning Between Touch Input to DisplayOutput Relationships)”的国际专利申请序列No.PCT/US2013/069483,发布为WIPO专利公开No.WO/2014/105276,该每个专利申请据此全文以引用方式并入。
在一些实施方案中,设备500具有一个或多个输入机构506和508。输入机构506和508(如果包括的话)可以是物理形式的。物理输入机构的示例包括下压按钮和可旋转机构。在一些实施方案中,设备500具有一个或多个附接机构。此类附接机构(如果包括的话)可允许将设备500与例如帽子、眼镜、耳环、项链、衬衣、夹克、手镯、表带、手链、裤子、皮带、鞋子、钱包、背包等附接。这些附接机构允许用户穿戴设备500。
图5B示出了示例性个人电子设备500。在一些实施方案中,设备500可包括参考图1A、图1B和图3所述的部件中的一些或全部部件。设备500具有总线512,该总线将I/O部分514与一个或多个计算机处理器516和存储器518操作性地耦接。I/O部分514可连接到显示器504,该显示器可具有触敏部件522并且任选地具有强度传感器524(例如,接触强度传感器)。此外,I/O部分514可与通信单元530连接,用于使用Wi-Fi、蓝牙、近场通信(NFC)、蜂窝和/或其他无线通信技术来接收应用程序和操作系统数据。设备500可包括输入机构506和/或508。例如,输入机构506任选地是可旋转输入设备或者可按压输入设备以及可旋转输入设备。在一些示例中,输入机构508任选地是按钮。
在一些示例中,输入机构508任选地是麦克风。个人电子设备500任选地包括各种传感器,诸如GPS传感器532、加速度计534、定向传感器540(例如,罗盘)、陀螺仪536、运动传感器538和/或其组合,所有这些设备均可操作地连接到I/O部分514。
个人电子设备500的存储器518可包括用于存储计算机可执行指令的一个或多个非暂态计算机可读存储介质,该计算机可执行指令例如当由一个或多个计算机处理器516执行时可使计算机处理器执行下文所述的技术,包括过程900(图9)。计算机可读存储介质可以是可有形地包含或存储计算机可执行指令以供指令执行系统、装置和设备使用或与其结合的任何介质。在一些示例中,存储介质是暂态计算机可读存储介质。在一些示例中,存储介质是非暂态计算机可读存储介质。非暂态计算机可读存储介质可包括但不限于磁存储装置、光学存储装置、和/或半导体存储装置。此类存储装置的示例包括磁盘、基于CD、DVD或蓝光技术的光盘,以及持久性固态存储器诸如闪存、固态驱动器等。个人电子设备500不限于图5B的部件和配置,而是可包括多种配置中的其他部件或附加部件。
如本文所用,术语“示能表示”是指任选地在设备100、300和/或500(图1A、图3和图5A至图5B)的显示屏上显示的用户交互式图形用户界面对象。例如,图像(例如,图标)、按钮和文本(例如,超链接)任选地各自构成示能表示。
如本文所用,术语“焦点选择器”是指用于指示用户正与之进行交互的用户界面的当前部分的输入元件。在包括光标或其他位置标记的一些具体实施中,光标充当“焦点选择器”,使得当光标在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)上方时在触敏表面(例如,图3中的触控板355或图4B中的触敏表面451)上检测到输入(例如,按压输入)的情况下,该特定用户界面元素根据所检测到的输入而被调节。在包括能够实现与触摸屏显示器上的用户界面元素的直接交互的触摸屏显示器(例如,图1A中的触敏显示器系统112或图4A中的触摸屏112)的一些具体实施中,在触摸屏上所检测到的接触充当“焦点选择器”,使得当在触摸屏显示器上在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)的位置处检测到输入(例如,由接触进行的按压输入)时,该特定用户界面元素根据所检测到的输入而被调节。在一些具体实施中,焦点从用户界面的一个区域移动到用户界面的另一个区域,而无需光标的对应移动或触摸屏显示器上的接触的移动(例如,通过使用制表键或箭头键将焦点从一个按钮移动到另一个按钮);在这些具体实施中,焦点选择器根据焦点在用户界面的不同区域之间的移动而移动。不考虑焦点选择器所采取的具体形式,焦点选择器通常是由用户控制的以便递送与用户界面的用户预期的交互(例如,通过向设备指示用户界面的用户期望与其进行交互的元素)的用户界面元素(或触摸屏显示器上的接触)。例如,在触敏表面(例如,触控板或触摸屏)上检测到按压输入时,焦点选择器(例如,光标、接触或选择框)在相应按钮上方的位置将指示用户期望激活相应按钮(而不是设备显示器上示出的其他用户界面元素)。
如说明书和权利要求中所使用的,接触的“特征强度”这一术语是指基于接触的一个或多个强度的接触的特征。在一些实施方案中,特征强度基于多个强度样本。特征强度任选地基于相对于预定义事件(例如,在检测到接触之后,在检测到接触抬离之前,在检测到接触开始移动之前或之后,在检测到接触结束之前,在检测到接触的强度增大之前或之后和/或在检测到接触的强度减小之前或之后)而言在预先确定的时间段(例如,0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒)期间采集的预定义数量的强度样本或一组强度样本。接触的特征强度任选地基于以下各项中的一者或多者:接触的强度的最大值、接触的强度的均值、接触的强度的平均值、接触的强度的前10%处的值、接触的强度的半最大值、接触的强度的90%最大值等。在一些实施方案中,在确定特征强度时使用接触的持续时间(例如,在特征强度是接触的强度在时间上的平均值时)。在一些实施方案中,将特征强度与一组一个或多个强度阈值进行比较,以确定用户是否已执行操作。例如,该组一个或多个强度阈值任选地包括第一强度阈值和第二强度阈值。在该示例中,特征强度未超过第一阈值的接触导致第一操作,特征强度超过第一强度阈值但未超过第二强度阈值的接触导致第二操作,而特征强度超过第二阈值的接触导致第三操作。在一些实施方案中,使用特征强度与一个或多个阈值之间的比较来确定是否要执行一个或多个操作(例如,是执行相应操作还是放弃执行相应操作)而不是用于确定执行第一操作还是第二操作。
在一些实施方案中,识别手势的一部分以用于确定特征强度。例如,触敏表面任选地接收连续的轻扫接触,该连续的轻扫接触从起始位置过渡并到达结束位置,在该结束位置处,接触强度增加。在该示例中,接触在结束位置处的特征强度任选地仅基于连续轻扫接触的一部分,而不是整个轻扫接触(例如,仅结束位置处的轻扫接触的部分)。在一些实施方案中,在确定接触的特征强度之前任选地向轻扫接触的强度应用平滑算法。例如,平滑化算法任选地包括以下各项中的一种或多种:不加权滑动平均平滑化算法、三角平滑化算法、中值滤波器平滑化算法和/或指数平滑化算法。在一些情况下,这些平滑化算法消除了轻扫接触的强度中的窄的尖峰或凹陷,以实现确定特征强度的目的。
任选地相对于一个或多个强度阈值诸如接触检测强度阈值、轻按压强度阈值、深按压强度阈值和/或一个或多个其他强度阈值来表征触敏表面上的接触强度。在一些实施方案中,轻按压强度阈值对应于这样的强度:在该强度下设备将执行通常与点击物理鼠标或触控板的按钮相关联的操作。在一些实施方案中,深按压强度阈值对应于这样的强度:在该强度下设备将执行与通常与点击物理鼠标或触控板的按钮相关联的操作不同的操作。在一些实施方案中,当检测到特征强度低于轻按压强度阈值(例如,并且高于标称接触检测强度阈值,比标称接触检测强度阈值低的接触不再被检测到)的接触时,设备将根据接触在触敏表面上的移动来移动焦点选择器,而不执行与轻按压强度阈值或深按压强度阈值相关联的操作。一般来讲,除非另有陈述,否则这些强度阈值在不同组的用户界面附图之间是一致的。
接触特征强度从低于轻按压强度阈值的强度增大到介于轻按压强度阈值与深按压强度阈值之间的强度有时被称为“轻按压”输入。接触特征强度从低于深按压强度阈值的强度增大到高于深按压强度阈值的强度有时被称为“深按压”输入。接触特征强度从低于接触检测强度阈值的强度增大到介于接触检测强度阈值与轻按压强度阈值之间的强度有时被称为检测到触摸表面上的接触。接触特征强度从高于接触检测强度阈值的强度减小到低于接触检测强度阈值的强度有时被称为检测到接触从触摸表面抬离。在一些实施方案中,接触检测强度阈值为零。在一些实施方案中,接触检测强度阈值大于零。
在本文中所述的一些实施方案中,响应于检测到包括相应按压输入的手势或响应于检测到利用相应接触(或多个接触)执行的相应按压输入来执行一个或多个操作,其中至少部分地基于检测到该接触(或多个接触)的强度增大到高于按压输入强度阈值而检测到相应按压输入。在一些实施方案中,响应于检测到相应接触的强度增大到高于按压输入强度阈值(例如,相应按压输入的“向下冲程”)来执行相应操作。在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于按压输入强度阈值,并且响应于检测到相应接触的强度随后减小到低于按压输入阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。
在一些实施方案中,设备采用强度滞后以避免有时被称为“抖动”的意外输入,其中设备限定或选择与按压输入强度阈值具有预定义关系的滞后强度阈值(例如,滞后强度阈值比按压输入强度阈值低X个强度单位,或滞后强度阈值是按压输入强度阈值的75%、90%或某个合理比例)。因此,在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于对应于按压输入强度阈值的滞后强度阈值,并且响应于检测到相应接触的强度随后减小到低于滞后强度阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。类似地,在一些实施方案中,仅在设备检测到接触强度从等于或低于滞后强度阈值的强度增大到等于或高于按压输入强度阈值的强度并且任选地接触强度随后减小到等于或低于滞后强度的强度时才检测到按压输入,并且响应于检测到按压输入(例如,根据环境,接触强度增大或接触强度减小)来执行相应操作。
为了容易解释,任选地,响应于检测到以下各种情况中的任一种情况而触发对响应于与按压输入强度阈值相关联的按压输入或响应于包括按压输入的手势而执行的操作的描述:接触强度增大到高于按压输入强度阈值、接触强度从低于滞后强度阈值的强度增大到高于按压输入强度阈值的强度、接触强度减小到低于按压输入强度阈值、和/或接触强度减小到低于与按压输入强度阈值对应的滞后强度阈值。另外,在将操作描述为响应于检测到接触的强度减小到低于按压输入强度阈值而执行的示例中,任选地响应于检测到接触的强度减小到低于对应于并且小于按压输入强度阈值的滞后强度阈值来执行操作。
如本文所用,“已安装的应用”是指已下载到电子设备(例如,设备100、300和/或500)上并准备好在设备上启动(例如,变为打开)的软件应用。在一些实施方案中,下载的应用利用安装程序而变为已安装的应用,安装程序从下载的软件包提取程序部分并将提取的部分与计算机系统的操作系统集成。
如本文所用,术语“打开的应用”或“执行中的应用”是指具有保持状态信息(例如,作为设备/全局内部状态157和/或应用内部状态192的一部分)的软件应用。打开的或执行中的应用是任选地以下类型的应用中的任一者:
·当前显示于正使用应用的设备的显示屏上的活动应用;
·后台应用(或后台进程),其当前未显示但该应用的一个或多个进程正由一个或多个处理器处理;以及
·没有运行但具有被存储在存储器(分别有易失性和非易失性的)中并可用于恢复应用的执行的状态信息的暂停的或休眠的应用。
如本文所用,术语“关闭的应用”是指不具有保持状态信息的软件应用(例如,关闭的应用的状态信息不被存储在设备的存储器中)。因此,关闭应用包括停止和/或移除应用的应用进程以及从设备的存储器移除应用的状态信息。一般来讲,当在第一应用中时,打开第二应用并不关闭第一应用。在显示第二应用并且第一应用停止显示时,第一应用变为后台应用。
现在将注意力转到在电子设备(诸如便携式多功能设备100、设备300或设备500)上实现的用户界面(“UI”)以及相关联的过程的实施方案。
图6、图7A至图7F、和图8A至图8F示出了根据一些实施方案的用于执行音频定时同步过程的示例性用户界面。这些附图中的用户界面用于示出下文所述的包括图9中的过程的过程。
图6示出了示例性家庭媒体系统600中的示例性电子设备的示例性布置。在一些实施方案中,家庭媒体系统(例如,600)包括一个或多个电子设备(例如,602、606、608A、608B)。在该示例中,家庭媒体系统600包括家庭媒体中心602、显示设备606(例如,电视)和音频输出设备608A-608B。在一些实施方案中,设备602、设备606、和设备608各自包括设备100、300、500和580的一个或多个特征。
如图6所示,家庭媒体系统600包括家庭媒体中心602。在一些实施方案中,家庭媒体中心(例如,602)是包括以下特征中的一者或多者的设备:媒体内容(例如,视频和/或音频)存储、媒体内容流传输(例如,经由网络连接)、视频输出(例如,经由HDMI和/或其他有线或无线连接)、音频输出(例如,经由HDMI、光学接口、和/或其他有线或无线连接)、一个或多个显示设备(例如,屏幕)、到一个或多个外部显示设备(例如,电视)的输出、用户界面(例如,图形用户界面)、以及对经由外部设备(例如,遥控器)的用户输入和控制的支持(例如,经由红外通信、蓝牙通信等)。家庭媒体中心的一个示例是由Apple Inc.(Cupertino,California)生产的“Apple TV”设备。
示例性家庭媒体系统600还包括显示设备606(例如,电视)。在该示例中,显示设备606(例如,经由HDMI)连接到家庭媒体中心602,并且家庭媒体中心602导致在显示设备606上显示内容(例如,图形用户界面、媒体内容)(例如,因为家庭媒体中心602不包括显示器)。
示例性家庭媒体系统600还包括音频输出设备608A和608B,在该示例中,它们是智能扬声器。在一些实施方案中,音频输出设备(例如,608A、608B)连接到以下中的一者或多者:一个或多个家庭媒体中心(例如,602)(例如,经由HDMI、光学接口和/或其他有线或无线连接)、一个或多个显示设备(例如,606)(例如,经由HDMI、光学接口、和/或其他有线或无线连接)、以及一个或多个音频放大器(例如,当音频输出设备为普通扬声器时)(例如,其经由HDMI、光学接口、和/或其他有线或无线连接而连接到602和606中的一者或多者)。在该示例中,音频输出设备608A和608B经由无线连接(例如,Wi-Fi)连接到家庭媒体中心602。音频输出设备608A和608B可被配置为彼此同步地并且与其他设备(例如,显示设备606)输出的音频同步地输出内容(例如,媒体、应用程序等)的音频(例如,音乐、对话、音调等)。例如,智能扬声器608A和608B可用作音频输出设备,其在家庭媒体中心602和/或显示设备606(例如,作为显示设备606的扬声器的补充或替代)的方向上(例如由其输出,从其接收)提供内容的音频输出。例如,家庭媒体中心602的界面可用于选择用于回放的音乐或电影,并且家庭媒体中心602然后可导致与所选择的媒体内容相关联的音频输出在显示设备606的扬声器处以及在音频输出设备608A和608B处输出(例如,通过将数据传输给那些外部设备606、608A和608B)。导致(例如,在外部设备处)输出音频内容可包括以下各项中的一者或多者:提供表示该内容的数据(例如,音频轨迹的流)、以及提供哪里可访问此类内容的数据(例如,局域网上的位置、广域网上的位置(例如,音乐流传输服务的互联网地址))。在各个设备之间的经协调内容输出的此类示例中,正在输出音频的各个设备之间的音频输出的定时同步是重要的,因为收听者能察觉到在收听者位置处来自不同音频输出源的音频输出的到达时间上的甚至微小差异。
图6中还示出了握持示例性电子设备、智能电话604并定位在收听位置处的用户610。在一些实施方案中,智能电话604包括设备100、300和500的一个或多个特征。在该示例中,智能电话604包括显示设备604A、一个或多个麦克风、和通信设备。智能电话604通过连接到公共网络(例如,家庭Wi-Fi网络)而连接到家庭媒体中心602。因此,家庭媒体中心602和智能电话604可经由公共网络进行通信(例如,交换数据)。图6还包括用户610附近的平板电脑612。在一些实施方案中,平板电脑612包括设备100、300和500的一个或多个特征,包括一个或多个麦克风和通信设备。
如果家庭媒体系统尚未被优化,则使用家庭媒体系统(例如,600)的音频输出可导致非预期和负面效应。在一个示例中,使用不同相应连接的不同设备(例如,606、608A、608B)的使用(例如,显示设备606具有到家庭媒体中心602的有线连接,音频输出设备608A和608B具有到家庭媒体中心602的无线连接)可导致音频输出在音频信号被第一设备(例如,家庭媒体中心602)输出时与音频输出到达收听者位置时之间具有不同的时间延迟。又如,相应音频输出设备和收听者之间的不同距离可导致来自音频输出设备中每一者的相应音频输出在不同时间到达收听者位置(例如,因为来自更远音频输出设备的音频输出需要覆盖更大距离以到达收听者)。在此类示例中,来自相应音频输出设备的音频输出(对于收听者)会听起来彼此不同步。在上述示例中的任一者中,用户(例如,收听者)的体验会受到负面影响。然而,用于优化家庭媒体系统的一些技术可能涉及复杂的界面、用户不易获得的专用设备,或者根本不支持。下文相对于图7A至图7F和图8A至图8F提供的技术示出了根据一些实施方案的用于优化家庭媒体系统的有效和高效的过程。
在一些实施方案中,家庭媒体系统(例如,600)可包括一个或多个除上述那些之外的设备。在一些实施方案中,家庭媒体系统可包括多于一个上述设备。在一些实施方案中,家庭媒体系统可包括少于一个上述设备。
图7A至图7F示出了用于使用第一设备(例如,家庭媒体中心602)执行音频定时同步过程的示例性界面。在图7A至图7F的示例中,家庭媒体中心602连接到显示设备606、音频输出设备608A-608B和智能电话604,如上文相对于图6所述。为简单起见,家庭媒体中心602和音频输出设备608A-608B不显示在图7A至图7F中。在图7A至图7F中,家庭媒体中心602导致在显示设备606上显示每个图中所示的相应界面。因此,在这些示例中,显示设备606用作用于显示家庭媒体中心602的界面的外部显示器。图7A至图7F中所述的用户输入在家庭媒体中心602或连接到家庭媒体中心602的外部设备(例如,遥控器)处接收。
图7A示出了示例性家庭媒体中心配置菜单界面710。在该示例中,希望手动开始执行音频定时同步过程的用户导航到界面710。界面710包括用于配置和/或切换与家庭媒体中心602相关联的设置(例如,音频和视频相关的设置)的多个选项,包括用于发起音频定时同步过程的至少一部分的示能表示710A。在图7A中,家庭媒体中心602接收表示用于发起音频定时同步过程的请求的用户输入。例如,家庭媒体中心602接收表示菜单示能表示710A(其包括文本“无线音频同步”)的用户输入选择(例如,来自遥控器)的数据,这在图7A中被突出显示以用于选择。响应于接收到用于发起音频定时同步过程的请求,设备(例如,602)执行定时同步过程的至少一部分(例如,执行下文相对于图7B至图7F所述的动作中的一个动作)。
在一些实施方案中,音频定时同步过程自动(例如,在后台)执行,而不经由用户输入(例如,对示能表示710A的选择)开始。例如,音频定时同步过程可在家庭媒体中心602的初始设置期间以用户不可见的方式执行(例如,不显示指示界面,和/或不输出人类可听音调)。
图7B示出了任选地在家庭媒体中心602执行音频定时同步过程时显示的音频定时同步过程界面720。如图所示,界面720包括文本“无线音频同步”和“您的家庭媒体中心将使用附近设备来测量您的电视播放音频和视频花费多长时间。轻击附近设备上的通知”。因此,界面720向用户提供关于如何继续音频定时同步过程的指令。在该示例中,需要第二设备(例如,智能电话604)处的用户输入(例如,轻击)以继续音频定时同步过程。例如,当家庭媒体中心导致界面720被显示时,智能电话604可在继续音频定时同步过程之前显示等待用户输入806(如图8A所示,其在下文更详细地描述)的通知804。
在一些实施方案中,执行音频定时同步过程包括向一个或多个设备传输对于参与音频定时同步过程的请求。例如,家庭媒体中心602向智能电话604传输对于参与音频定时同步过程的请求(例如,其接收导致智能电话604显示通知804,如图8A所示)。在该示例中,根据接收到对示能表示710A的选择来传输该请求。在一些实施方案中,家庭媒体中心602还向平板电脑612传输对于参与音频定时同步过程的请求。
在一些实施方案中,执行音频定时同步过程包括导致显示可参与音频定时同步过程的一个或多个设备的一个或多个指示(例如,720A)。例如,界面720包括描绘多个设备(例如,平板电脑和智能电话)的指示符720A,指示多个设备中的任一个设备可用于执行音频定时同步过程。家庭媒体中心602向多个附近设备(例如,连接到同一网络(例如,Wi-Fi网络)和/或在无线范围(例如,Wi-Fi范围、蓝牙范围)内的设备)发送对于参与音频定时同步过程的请求。
使用第二设备诸如智能电话604作为音频定时同步过程的一部分可以是有益的。举例来说,可通过使用能够容易地参与音频定时同步过程的用户设备(例如,其包括一个或多个麦克风并且连接到家庭媒体中心602的用户设备)来消除对专用设备的使用。此外,用户可能正将智能电话604握持在需要优化音频定时的相同位置(例如,正常收听位置,如图6中的用户610的位置所示)(例如,基于距该位置和一个或多个音频输出设备的距离)。
图7C至图7D示出了音频定时同步过程界面730,家庭媒体中心602在向一个或多个设备传输对于参与音频定时同步过程的请求之后导致显示该音频定时同步过程界面。例如,家庭媒体中心602接收表示在智能电话604处接收的用户输入806(图8A)和用户输入810(图8B)中的一者或多者的数据,并且根据接收到此类数据,导致显示界面730。界面730包括文本“播放音调”和“从扬声器播放音调”。因此,界面730提供家庭媒体中心602当前正导致输出音频音调(例如,由显示设备606的扬声器输出)的指示。界面730还包括视觉地指示正在输出音频音调的图形指示730A。在该示例中,指示730A包括具有同心圆(例如,表示声波)的显示设备的表示,该同心圆以动画方式从所描绘的显示设备向外散发并在尺寸上增大(例如,在图7D中,图7C中表示声波的圆已增大到更大,并且附加的更小圆在图7D中显示)。
在一些实施方案中,界面包括参与音频定时同步过程的设备的指示。例如,界面730还包括指示符730B,该指示符提供正参与音频定时同步过程的另一设备的指示。如图所示,指示符730B类似于智能电话604的顶部(如图6和图8A所示)。如果替代地在音频定时同步过程中使用平板电脑(图7B的720A中所示),则指示符730B可以是不同的并且提供平板电脑正在音频定时同步过程中使用的指示。提供诸如730B的指示可减少关于哪个设备当前正参与音频定时同步过程的困惑,使得该过程更加用户友好。
在图7C至图7D的示例中,家庭媒体中心602导致显示设备606(电视)通过设备606的扬声器输出音频。所输出的音频可以是一个或多个音频音调(例如,其对于正常人类听觉可以是或者不能是可听的)。音频音调可包括一个或多个音频频率。智能电话604在音频输出的同时(例如,经由一个或多个麦克风)收听一个或多个音频音调。例如,智能电话604在收听音频音调时显示如图8C至图8D所示的界面812,这在下文更详细地进行描述。
图7E示出了家庭媒体中心602响应于成功完成音频定时同步过程而导致显示的界面740。界面740包括文本“音频同步完成”和“您的家庭媒体中心同步了无线音频以匹配您的电视”。界面740还包括指示符740A(例如,指示音频定时同步过程成功,当其包括复选标记时)和示能表示740B(例如,用于终止过程界面并返回界面710)。
在一些实施方案中,成功完成音频定时同步过程包括从参与音频定时同步过程的另一设备(例如,第二设备)(例如,604)接收数据。例如,此类数据可包括以下中的一者或多者:指示检测到音频音调的响应、关于音频音调的定时信息(例如,检测到音频音调时的时间戳)以及其他信息(例如,检测到的音频音调的特征)。例如,在导致输出音频音调之后(例如,在显示界面730时,如图7C至图7D所示),家庭媒体中心602(例如,经由Wi-Fi通信)从智能电话604接收指示智能电话604检测到音调以及与音调的检测相关联的时间戳(例如,开始检测到音调的时间)的数据。
在一些实施方案中,成功完成音频定时同步过程包括导致对一个或多个音频时间同步设置的调节。例如,响应于从智能电话604接收到该数据,家庭媒体中心602导致调节至少一个音频定时同步设置。在该示例中,家庭媒体中心602使用所接收的数据并且确定家庭媒体中心602输出表示音频音调的信号时的时间戳与智能电话604检测到音调时的时间戳之间的时间延迟。该值给出了输出信号时与收听者(例如,当其检测到音调时在智能电话604的位置处,诸如图6中用户的位置)将听到由家庭媒体中心602导致的对应音频输出时之间的时间延迟。在该示例中,调节音频定时同步设置包括基于从智能电话604接收的数据向来自音频输出设备608A和608B的音频输出添加时间延迟。例如,由显示设备606的扬声器导致的音频输出可具有五百毫秒的延迟(例如,从家庭媒体中心602对对应信号的输出到音频输出到达图6中智能电话604的位置处)。如果音频输出设备608A和608B能够输出在由家庭媒体中心602向显示设备606输出对应信号之后三百毫秒到达智能电话604的音频,则存在两百毫秒的同步差异(例如,在执行音频定时同步过程以同步时间延迟之前)(例如,来自音频输出设备608A和608B的声音在由显示设备606输出音频之前两百毫秒到达图6中的设备604的位置)。因此,向设备608A和608B的音频输出引入两百毫秒的延迟,使得在家庭媒体中心602导致输出对应音频信号之后五百毫秒发生发送给显示设备606的相同对应音频信号在这些设备处的音频输出,由此同步各个音频输出设备的音频输出。
在一些实施方案中,音频输出设备(例如,608A、608B)具有已知的音频输出延迟。例如,因为音频输出设备608A和608B是智能扬声器(例如,分别能够在它们和至少一个其他音频输出设备之间同步音频输出),所以可确定它们的音频延迟(例如,通过音频输出设备608A或608B中的一者,通过家庭媒体中心602)。例如,音频输出设备608A可将音频输出的定时与音频输出设备608B同步,这涉及设备608A知道音频输出定时。因此,音频输出设备608A具有确定与其自身音频输出相关联的时间戳(例如,其用于确定时间延迟)或为其自身确定时间延迟的实际值的能力。设备输出音频的时间延迟可能是由于各种因素,包括技术限制。在上面提供的示例中,三百毫秒的延迟表示可归因于接收媒体内容的传输(例如,从家庭媒体中心602,从互联网位置)、此类媒体内容的处理、以及其他基于技术的延迟的延迟。
图7F示出了界面750,根据确定音频定时同步过程未成功完成,家庭媒体中心602导致显示该界面。例如,在导致输出音频音调之后,家庭媒体中心602不从智能电话604接收指示音频音调被智能电话604检测到的数据(或者另选地,从智能电话604接收没有检测到音调或检测到音调但音调不满足某个质量阈值(例如,以太低的音量检测到)的指示),因此家庭媒体中心602导致界面750显示在显示设备606上。界面750包括文本“未检测到音调”和“握持您的设备更靠近您的电视,并且如果需要的话调节音量”。界面750包括(任选的)指示符750A,该指示符以图形方式指示该过程未成功(例如,覆盖有符号“!”的显示设备的描绘)。界面750包括(任选的)示能表示750B,该示能表示在被选择时导致家庭媒体中心602重复输出音频音调(例如,并且导致界面730也再次显示)。
在一些实施方案中,正参与音频定时同步过程的另一设备处的用户输入可导致设备(例如,家庭媒体中心602)重复导致输出音频音调。在一些实施方案中,在第一设备(例如,家庭媒体中心602)处(例如,仅602显示用于导致重复音频音调的可选示能表示)、在第二设备(例如,智能电话604)处(例如,仅604显示用于导致重复音频音调的可选示能表示)、或者在第一设备或第二设备处(例如,602和604两者都导致可选选项被显示在相应的显示设备上)接收用于导致重复音调的用户输入。
图8A至图8F示出了用于使用参与与第一设备(例如,602)的音频定时同步过程的第二设备(例如,604)来执行音频定时同步过程的示例性界面。在图8A至图8F的示例中,智能电话604连接到家庭媒体中心602,该家庭媒体中心连接到显示设备606和音频输出设备608A-608B,如上文相对于图6所述。
图8A示出了提示接受对于参与与第一设备(例如,602)的音频定时同步过程的请求的示例性通知(例如,804)。在一些实施方案中,响应于接收到对于参与音频定时同步过程的请求(例如,来自第一设备,诸如家庭媒体中心602),第二设备(例如,604)显示通知(例如,804)。在该示例中,通知804显示在智能电话604的显示设备604A上的锁定屏幕界面802处。通知804包括文本“电视”和“无线音频同步”以及“轻击以使用该电话来测量您的家庭媒体中心播放音频和视频花费多长时间”。如图8A所示,智能电话604接收表示接受对于参与与第一设备(例如,家庭媒体中心602)的音频定时同步会话的请求的用户输入806(在通知804上的轻击)。在一些实施方案中,响应于接收到表示接受对于参与与第一设备的音频定时同步会话的请求的用户输入(例如,806),第二设备(例如,604)向第一设备(例如,602)传输响应。例如,响应于接收到用户输入806,智能电话604在家庭媒体中心602正导致界面720(图7B)被显示时向家庭媒体中心602传输接受。响应于接收到接受,家庭媒体中心602用界面730(图7C至图7D)替换界面720。在一些实施方案中,响应于接收到表示接受对于参与与第一设备的音频定时同步会话的请求的用户输入(例如,806),第二设备(例如,604)导致显示音频定时同步过程界面(例如,808),并且任选地,停止显示或改变通知(例如,804)的外观。例如,响应于接收到用户输入806,智能电话604显示图8B中的音频定时同步过程界面808。
图8B示出了示例性音频定时同步过程界面808。如图所示,界面808被显示为覆盖在锁定屏幕界面802上,该锁定屏幕界面也以改变后的(例如,变暗的)外观显示(例如,如遮盖通知804的交叉阴影线所示)。界面808包括文本“无线音频同步”和“测量您的电视播放音频花费多长时间”。在一些实施方案中,音频定时同步过程界面(例如,808)包括用于继续进行音频定时同步过程的至少一部分的示能表示(例如,808A)。例如,界面808包括继续示能表示808A。界面808还包括取消示能表示808B(具有文本“现在不用”),该取消示能表示在被选择时使得智能电话604放弃继续音频定时同步过程,并且任选地退出/取消智能电话对音频定时同步过程的参与。
在一些实施方案中,第一设备(例如,602)根据关于在第二设备(例如,604)处接收到用户输入(例如,810)的指示导致输出音频音调。例如,如上所述,示例性第一设备(家庭媒体中心602)可在导致输出音频音调之前等待示例性第二设备(智能电话604)处的用户输入,从而给予用户对何时输出音调的控制以及第二设备的位置的机会(例如,在家庭媒体系统600的正常收听位置处,诸如沙发的中间)。图8B示出了此类输入810。例如,当智能电话604显示界面808时,家庭媒体中心602导致显示图7B的界面720,指示用户在附近设备(诸如智能电话604)处提供用户输入(诸如810)。响应于智能电话604处的用户输入810,家庭媒体中心导致显示图7C的界面730并导致输出音频音调。
图8C示出了示例性音频定时同步过程界面812,智能电话604导致在收听音频音调(例如,第一设备导致输出的,在该示例中为家庭媒体中心602)时显示该音频定时同步过程界面。例如,智能电话604响应于接收到用户输入810(图8B)而显示界面812。界面812包括文本“收听...”和“您的家庭媒体中心正从您的扬声器播放音调”。因此,界面812提供家庭媒体中心602当前正导致输出音频音调(例如,由显示设备606的扬声器输出)的指示。界面812还包括图形指示812A,该图形指示视觉地指示正在输出音频音调(例如,类似于上文相对于界面730所述)和/或智能电话604正在收听音频音调。在该示例中,指示812A包括具有同心圆(例如,表示声波)的显示设备的表示,该同心圆以动画方式从所描绘的显示设备向外散发并在尺寸上增大(例如,在图8D中,图8C中表示声波的圆已增大到更大,并且附加的更小圆在图8D中显示)。
图8E示出了音频定时同步过程界面814,智能电话604响应于成功完成音频定时同步过程而导致显示该音频定时同步过程界面。界面814包括文本“音频同步完成”。界面814还包括指示符814A(例如,指示音频定时同步过程成功,当其包括复选标记时)和示能表示814B(例如,用于终止过程界面并返回界面802,如图8A所示)。在图8E中,智能电话接收表示对示能表示814B的选择的用户输入816(轻击)(例如,使得智能电话604显示锁定屏幕界面802(没有或不改变其外观))。
在一些实施方案中,成功完成音频定时同步过程包括由第二设备(例如,604)将数据传输给参与音频定时同步过程的第一设备(例如,602)。例如,此类数据可包括以下中的一者或多者:指示检测到音频音调的响应、关于音频音调的定时信息(例如,检测到音频音调时的时间戳)以及其他信息(例如,检测到的音频音调的特征)。例如,在检测到音频音调之后(例如,在如图8C至图8D所示显示界面812时),智能电话604(例如,经由Wi-Fi通信)将数据传输给家庭媒体中心602,指示智能电话604检测到音调以及与音调的检测相关联的时间戳(例如,开始检测到音调的时间)。在一些实施方案中,成功完成音频定时同步过程包括接收关于此类数据被第一设备(例如,被602)接收的确认。
在一些实施方案中,成功完成音频定时同步过程包括导致对一个或多个音频时间同步设置的调节。例如,第一设备可导致该调节(例如,家庭媒体中心602,如上所述)。在一些实施方案中,检测到音频音调输出的第二设备导致音频定时同步设置的调节。例如,智能电话604导致至少一个音频定时同步设置的调节,如上文相对于家庭媒体中心602导致音频定时同步设置的调节所述。例如,智能电话604可使用数据(例如,来自音频音调,从第一设备(例如,家庭媒体中心602)接收)并且确定家庭媒体中心602输出表示音频音调的信号时的时间戳与智能电话604检测到音调时的时间戳之间的时间延迟。在此类示例中,调节音频定时同步设置包括将时间延迟添加到来自音频输出设备608A和608B的音频输出,类似于上文相对于图7E所述。在一些实施方案中,成功完成音频定时同步过程包括接收关于音频设置被调节(例如,被602调节)的确认。
图8F示出了音频定时同步过程界面818,智能电话604根据确定音频定时同步过程未成功完成而导致显示该音频定时同步过程界面。例如,在家庭媒体中心602导致输出音频音调之后,智能电话604未成功检测到音频音调。在这种情况下,智能电话604可向家庭媒体中心602传输其未检测到音频音调或检测到音调但音调不满足某个质量阈值(例如,以过低音量检测到)的指示。另选地,智能电话604可放弃向家庭媒体中心602传输关于检测到音调的指示(例如,在这种情况下,家庭媒体中心602在某个超时周期之后推断没有检测到音调)。在音频定时同步过程未成功完成的情况下,智能电话604导致界面818被显示。界面818包括文本“未检测到音调”。界面818包括(任选的)指示符818A,该指示符以图形方式指示该过程未成功(例如,覆盖有符号“!”的显示设备的描绘)。界面818包括(任选的)示能表示818B,该示能表示在被选择时使得家庭媒体中心602重复输出音频音调(例如,类似于如上文相对于图7F的示能表示750B的选择所述)。在一些实施方案中,正参与音频定时同步过程的另一设备(例如,家庭媒体中心602)处的用户输入(例如,图7F的示能表示750B的选择)可使得设备(例如,家庭媒体中心602)重复导致输出音频音调。
在上文相对于图6、图7A至图7F、和图8A至图8F所讨论的示例中,音频定时同步过程被描述成包括至少第一设备(例如,602)和第二设备(例如,604)。在一些实施方案中,音频定时同步过程包括两个或更多个设备。
虽然上文相对于图7A至图7F所述的界面被描述成由示例性设备家庭媒体中心602导致显示,但是此类界面中的一者或多者可由(例如,参与音频定时同步过程的)任何设备显示(或导致显示)。虽然上文相对于图8A至图8F所述的界面被描述成在示例性设备智能电话604上显示,但是此类界面中的一者或多者可由(例如,参与音频定时同步过程的)任何设备显示(或导致显示)。
图9是示出了根据一些实施方案的用于使用电子设备来执行音频定时同步过程的方法的流程图。方法900在具有通信设备(例如,用于经由有线和/或无线传输介质(例如,经由Wi-Fi、蓝牙等)进行通信的发射器和/或接收器电路)的第一设备(例如,家庭媒体中心、智能设备)(例如,100、300、500)处执行。方法900中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法900提供了用于执行音频定时同步过程的直观方式。该方法减少了用户对于执行音频定时同步过程的认知负担,从而创建更有效的人机界面。针对电池驱动的计算设备,使得用户能够更快速且更有效地执行音频定时同步过程节省功率并增长电池两次充电之间的间隔。
第一设备(例如,602)执行(902)音频定时同步过程。
在音频定时同步过程期间,第一设备经由通信设备向第二设备(例如,604)(例如,连接到同一Wi-Fi的设备(例如,智能电话、平板电脑);蓝牙范围内的设备)传输(904)对于第二设备参与音频定时同步过程的请求。在一些实施方案中,第一设备接收关于第二设备将参与音频定时同步过程的确认(例如,接受)。例如,第一设备等待从第二设备接收确认,作为继续进行音频定时同步过程的至少一部分的条件(例如,用于导致显示用户界面(例如,下一界面是一组配置用户界面),用于导致输出音频音调等)。在一些实施方案中,第一设备接收第二确认(例如,在第一确认之后),作为继续进行音频定时同步过程的至少一部分(例如,另一部分)的条件。例如,第一设备接收关于第二设备将参与的确认、以及第二设备何时准备好收听音频音调的后续确认。例如,第二设备处的用户输入可接受对于以第二设备参与的请求,并且第二设备处的后续用户输入可指示应播放音频音调(例如,给予用户机会来定位第二设备,降低环境噪声等)。
在一些实施方案中,传输对于第二设备参与音频定时同步过程的请求还包括第一设备经由通信设备向第四设备(例如,612)(例如,第一设备之外并且第二设备之外的设备)传输对于第四设备参与音频定时同步过程的第二请求(例如,与传输给第二设备的请求相同的请求)(例如,发送给多个单独设备的请求)。在一些实施方案中,从第二设备和/或第四设备接收对于参与音频定时同步过程的确认或接受。例如,从多个设备接收确认/接受(例如,选择接受设备中的一者或多者用于执行音频定时同步过程)。在一些实施方案中,在音频定时同步过程中使用单个设备(例如,第一个进行响应的)。在一些实施方案中,在音频定时同步过程中使用多个设备。在一些实施方案中,向多个(例如,附近)设备传输对于参与音频定时同步过程的请求提供了有效的配置操作,该配置操作增大了找到设备参与音频定时同步过程的机会,从而减少了失败的机会。在一组条件已经被满足时执行最优化操作而不必需要求进一步的用户输入增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过减少所需输入的数量,和/或通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。在一些实施方案中,向多个(例如,附近)设备传输对于参与音频定时同步过程的请求可(例如,向用户)提供用于选择哪个设备将参与与第一设备的音频定时同步过程的选项,并且允许选择优选设备或多个设备进行参与。在一组条件已经被满足时执行最优化操作而不必需要求进一步的用户输入增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过减少所需输入的数量,和/或通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在音频定时同步过程期间,在(例如,响应于第二设备处的用户输入;响应于与第二设备的握手)第一设备向第二设备传输该请求之后,第一设备导致(906)输出音频音调(例如,由第一设备输出,由不同于第一设备和第二设备的一个或多个其他设备输出,和/或由第一设备和所述一个或多个其他设备的某种组合输出)(例如,由TV或音频接收器)。
在一些实施方案中,第一设备连接到显示设备(例如,606)(例如,集成到第一设备中的显示设备,通过有线或无线方式连接到第一设备的显示设备)。在一些实施方案中,在导致输出音频音调时,第一设备导致经由显示设备(例如,在第一设备和/或外部设备(例如,TV)的显示设备上)显示关于正在输出音频音调的图形指示(例如,730A)(例如,动画)。
在一些实施方案中,第一设备接收表示第三用户输入(例如,示能表示710A的选择、示能表示810的选择)(例如,第一设备处的用户输入、与第一设备通信的外部设备(例如,第二设备)(例如,遥控器、智能电话)处的用户输入)的数据。在一些实施方案中,音频定时同步过程的至少一部分由第一设备响应于接收到表示第三用户输入的数据而执行。在一些实施方案中,在导致显示音频定时同步配置界面时,接收第一输入。例如,在第一设备导致外部显示器(例如,TV)显示音频定时同步配置界面时。在一些实施方案中,第一输入表示在音频定时同步配置界面处显示的示能表示的选择。在一些实施方案中,响应于(例如,在第一设备或第二设备处接收的)用户输入而执行音频定时同步过程的至少一部分(例如,向用户)提供用于控制第一设备的音频定时同步过程的定时的控制,并且可允许(例如,由用户)选择优选设备进行参与。提供附加控制选项而不由于附加显示的控件使UI杂乱就增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过减少所需输入的数量,和/或通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),这又通过使用户能够更快速且高效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于接收到表示第三用户输入的数据(例如,响应于第二设备接收到对于参与的请求,在第二设备上显示的通知的选择),传输对于第二设备参与音频定时同步过程的请求(例如,导致显示通知804的请求)。
在一些实施方案中,响应于接收到表示第三用户输入的数据而导致输出音频音调。在一些实施方案中,响应于(例如,在第二设备处接收的)用户输入而输出在音频定时同步过程中使用的音频音调(例如,向用户)提供用于控制由第一设备输出的音频定时同步过程音频的定时的控制。提供附加控制选项而不由于附加显示的控件使UI杂乱就增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过减少所需输入的数量,和/或通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),这又通过使用户能够更快速且高效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在第一设备处(例如,经由与第一设备或与用于控制第一设备并与第一设备通信的遥控器的用户交互)接收第三用户输入(例如,710A的选择)。
在一些实施方案中,在第二设备处(例如,经由与第二设备或与用于控制第二设备并与第二设备通信的遥控器的用户交互)接收第三用户输入(例如,806、810)。
在音频定时同步过程期间,在导致输出音频音调之后,第一设备基于音频音调从第二设备接收(908)数据(例如,音频音调被第二设备检测到时的时间戳)。在一些实施方案中,数据是两个时间戳之间的差值。例如,第一设备向第二设备提供导致输出时的时间戳,并且第二设备确定检测到音频音调时的时间戳,并且确定这两个时间戳之间的差值。在一些实施方案中,第一设备确定这两个时间戳之间的差值(例如,在第二设备向第一设备提供第二设备检测到音频音调时的时间戳之后)。
在一些实施方案中,第一设备确定(例如,计算、在查找表中查找)表示对应于音频音调的输出时间的第一时间戳与对应于第二设备检测到所输出的音频音调的时间的第二时间戳之间的时间延迟(例如,差值)的值。在一些实施方案中,表示时间延迟的值用于确定第三设备的经调节的音频定时同步设置。在一些实施方案中,第三设备的经调节的音频定时同步设置是第二时间延迟(例如,与由该值表示的时间延迟相同或不同)。例如,基于表示时间延迟(例如,TV输出音频所花费的时间)的值,使用第二时间延迟来延迟第三设备(例如,智能扬声器)的音频输出。在该示例中,第二时间延迟(例如,在第一设备处、在第三设备处)被引入到第三设备的音频输出中,使得当设备同时输出相同的内容时,来自第三设备和另一设备(例如,TV)的音频输出对于收听者看起来是同步的。在一些实施方案中,第二时间延迟不同于该时间延迟(例如,第一时间延迟)。例如,第二时间延迟可小于第一时间延迟,减少一定量的时间延迟(例如,出于技术原因而产生的时间延迟(包括由于音频信号处理以及第一设备和第三设备之间的传输引起的延迟))。在一些实施方案中,设备确定表示第二设备听到来自一个设备的音频输出(例如,音调)时与第二设备听到由另一(不同的)设备输出的音频输出(例如,音调)时之间的时间延迟的值。例如,时间延迟表示由两个源输出的音频到达第二设备时的时间差。在该示例中,此类时间延迟可用于延迟音频输出首先到达第二设备的设备的音频输出。
在音频定时同步过程期间,第一设备至少部分地基于从第二设备接收的数据调节(910)第三设备(例如,第一设备、不同于第一设备和第二设备的第三设备)(例如,未在同步过程中使用的智能扬声器)的音频定时同步设置(例如,调节或增加一个或多个音频信号的输出的延迟)。在一些实施方案中,至少部分地基于从第二设备接收的基于由第一设备输出的音频音调的数据来调节音频定时同步设置提供了需要最少用户输入的用于校正同步误差的有效配置操作。在一组条件已经被满足时执行最优化操作而不必需要求进一步的用户输入增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过减少所需输入的数量,和/或通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,调节第三设备(例如,608A、608B)的音频定时同步设置包括第一电子设备经由通信设备向第三设备传输(914)经调节的音频定时同步数据(例如,新的或经更新的时间延迟值)。在一些实施方案中,经调节的音频定时设置由第一设备保持(例如,存储在其上)。例如,第一设备随后使用经调节的音频定时同步设置来影响一个或多个音频信号到一个或多个设备的输出/递送(例如,由第一设备)(例如,延迟所输出的音频信号的递送,引入所输出的音频信号相对于视频信号的移位等)。
在一些实施方案中,在导致输出音频音调之后,根据确定指示第二设备未检测到音频音调的一组标准(例如,未经由麦克风检测到,或者没有以足够的质量(例如,没有过度的噪声)检测到或没有检测到持续所要求的时间长度)得到满足(例如,当以下中的一者或多者发生时,满足一组标准:(例如,在第一设备处)接收用户输入(例如,选择“再次尝试”)或用户输入的指示(例如,来自第二设备),从第二设备接收未检测到音调或发生某个错误(例如,听到部分音调,检测到音频干扰)的指示,或者在预先确定的时间段(例如,响应超时周期)内没有从第二设备接收数据/响应)),第一设备重复(912)输出音频音调(例如,一次或多次)。在一些实施方案中,如果该组标准继续得到满足(例如,在每次重复之后),则将音频音调重复预先确定的次数(例如,三次)。在一些实施方案中,如果一组标准得到满足则重复输出音频音调提供了需要最少用户输入的用于处理误差的有效配置操作。在一组条件已经被满足时执行最优化操作而不必需要求进一步的用户输入增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过减少所需输入的数量,和/或通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,该组标准包括当在第一设备处接收到表示对于重复输出音频音调的请求的第一用户输入(例如,对示能表示750B的选择)(例如,表示在(例如,由第一设备导致显示的)所显示的界面处对示能表示(例如,再次尝试)的选择的输入)时满足的标准。
在一些实施方案中,该组标准包括当在第二设备处接收到表示对于重复输出音频音调的请求的第二用户输入(例如,对示能表示818B的选择)(例如,表示在(例如,由第一设备导致显示的)所显示的界面处对示能表示(例如,再次尝试)的选择的输入)时满足的标准。
在一些实施方案中,第三设备(例如,608A、608B、智能扬声器)不同于第一设备并且不同于第二设备。在一些实施方案中,第一设备导致调节多个设备的音频定时同步设置。例如,不同的相应延迟可被配置用于将相应音频信号(例如,对应于不同音频信道)递送到需要音频定时同步的不同设备(例如,扬声器)。在一些实施方案中,为不是参与音频定时同步过程的第一设备或第二设备的第三设备调节音频定时同步设置提供了在第三设备(例如,其可能不具有用户友好的界面)处需要最少的(例如,没有)用户输入的用于校正同步误差的有效配置操作。在一组条件已经被满足时执行最优化操作而不必需要求进一步的用户输入(例如,在被配置的设备处)增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过减少所需输入的数量,和/或通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在执行用于配置第一设备的多个设置的过程时,第一设备自动执行(例如,不需要/不直接响应于在第一设备或另一设备处接收的用户输入)(例如,不显示音频定时同步配置界面)音频定时同步过程(例如,在配置过程期间将对于参与的请求自动传输给一个或多个设备,然后基于所输出的音频音调从此类设备接收数据并调节音频定时同步设置)。
出于解释的目的,前面的描述是通过参考具体实施方案来描述的。然而,上面的例示性论述并非旨在是穷尽的或将本发明限制为所公开的精确形式。根据以上教导内容,很多修改形式和变型形式都是可能的。选择并描述这些实施方案是为了最好地解释这些技术的原理及其实际应用程序。本领域的其他技术人员由此能够最好地利用这些技术以及具有适合于所预期的特定用途的各种修改的各种实施方案。
虽然参照附图对本公开以及示例进行了全面的描述,但应当注意,各种变化和修改对于本领域内的技术人员而言将变得显而易见。应当理解,此类变化和修改被认为被包括在由权利要求书所限定的本公开和示例的范围内。
如上所述,本技术的一个方面在于收集和使用得自各种来源的数据以改善音频同步。本公开预期,在一些实例中,这些所采集的数据可包括唯一地识别或可用于联系或定位特定人员的个人信息数据。此类个人信息数据可以包括人口统计数据、基于位置的数据、电话号码、电子邮件地址、推特ID、家庭地址、与用户的健康或健身水平有关的数据或记录(例如,生命体征测量、药物信息、锻炼信息)、出生日期或任何其他识别或个人信息。
本公开认识到在本发明技术中使用此类个人信息数据可用于使用户受益。例如,个人信息数据可用于改善音频同步(例如,用于使用个人账户信息访问的媒体)。此外,本公开还预期个人信息数据有益于用户的其他用途。例如,健康和健身数据可用于向用户的总体健康状况提供见解,或者可用作使用技术来追求健康目标的个人的积极反馈。
本公开设想负责采集、分析、公开、传输、存储或其他使用此类个人信息数据的实体将遵守既定的隐私政策和/或隐私实践。具体地,此类实体应当实行并坚持使用被公认为满足或超出对维护个人信息数据的隐私性和安全性的行业或政府要求的隐私政策和实践。此类政策应该能被用户方便地访问,并应随着数据的采集和/或使用变化而被更新。来自用户的个人信息应当被收集用于实体的合法且合理的用途,并且不在这些合法使用之外共享或出售。此外,应在收到用户知情同意后进行此类采集/共享。此外,此类实体应考虑采取任何必要步骤,保卫和保障对此类个人信息数据的访问,并确保有权访问个人信息数据的其他人遵守其隐私政策和流程。另外,这种实体可使其本身经受第三方评估以证明其遵守广泛接受的隐私政策和实践。此外,应当调整政策和实践,以便采集和/或访问的特定类型的个人信息数据,并适用于包括管辖范围的具体考虑的适用法律和标准。例如,在美国,对某些健康数据的收集或获取可能受联邦和/或州法律的管辖,诸如健康保险流通和责任法案(HIPAA);而其他国家的健康数据可能受到其他法规和政策的约束并应相应处理。因此,在每个国家应为不同的个人数据类型保持不同的隐私实践。
不管前述情况如何,本公开还预期用户选择性地阻止使用或访问个人信息数据的实施方案。即本公开预期可提供硬件元件和/或软件元件,以防止或阻止对此类个人信息数据的访问。例如,就广告递送服务而言,本发明的技术可被配置为在注册服务期间或之后任何时候允许用户选择“选择加入”或“选择退出”参与对个人信息数据的收集。又如,用户可选择不为访问特定音频媒体提供帐户信息。除了提供“选择加入”和“选择退出”选项外,本公开设想提供与访问或使用个人信息相关的通知。例如,可在下载应用时向用户通知其个人信息数据将被访问,然后就在个人信息数据被应用访问之前再次提醒用户。
此外,本公开的目的是应管理和处理个人信息数据以最小化无意或未经授权访问或使用的风险。一旦不再需要数据,通过限制数据收集和删除数据可最小化风险。此外,并且当适用时,包括在某些健康相关应用程序中,数据去标识可用于保护用户的隐私。可在适当时通过移除特定标识符(例如,出生日期等)、控制所存储数据的量或特异性(例如,在城市级别而不是在地址级别收集位置数据)、控制数据如何被存储(例如,在用户之间聚合数据)、和/或其他方法来促进去标识。
因此,虽然本公开广泛地覆盖了使用个人信息数据来实现一个或多个各种所公开的实施方案,但本公开还预期各种实施方案也可在无需访问此类个人信息数据的情况下被实现。即,本发明技术的各种实施方案不会由于缺少此类个人信息数据的全部或一部分而无法正常进行。例如,可通过基于非个人信息数据或绝对最低数量的个人信息诸如与用户相关联的设备所请求的内容、对内容递送服务可用的其他非个人信息或公开可用的信息来推断偏好,从而选择内容并将该内容递送至用户。
Claims (21)
1.一种计算机实现的方法,包括:
在具有通信设备的第一设备处:
执行音频定时同步过程,所述音频定时同步过程包括:
经由所述通信设备向第二设备传输对于所述第二设备参与所述音频定时同步过程的请求;
在向所述第二设备传输所述请求之后,使得输出音频音调;
在使得输出所述音频音调之后,从所述第二设备接收基于所述音频音调的数据;以及
至少部分地基于从所述第二设备接收的所述数据来调节第三设备的音频定时同步设置。
2.根据权利要求1所述的方法,还包括:
在使得输出所述音频音调之后:
根据确定指示所述第二设备未检测到所述音频音调的一组标准得到满足,重复输出所述音频音调。
3.根据权利要求2所述的方法,其中所述一组标准包括当在所述第一设备处接收到表示对于重复输出所述音频音调的请求的第一用户输入时满足的标准。
4.根据权利要求2所述的方法,其中所述一组标准包括当在所述第二设备处接收到表示对于重复输出所述音频音调的请求的第二用户输入时满足的标准。
5.根据权利要求1至4中任一项所述的方法,其中所述第三设备不同于所述第一设备并且不同于所述第二设备。
6.根据权利要求1至5中任一项所述的方法,其中调节所述第三设备的所述音频定时同步设置包括:
经由所述通信设备向所述第三设备传输经调节的音频定时同步数据。
7.根据权利要求1至6中任一项所述的方法,还包括:
确定表示第一时间戳和第二时间戳之间的时间延迟的值,所述第一时间戳对应于所述音频音调的输出时间,所述第二时间戳对应于所述第二设备检测到所输出的音频音调的时间。
8.根据权利要求1至7中任一项所述的方法,其中所述第一设备连接到显示设备,所述方法还包括:
在使得输出所述音频音调时,使得经由所述显示设备显示关于正在输出音频音调的图形指示。
9.根据权利要求1至8中任一项所述的方法,其中传输对于所述第二设备参与所述音频定时同步过程的所述请求还包括:
经由所述通信设备向第四设备传输对于所述第四设备参与所述音频定时同步过程的第二请求。
10.根据权利要求1至9中任一项所述的方法,还包括:
接收表示第三用户输入的数据,其中响应于接收到表示所述第三用户输入的所述数据,执行所述音频定时同步过程的至少一部分。
11.根据权利要求10所述的方法,其中响应于接收到表示所述第三用户输入的所述数据,传输对于所述第二设备参与所述音频定时同步过程的所述请求。
12.根据权利要求10所述的方法,其中响应于接收到表示所述第三用户输入的所述数据而使得输出所述音频音调。
13.根据权利要求10至12中任一项所述的方法,其中在所述第一设备处接收所述第三用户输入。
14.根据权利要求10至12中任一项所述的方法,其中在所述第二设备处接收所述第三用户输入。
15.根据权利要求1至9中任一项所述的方法,还包括:
在执行用于配置所述第一设备的多个设置的过程时,自动执行所述音频定时同步过程。
16.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储一个或多个程序,所述一个或多个程序被配置为由具有通信设备的电子设备的一个或多个处理器执行,所述一个或多个程序包括指令,所述指令用于执行根据权利要求1至15中任一项所述的方法。
17.一种电子设备,包括:
通信设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括指令,所述指令用于执行根据权利要求1至15中任一项所述的方法。
18.一种电子设备,包括:
通信设备;和
用于执行根据权利要求1至15中任一项所述的方法的装置。
19.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储一个或多个程序,所述一个或多个程序被配置为由具有通信设备的电子设备的一个或多个处理器执行,所述一个或多个程序包括用于执行以下操作的指令:
执行音频定时同步过程,所述音频定时同步过程包括:
经由所述通信设备向第二设备传输对于所述第二设备参与所述音频定时同步过程的请求;
在向所述第二设备传输所述请求之后,使得输出音频音调;
在使得输出所述音频音调之后,从所述第二设备接收基于所述音频音调的数据;以及
至少部分地基于从所述第二设备接收的所述数据来调节第三设备的音频定时同步设置。
20.一种电子设备,包括:
通信设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行以下操作的指令:
执行音频定时同步过程,所述音频定时同步过程包括:
经由所述通信设备向第二设备传输对于所述第二设备参与所述音频定时同步过程的请求;
在向所述第二设备传输所述请求之后,使得输出音频音调;
在使得输出所述音频音调之后,从所述第二设备接收基于所述音频音调的数据;以及
至少部分地基于从所述第二设备接收的所述数据来调节第三设备的音频定时同步设置。
21.一种电子设备,包括:
通信设备;和
用于执行音频定时同步过程的装置,所述音频定时同步过程包括:
经由所述通信设备向第二设备传输对于所述第二设备参与所述音频定时同步过程的请求;
在向所述第二设备传输所述请求之后,使得输出音频音调;
在使得输出所述音频音调之后,从所述第二设备接收基于所述音频音调的数据;以及
至少部分地基于从所述第二设备接收的所述数据来调节第三设备的音频定时同步设置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962855911P | 2019-05-31 | 2019-05-31 | |
US62/855,911 | 2019-05-31 | ||
US16/667,684 US11363382B2 (en) | 2019-05-31 | 2019-10-29 | Methods and user interfaces for audio synchronization |
US16/667,684 | 2019-10-29 | ||
PCT/US2020/035477 WO2020243683A1 (en) | 2019-05-31 | 2020-05-30 | Methods and user interfaces for audio synchronization |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113906374A true CN113906374A (zh) | 2022-01-07 |
Family
ID=73551630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080040424.4A Pending CN113906374A (zh) | 2019-05-31 | 2020-05-30 | 用于音频同步的方法和用户界面 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11363382B2 (zh) |
EP (1) | EP3977258A1 (zh) |
CN (1) | CN113906374A (zh) |
WO (1) | WO2020243683A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10976989B2 (en) * | 2018-09-26 | 2021-04-13 | Apple Inc. | Spatial management of audio |
WO2020194957A1 (ja) * | 2019-03-25 | 2020-10-01 | 株式会社ソニー・インタラクティブエンタテインメント | 画像送受信システム、画像送信装置、画像受信装置、画像送受信方法及びプログラム |
CN113301410A (zh) * | 2021-04-30 | 2021-08-24 | 西安诺瓦星云科技股份有限公司 | 音频画面同步方法、装置和系统以及发送控制器 |
US11360734B1 (en) * | 2021-09-24 | 2022-06-14 | Shanghai Weiling Electronics Co., Ltd. | Secure digital communication devices and secure digital communication systems using the same |
CN113923497B (zh) * | 2021-10-08 | 2024-08-09 | 上海物骐微电子有限公司 | 一种音频同步调节方法及音频设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140328485A1 (en) * | 2013-05-06 | 2014-11-06 | Nvidia Corporation | Systems and methods for stereoisation and enhancement of live event audio |
CN106415721A (zh) * | 2014-01-22 | 2017-02-15 | 苹果公司 | 音频数据传输的协调切换 |
CN107430501A (zh) * | 2015-03-08 | 2017-12-01 | 苹果公司 | 对语音触发进行响应的竞争设备 |
CN108108146A (zh) * | 2018-01-19 | 2018-06-01 | 深圳市沃特沃德股份有限公司 | 多个播放设备同步播放的方法与播放设备 |
CN109463004A (zh) * | 2017-05-16 | 2019-03-12 | 苹果公司 | 数字助理服务的远场延伸 |
US20190124458A1 (en) * | 2016-07-15 | 2019-04-25 | Sonos, Inc. | Spatial Audio Correction |
Family Cites Families (119)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3859005A (en) | 1973-08-13 | 1975-01-07 | Albert L Huebner | Erosion reduction in wet turbines |
US4826405A (en) | 1985-10-15 | 1989-05-02 | Aeroquip Corporation | Fan blade fabrication system |
US7728845B2 (en) | 1996-02-26 | 2010-06-01 | Rah Color Technologies Llc | Color calibration of color image rendering devices |
FI111674B (fi) | 1996-10-31 | 2003-08-29 | Nokia Corp | Käyttäjäliityntä |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US7844914B2 (en) | 2004-07-30 | 2010-11-30 | Apple Inc. | Activating virtual keys of a touch-screen virtual keyboard |
US7663607B2 (en) | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
EP1717678B1 (en) | 1998-01-26 | 2017-11-22 | Apple Inc. | Method for integrating manual input |
US20060033724A1 (en) | 2004-07-30 | 2006-02-16 | Apple Computer, Inc. | Virtual input device placement on a touch screen user interface |
US7676556B2 (en) | 1999-01-22 | 2010-03-09 | Palm, Inc. | Method and apparatus for configuring information for multiple network access providers |
US6967728B1 (en) | 1999-07-23 | 2005-11-22 | Electronics For Imaging, Inc. | Reusable and transferable printer driver preference system |
US6714233B2 (en) | 2000-06-21 | 2004-03-30 | Seiko Epson Corporation | Mobile video telephone system |
AUPQ957600A0 (en) | 2000-08-21 | 2000-09-14 | Perera, Anil Lasantha Michael | Method to enable customers to respond to prices in a pool type market |
US7218226B2 (en) | 2004-03-01 | 2007-05-15 | Apple Inc. | Acceleration-based theft detection system for portable electronic devices |
US7688306B2 (en) * | 2000-10-02 | 2010-03-30 | Apple Inc. | Methods and apparatuses for operating a portable device based on an accelerometer |
JP4522031B2 (ja) | 2001-01-17 | 2010-08-11 | キヤノン株式会社 | 通信制御装置、装置及び通知方法 |
US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
US7340389B2 (en) | 2001-02-16 | 2008-03-04 | Microsoft Corporation | Multilanguage UI with localized resources |
CA2641610C (en) | 2001-03-09 | 2010-09-14 | Research In Motion Limited | Advanced voice and data operations in a mobile data communication device |
US20020142734A1 (en) | 2001-04-03 | 2002-10-03 | James Wickstead | Miniaturized wrist phone |
US7295522B2 (en) | 2001-06-29 | 2007-11-13 | Microsoft Corporation | System and method for continuously provisioning a mobile device |
US20030120936A1 (en) | 2001-08-01 | 2003-06-26 | Eft Datalink | Encryption of financial information |
JP3915481B2 (ja) | 2001-11-14 | 2007-05-16 | セイコーエプソン株式会社 | 無線通信装置 |
JP2003163688A (ja) | 2001-11-27 | 2003-06-06 | Allied Tereshisu Kk | 中継機器、通信設定プログラム、及び通信設定方法 |
US20030122806A1 (en) | 2001-12-31 | 2003-07-03 | Edge Christopher J. | Soft proofing system |
US20030144009A1 (en) | 2002-01-28 | 2003-07-31 | Dan Nowlin | Method and apparatus for local positioning/tracking system using wireless access points |
US20030158917A1 (en) | 2002-02-04 | 2003-08-21 | Andrew Felix G.T.I. | Modifying system configuration based on parameters received from an infrastructure |
US20040203354A1 (en) | 2002-06-29 | 2004-10-14 | Lin Yue | Bluetooth remote access device |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US7152100B2 (en) | 2002-07-09 | 2006-12-19 | Adtran, Inc. | System and method for provisioning network access devices |
US20070250597A1 (en) | 2002-09-19 | 2007-10-25 | Ambient Devices, Inc. | Controller for modifying and supplementing program playback based on wirelessly transmitted data content and metadata |
US20040063464A1 (en) | 2002-09-30 | 2004-04-01 | Tahir Akram | High-speed data and power source interface cable for mobile devices |
JP2004241820A (ja) * | 2003-02-03 | 2004-08-26 | Denon Ltd | マルチチャンネル再生装置 |
US7701489B1 (en) | 2003-05-27 | 2010-04-20 | Apple Inc. | Method and apparatus for color correction |
US8234395B2 (en) * | 2003-07-28 | 2012-07-31 | Sonos, Inc. | System and method for synchronizing operations among a plurality of independently clocked digital data processing devices |
US6937249B2 (en) | 2003-11-07 | 2005-08-30 | Integrated Color Solutions, Inc. | System and method for display device characterization, calibration, and verification |
JP4379577B2 (ja) | 2003-09-01 | 2009-12-09 | セイコーエプソン株式会社 | 周辺機器制御装置、周辺機器制御方法および周辺機器制御プログラム |
US20050177256A1 (en) * | 2004-02-06 | 2005-08-11 | Peter Shintani | Addressable loudspeaker |
US20050210525A1 (en) | 2004-03-22 | 2005-09-22 | Microsoft Corporation | Method and apparatus for maintaining state information |
JP2005301745A (ja) | 2004-04-13 | 2005-10-27 | Nec Corp | 移動体通信装置、その多言語対応支援システム及び方法、並びに言語管理装置 |
US7630501B2 (en) * | 2004-05-14 | 2009-12-08 | Microsoft Corporation | System and method for calibration of an acoustic system |
US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7487499B2 (en) | 2004-10-29 | 2009-02-03 | Caterpillar Inc. | Location based software flashing system |
US7647551B2 (en) | 2004-12-15 | 2010-01-12 | Microsoft Corporation | System and method for formatting a cell in response to data stored in a separate location |
US7996351B1 (en) | 2004-12-16 | 2011-08-09 | Apple Inc. | Automated estimation of a country where a client computer is configured to operate |
KR20060102724A (ko) | 2005-03-24 | 2006-09-28 | 삼성전자주식회사 | 휴대단말기와 그에 따른 리모트 컨트롤 장치 |
US20060293877A1 (en) | 2005-06-27 | 2006-12-28 | Soor Baldev S | Method and apparatus for uni-lingual workflow usage in multi-lingual data center environments |
JP4285457B2 (ja) * | 2005-07-20 | 2009-06-24 | ソニー株式会社 | 音場測定装置及び音場測定方法 |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
US8331915B2 (en) | 2005-11-17 | 2012-12-11 | Nitesh Ratnakar | System, apparatus and method for generating and ranking contact information and related advertisements in response to query on communication device |
US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
AU2007257435A1 (en) | 2006-01-20 | 2007-12-13 | Conversational Computing Corporation | Wearable display interface client |
US8279180B2 (en) | 2006-05-02 | 2012-10-02 | Apple Inc. | Multipoint touch surface controller |
US8594742B2 (en) | 2006-06-21 | 2013-11-26 | Symbol Technologies, Inc. | System and method for monitoring a mobile device |
KR101309045B1 (ko) | 2006-06-30 | 2013-09-17 | 삼성전자주식회사 | 네트워크 디바이스, 네트워크 관리자, 이들을 포함하는관리시스템 및 클론프로세스 수행방법 |
US7852198B2 (en) | 2006-07-18 | 2010-12-14 | Hewlett-Packard Development Company, L.P. | RF tag |
US7880590B2 (en) | 2006-07-18 | 2011-02-01 | Hewlett-Packard Development Company, L.P. | Method and apparatus for localization of configurable devices |
NZ575810A (en) | 2006-08-27 | 2011-11-25 | My Mobile Watch Ltd | Gsm mobile watch phone |
US8483853B1 (en) * | 2006-09-12 | 2013-07-09 | Sonos, Inc. | Controlling and manipulating groupings in a multi-zone media system |
KR101346451B1 (ko) | 2006-09-14 | 2014-01-02 | 삼성전자주식회사 | 이동 통신 단말의 원격 관리 방법 및 시스템 |
JP2010507294A (ja) * | 2006-10-17 | 2010-03-04 | アベガ システムズ ピーティーワイ リミテッド | マルチメディアデバイスの統合 |
US8006002B2 (en) | 2006-12-12 | 2011-08-23 | Apple Inc. | Methods and systems for automatic configuration of peripherals |
US8850140B2 (en) | 2007-01-07 | 2014-09-30 | Apple Inc. | Data backup for mobile device |
US7957762B2 (en) | 2007-01-07 | 2011-06-07 | Apple Inc. | Using ambient light sensor to augment proximity sensor output |
US8364139B2 (en) | 2007-04-19 | 2013-01-29 | Apple Inc. | Personal area network systems and devices and methods for use thereof |
US9933937B2 (en) | 2007-06-20 | 2018-04-03 | Apple Inc. | Portable multifunction device, method, and graphical user interface for playing online videos |
US20090064038A1 (en) | 2007-09-04 | 2009-03-05 | Apple Inc. | Configuration of Device Settings |
US8532285B2 (en) | 2007-09-05 | 2013-09-10 | Avaya Inc. | Method and apparatus for call control using motion and position information |
US8344998B2 (en) | 2008-02-01 | 2013-01-01 | Wimm Labs, Inc. | Gesture-based power management of a wearable portable electronic device with display |
US20090311993A1 (en) | 2008-06-16 | 2009-12-17 | Horodezky Samuel Jacob | Method for indicating an active voice call using animation |
US8624836B1 (en) | 2008-10-24 | 2014-01-07 | Google Inc. | Gesture-based small device input |
TWI554076B (zh) | 2009-09-04 | 2016-10-11 | 普露諾洛股份有限公司 | 遠距離的電話管理器 |
US8610739B2 (en) | 2010-04-12 | 2013-12-17 | Nvidia Corporation | Graphics processing unit based color management of output devices |
CA2796451A1 (en) | 2010-04-16 | 2011-10-20 | Nicholas J. Mastandrea | Wearable motion sensing computing interface |
US8519834B2 (en) | 2010-08-22 | 2013-08-27 | Andrea Theresa Jersa | Wrist wound vibrating device |
US8994714B2 (en) | 2010-09-23 | 2015-03-31 | Dolby Laboratories Licensing Corporation | Method and system for display calibration with feedback determined by a camera device |
US8836796B2 (en) | 2010-11-23 | 2014-09-16 | Dolby Laboratories Licensing Corporation | Method and system for display characterization or calibration using a camera device |
US9107023B2 (en) * | 2011-03-18 | 2015-08-11 | Dolby Laboratories Licensing Corporation | N surround |
US8806339B2 (en) | 2012-02-06 | 2014-08-12 | Apple Inc. | User interface control for media editing application |
JP5887980B2 (ja) | 2012-02-15 | 2016-03-16 | 株式会社リコー | カラーマネジメント・システム |
US8947382B2 (en) | 2012-02-28 | 2015-02-03 | Motorola Mobility Llc | Wearable display device, corresponding systems, and method for presenting output on the same |
US9524098B2 (en) * | 2012-05-08 | 2016-12-20 | Sonos, Inc. | Methods and systems for subwoofer calibration |
CN104380682B (zh) * | 2012-05-08 | 2019-05-03 | 思睿逻辑国际半导体有限公司 | 由松散协调的媒体呈现设备形成媒体网络的系统及方法 |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US9690271B2 (en) * | 2012-06-28 | 2017-06-27 | Sonos, Inc. | Speaker calibration |
US8995687B2 (en) * | 2012-08-01 | 2015-03-31 | Sonos, Inc. | Volume interactions for connected playback devices |
JP6486833B2 (ja) * | 2012-12-20 | 2019-03-20 | ストラブワークス エルエルシー | 三次元拡張オーディオを提供するシステム及び方法 |
RU2644587C2 (ru) | 2012-12-21 | 2018-02-13 | Конинклейке Филипс Н.В. | Электронные устройства, система и способ управления одним из электронных устройств |
WO2014105276A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for transitioning between touch input to display output relationships |
WO2014143776A2 (en) | 2013-03-15 | 2014-09-18 | Bodhi Technology Ventures Llc | Providing remote interactions with host device using a wireless device |
US20160028869A1 (en) | 2013-03-15 | 2016-01-28 | Apple Inc. | Providing remote interactions with host device using a wireless device |
KR20140126788A (ko) * | 2013-04-22 | 2014-11-03 | 한국전자통신연구원 | 은닉된 시간 동기화 신호를 이용한 위치 측정 시스템 및 이를 이용한 위치 측정 방법 |
US9307508B2 (en) * | 2013-04-29 | 2016-04-05 | Google Technology Holdings LLC | Systems and methods for syncronizing multiple electronic devices |
US9530342B2 (en) | 2013-09-10 | 2016-12-27 | Microsoft Technology Licensing, Llc | Ambient light context-aware display |
US20150206468A1 (en) | 2014-01-21 | 2015-07-23 | Fu-Chi Wu | White balance device for video screen |
US20150317928A1 (en) | 2014-05-02 | 2015-11-05 | Qualcomm Incorporated | Mobile device based color management of digital displays |
US20150317944A1 (en) | 2014-05-02 | 2015-11-05 | Qualcomm Incorporated | Mobile device based color management of digital displays |
US10217438B2 (en) | 2014-05-30 | 2019-02-26 | Apple Inc. | User interface and method for directly setting display white point |
US9910634B2 (en) * | 2014-09-09 | 2018-03-06 | Sonos, Inc. | Microphone calibration |
JP6521652B2 (ja) | 2015-02-04 | 2019-05-29 | キヤノン株式会社 | 通信装置、その制御方法、プログラム |
US20160292376A1 (en) | 2015-04-02 | 2016-10-06 | Advan Int'l Corp. | Method for calibrating medical display device using smartphone |
US10284980B1 (en) * | 2016-01-05 | 2019-05-07 | Sonos, Inc. | Intelligent group identification |
US9826306B2 (en) * | 2016-02-22 | 2017-11-21 | Sonos, Inc. | Default playback device designation |
US10142754B2 (en) * | 2016-02-22 | 2018-11-27 | Sonos, Inc. | Sensor on moving component of transducer |
US10798373B2 (en) | 2016-07-22 | 2020-10-06 | Sharp Kabushiki Kaisha | Display correction apparatus, program, and display correction system |
US10992795B2 (en) * | 2017-05-16 | 2021-04-27 | Apple Inc. | Methods and interfaces for home media control |
US9979998B1 (en) * | 2017-05-02 | 2018-05-22 | Amazon Technologies, Inc. | System for time synchronization of audio devices |
CN110121878B (zh) * | 2017-09-28 | 2021-01-29 | 华为技术有限公司 | 提示方法及便携设备 |
US10609505B1 (en) * | 2018-01-06 | 2020-03-31 | Stillwater Designs And Audio, Inc. | Method and apparatus for automated tuning of vehicle sound system |
JP7101525B2 (ja) | 2018-04-20 | 2022-07-15 | キヤノン株式会社 | 電子機器およびその制御方法、並びに、プログラム |
US10911748B1 (en) | 2018-07-10 | 2021-02-02 | Apple Inc. | Display calibration system |
WO2020065792A1 (ja) | 2018-09-26 | 2020-04-02 | Necディスプレイソリューションズ株式会社 | 映像再生システム、映像再生機器、及び映像再生システムのキャリブレーション方法 |
US11224113B2 (en) | 2019-05-06 | 2022-01-11 | Vista Manufacturing Inc | Lighting system |
JP7527112B2 (ja) | 2020-01-22 | 2024-08-02 | キヤノン株式会社 | 電子機器及びその制御方法 |
US20210382736A1 (en) | 2020-06-08 | 2021-12-09 | Apple Inc. | User interfaces for calibrations and/or synchronizations |
US11100894B1 (en) | 2020-06-08 | 2021-08-24 | Apple Inc. | Adjusting signal settings for a display using a light sensor |
-
2019
- 2019-10-29 US US16/667,684 patent/US11363382B2/en active Active
-
2020
- 2020-05-30 WO PCT/US2020/035477 patent/WO2020243683A1/en unknown
- 2020-05-30 CN CN202080040424.4A patent/CN113906374A/zh active Pending
- 2020-05-30 EP EP20746439.7A patent/EP3977258A1/en active Pending
-
2022
- 2022-06-13 US US17/806,625 patent/US20230035075A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140328485A1 (en) * | 2013-05-06 | 2014-11-06 | Nvidia Corporation | Systems and methods for stereoisation and enhancement of live event audio |
CN106415721A (zh) * | 2014-01-22 | 2017-02-15 | 苹果公司 | 音频数据传输的协调切换 |
CN107430501A (zh) * | 2015-03-08 | 2017-12-01 | 苹果公司 | 对语音触发进行响应的竞争设备 |
US20190124458A1 (en) * | 2016-07-15 | 2019-04-25 | Sonos, Inc. | Spatial Audio Correction |
CN109463004A (zh) * | 2017-05-16 | 2019-03-12 | 苹果公司 | 数字助理服务的远场延伸 |
CN108108146A (zh) * | 2018-01-19 | 2018-06-01 | 深圳市沃特沃德股份有限公司 | 多个播放设备同步播放的方法与播放设备 |
Also Published As
Publication number | Publication date |
---|---|
EP3977258A1 (en) | 2022-04-06 |
US20230035075A1 (en) | 2023-02-02 |
US20200382872A1 (en) | 2020-12-03 |
US11363382B2 (en) | 2022-06-14 |
WO2020243683A1 (en) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111108740B (zh) | 电子设备、计算机可读存储介质及用于显示通信会话中的参与者的视觉指示符的方法 | |
CN112262560B (zh) | 用于更新外部设备的网络连接设置的用户界面的方法、电子设备和非暂态计算机可读存储介质 | |
CN107637073B (zh) | 视频记录和回放 | |
US11847378B2 (en) | User interfaces for audio routing | |
CN112368674A (zh) | 使用注视信息的设备控制 | |
CN113939793B (zh) | 用于电子语音通信的用户界面 | |
CN110785907A (zh) | 多设备充电用户界面 | |
US11670144B2 (en) | User interfaces for indicating distance | |
CN113448534A (zh) | 语音通信方法 | |
CN113767366A (zh) | 用于管理本地网络的用户界面 | |
US11363382B2 (en) | Methods and user interfaces for audio synchronization | |
US20240053953A1 (en) | User interfaces for audio routing | |
US11785277B2 (en) | User interfaces for managing audio for media items | |
CN113906725B (zh) | 用于音量控制的方法、电子设备和计算机可读存储介质 | |
CN117441156B (zh) | 用于音频路由的用户界面 | |
CN117957518A (zh) | 媒体控件用户界面 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |