CN114733192A - 模型控制方法、装置、介质及设备 - Google Patents
模型控制方法、装置、介质及设备 Download PDFInfo
- Publication number
- CN114733192A CN114733192A CN202210268421.7A CN202210268421A CN114733192A CN 114733192 A CN114733192 A CN 114733192A CN 202210268421 A CN202210268421 A CN 202210268421A CN 114733192 A CN114733192 A CN 114733192A
- Authority
- CN
- China
- Prior art keywords
- space
- control body
- auxiliary control
- coordinates
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000008569 process Effects 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 9
- 230000003993 interaction Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6045—Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种模型控制方法,所述方法包括:获取屏幕上的触控点坐标;根据所述屏幕上的触控点坐标和虚拟相机的空间坐标获得辅助控制体的空间坐标;根据所述辅助控制体的空间坐标和预先设定的所述辅助控制体与模型之间的距离获得与所述辅助控制体相对应的模型的空间坐标;根据所述辅助控制体的空间坐标和模型的空间坐标显示所述辅助控制体和模型。本发明实现用户在控制辅助控制体的同时,模型也可以随着辅助控制体的移动而移动,模型的拖动过程更为真实的反映用户的操作,增强模型拖动的真实性。此外,本发明还提供了模型控制装置、计算机可读介质和计算机设备。
Description
技术领域
本发明属于计算机视觉领域,尤其涉及一种模型控制方法、装置、介质及设备。
背景技术
随着科技的发展,愈来愈多新奇的事物出现在人们的日常生活中,让人们的生活娱乐更加充实。其中就包含了3D场景下的游戏娱乐。目前3D场景下的模型多是由三维坐标轴来控制。每次根据坐标轴或者直接通过按住模型进行移动。这种方式由于必须要求用户在限定的规则下对模型进行移动,例如限定了移动的区域范围,或者只能够沿特定的方向、角度进行移动等,无法给用户更大的自由度去设计和摆放模型。此外,对于尺寸较小的手机屏幕等,如果直接按住模型进行移动的话,手指或触控笔会遮挡住模型,不利于用户观察模型所处位置,进而会产生误操作的情况,大大降低了娱乐性和体验感。
发明内容
为了克服现有技术中的上述缺陷,本发明提供了一种模型控制方法、装置、介质及设备。
本发明实施例第一方面提供了一种模型控制方法,所述方法包括:
获取屏幕上的触控点坐标;
根据所述屏幕上的触控点坐标和虚拟相机的空间坐标获得辅助控制体的空间坐标;
根据所述辅助控制体的空间坐标和预先设定的所述辅助控制体与模型之间的距离获得与所述辅助控制体相对应的模型的空间坐标;
根据所述辅助控制体的空间坐标和模型的空间坐标显示所述辅助控制体和模型。
优选地,所述根据所述屏幕上的触控点坐标和虚拟相机的空间坐标获得辅助控制体的空间坐标的过程包括:
将所述屏幕上的触控点坐标转换为3D场景中的坐标;
根据虚拟相机的空间坐标和触控点在3D场景中的坐标的方向向量获得空间第一直线方程;
根据辅助控制体的初始屏幕坐标和沿所述辅助控制体的初始屏幕坐标Z 轴的正向法向量获得空间第一平面方程;
根据所述空间第一直线方程和所述空间第一平面方程获得所述空间第一直线方程中直线与所述空间第一平面方程中平面的交点坐标,所述交点坐标为所述辅助控制体的空间坐标。
优选地,所述根据所述辅助控制体的空间坐标和预先设定的所述辅助控制体与模型之间的距离获得与所述辅助控制体相对应的模型的空间坐标的过程包括:
将所述辅助控制体的空间坐标转换为屏幕坐标;
根据所述辅助控制体的屏幕坐标和预先设定的辅助控制体与模型之间的距离获得模型的屏幕坐标;
将所述模型的屏幕坐标转换为3D场景中的坐标;
根据所述模型在3D场景中的坐标和虚拟相机的空间坐标获得空间第二直线方程;
根据所述辅助控制体的空间坐标和沿虚拟相机前向的方向向量为法向量获得空间第二平面方程;
根据所述空间第二直线方程和所述空间第二平面方程获得所述空间第二直线方程中直线与所述空间第二平面方程中平面的交点坐标,所述交点坐标为所述模型的空间坐标。
优选地,所述方法还包括:
根据虚拟相机的空间坐标、辅助控制体的空间坐标和预先设定的辅助控制体在屏幕中的预设显示范围获得辅助控制体在空间中的目标显示范围;
在屏幕中显示与所述目标显示范围相对应的辅助控制体。
优选地,所述根据虚拟相机的空间坐标、辅助控制体的空间坐标和预先设定的辅助控制体在屏幕中的预设显示范围获得辅助控制体在空间中的目标显示范围的过程包括:
将所述辅助控制体的空间坐标转换为屏幕坐标;
根据所述辅助控制体的屏幕坐标和预先设定的辅助控制体在屏幕中的预设显示范围获得辅助控制体的X轴方向的圆上点坐标;
将所述辅助控制体的X轴方向的圆上点坐标转换为3D场景中的坐标,并根据所述辅助控制体的X轴方向的圆上点在3D场景中的坐标和虚拟相机的空间坐标获得空间第三直线方程;
根据所述辅助控制体的空间坐标和沿虚拟相机前向的方向向量为法向量获得空间第三平面方程;
根据所述空间第三直线方程和所述空间第三平面方程获得所述空间第三直线方程中直线与所述空间第三平面方程中平面的交点坐标;
根据所述交点坐标和所述辅助控制体的空间坐标获得辅助控制体在空间中的目标显示范围。
优选地,所述辅助控制体为对称图形,所述圆上点所在圆的半径为所述预设显示范围中辅助控制体中心点到端点的最大距离。
优选地,所述辅助控制体为非对称图形,所述圆上点所在圆的半径为所述预设显示范围中辅助控制体两个端点之间最大距离的一半。
本发明实施例第二方面提供了一种模型控制装置,所述装置包括:
屏幕坐标获取模块,用于获取屏幕上的触控点坐标;
辅助控制体空间坐标计算模块,用于根据所述屏幕上的触控点坐标和虚拟相机的空间坐标获得辅助控制体的空间坐标;
模型空间坐标计算模块,用于根据所述辅助控制体的空间坐标和预先设定的所述辅助控制体与模型之间的距离获得与所述辅助控制体相对应的模型的空间坐标;
显示模块,用于根据所述辅助控制体的空间坐标和模型的空间坐标显示所述辅助控制体和模型。
本发明实施例第三方面提供了一个或多个存储计算机可执行指令的计算机可读介质,所述指令在由一个或多个计算机设备使用时使得一个或多个计算机设备执行如本发明实施例第一方面所述的模型控制方法。
本发明实施例第四方面提供了一种计算机设备,所述计算机设备包括存储器和处理器,其中:
所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如本发明实施例第一方面所述的模型控制方法。
本发明提供的模型控制方法,将3D场景下的辅助控制体和模型进行绑定,通过辅助控制体的空间坐标计算获得模型的空间坐标。这样,当辅助控制体的位置发生变化时,相对应的模型的位置也会同步发生变化,进而实现用户在控制辅助控制体的同时,模型也可以随着辅助控制体的移动而移动。同时,由于本发明在模型拖动的过程中没有任何定义坐标系以及拖动规则的操作,因此,辅助控制体和模型在移动过程中完全没有任何约束,可以以最大的自由度进行模型拖动,使得模型的拖动过程更为真实的反映用户的操作,增强模型拖动的真实性。此外,由于辅助控制体和模型之间相隔一定的距离,在模型拖动的过程中,模型始终处于屏幕上的触控点之外,不会造成遮挡,用户能够更为轻松和准确的拖动模型至所要拖动的位置,以避免误操作的情况发生。
附图说明
通过阅读参照以下附图所作的对非限制性具体实施方式所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例1所述的模型控制方法的流程图;
图2和图3为3D场景中辅助控制体和模型的位置示意图;
图4为虚拟相机前向的方向向量示意图;
图5为为本发明实施例4所述的计算机设备的结构示意图;
图6是用于执行本发明的模型控制方法的具体实施方式的一种典型计算机设备的结构示意图。
附图标记:
1、辅助控制体,2、模型。
具体实施方式
为了更好地理解和阐释本发明,下面将结合附图对本发明作进一步的详细描述。本发明并不仅仅局限于这些具体实施方式。相反,对本发明进行的修改或者等同替换,均应涵盖在本发明的权利要求范围当中。
需要说明的是,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有这些具体细节,本发明同样可以实施。在下文给出的多个具体实施方式中,对于本领域熟知的原理、结构和部件未作详细描述,以便于凸显本发明的主旨。
实施例1
如图1所示,本实施例提出了一种模型控制方法,该方法包括:
S101、获取屏幕上的触控点坐标;
S102、根据所述屏幕上的触控点坐标和虚拟相机的空间坐标获得辅助控制体的空间坐标。
具体的,本实施例所提出的模型控制方法可以由计算机设备执行,其中,该计算机设备可以为终端或者服务器等设备。该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、个人计算机(PersonalComputer,PC)、个人数字助理(PersonalDigitalAssistant,PDA)等终端设备,终端还可以包括客户端。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
本实施例首先获取触控点在屏幕上的坐标,然后根据该坐标与虚拟相机的空间坐标获得辅助控制体的空间坐标。其中,该辅助控制体1与模型2相关联,如图2和图3所示,用户可通过控制该辅助控制体的移动带动模型在3D 场景中改变位置。
更具体的,本实施例中,屏幕上的触控点坐标可根据屏幕自身的特性(电容屏、红外屏等均可计算获得物体在其屏幕上的位置坐标)或采用其他能够计算触控点在屏幕上的位置的采集设备(图像采集器进行图像分析等)获得。同时,触控点可以由触控点或触控笔等能够在屏幕上实现触摸操作的物体或设备实现。本实施例不做特殊限定。虚拟相机可以理解为在空间中某一固定点以不同视角观察模型的虚拟设备。
本实施例在获取屏幕上的触控点坐标后,将该坐标转换为触控点在3D 场景中的坐标。该坐标转换的方式采用本领域技术人员熟知现有技术即可实现,本实施例不做过多叙述。根据虚拟相机的空间坐标和触控点在3D场景中的坐标的方向向量获得空间第一直线方程。例如假设触控点在3D场景中的坐标为(x0,y0,z0),虚拟相机的空间坐标为(x1,y1,z1),则空间第一直线方程为:
根据辅助控制体的初始屏幕坐标(辅助控制体原来位置)和沿辅助控制体的初始屏幕坐标Z轴的正向法向量获得空间第一平面方程。例如假设辅助控制体的初始屏幕坐标为(x2,y2,z2),沿辅助控制体的初始屏幕坐标Z轴的正向法向量为(0,0,1),则空间第一平面方程为(z-z2=0)。
根据该空间第一直线方程和空间第一平面方程计算获得空间第一直线方程中直线与空间第一平面方程中平面的交点坐标,该交点坐标即为辅助控制体的空间坐标。例如假设该交点坐标为(x3,y3,z3),则:
z3=z2。
S103、根据所述辅助控制体的空间坐标和预先设定的所述辅助控制体与模型之间的距离获得与所述辅助控制体相对应的模型的空间坐标。
具体的,本实施例中,在获得辅助控制体的空间坐标后,将该辅助控制体的空间坐标转换为屏幕坐标,例如转换后的辅助控制体的屏幕坐标为 (x4,y4)。根据预先设定的辅助控制体与模型之间在屏幕上的距离为f,那么可以得出模型在屏幕上的屏幕坐标为(x4+f,y4)。将该模型的屏幕坐标转换为3D场景中,则获得该模型在3D场景中的坐标,假设为(x8,y8,z8)。根据虚拟相机的空间坐标可以获得空间第二直线方程:
根据辅助控制体的空间坐标和沿虚拟相机前向的方向向量为法向量可获得空间第二平面方程:
x6(x-x3)+y6(y-y3)+z6(z-z3)=0
其中,如图4所示,虚拟相机前向的方向向量为(x6,y6,z6)。
根据该空间第二直线方程和空间第二平面方程可计算获得空间第二直线方程中直线与空间第二平面方程中平面的交点坐标,该交点坐标即为模型的空间坐标。例如假设该交点坐标为(x9,y9,z9),则:
x9=x8+t(x8-x1)
y9=y8+t(y8-y1)
z9=z8+t(z8-z1)
其中,t为:
S104、根据所述辅助控制体的空间坐标和模型的空间坐标显示所述辅助控制体和模型。
当通过上述过程获得辅助控制体的空间坐标和模型的空间坐标后,即可在屏幕的空间中显示该辅助控制体和模型。由于模型的空间坐标是由辅助控制体的空间坐标获得的,因此,当辅助控制体的空间坐标发生变化时,相应的模型的空间坐标同样会发生变化,进而可以实现用户在操作辅助控制体移动的过程中,模型也会随辅助控制体的移动而移动。
进一步的,本实施例所提出的方法还包括:
根据虚拟相机的空间坐标、辅助控制体的空间坐标和预先设定的辅助控制体在屏幕中的预设显示范围获得辅助控制体在空间中的目标显示范围;
在屏幕中显示与所述目标显示范围相对应的辅助控制体。
具体的,在获得辅助控制体的空间坐标后,将该辅助控制体的空间坐标转换为屏幕坐标,例如转换后的辅助控制体的屏幕坐标为(x4,y4)。根据预先设定的辅助控制体在屏幕中的预设显示范围中辅助控制体中心点到端点的最大距离,假定最大距离为R,则可以获得辅助控制体的X轴方向的圆上点坐标为(x4+R,y4)。其中,该圆上点所在圆的半径为预先设定的辅助控制体在屏幕中的预设显示范围中辅助控制体中心点到端点的最大距离。此处需要注意的是,由于本实施例中辅助控制体可以为对称图形,也可以为非对称图形。对于对称图形,圆上点所在圆的半径为预设显示范围中辅助控制体中心点到端点的最大距离。对于非对称图形,圆上点所在圆的半径为预设显示范围中辅助控制体相距最远的两个端点之间距离的一半。然后将该圆上点坐标转换为3D场景中的坐标,假设为(x5,y5,z5)。根据虚拟相机的空间坐标可以获得空间第三直线方程:
根据辅助控制体的空间坐标和沿虚拟相机前向的方向向量为法向量可获得空间第三平面方程:
x6(x-x3)+y6(y-y3)+z6(z-z3)=0
其中,虚拟相机前向的方向向量为(x6,y6,z6)。
根据该空间第三直线方程和空间第三平面方程获得空间第三直线方程中直线与空间第三平面方程中平面的交点坐标,假设该交点坐标为 (x7,y7,z7),则:
x7=x5+t(x5-x1)
y7=y5+t(y5-y1)
z7=z5+t(z5-z1)
其中,t为:
最后根据该交点坐标和辅助控制体的空间坐标计算求出辅助控制体在空间中的半径大小,该半径即为辅助控制体在空间中的目标显示范围:
本实施例通过在辅助控制体移动过程中计算辅助控制体在空间中的目标显示范围,可以根据辅助控制体的移动位置随时调整辅助控制体展示在屏幕空间中的大小,能够给用户带来更好的视觉体验。
本实施例提供的模型控制方法,将3D场景下的辅助控制体和模型进行绑定,通过辅助控制体的空间坐标计算获得模型的空间坐标。这样,当辅助控制体的位置发生变化时,相对应的模型的位置也会同步发生变化,进而实现用户在控制辅助控制体的同时,模型也可以随着辅助控制体的移动而移动。同时,由于本发明在模型拖动的过程中没有任何定义坐标系以及拖动规则的操作,因此,辅助控制体和模型在移动过程中完全没有任何约束,可以以最大的自由度进行模型拖动,使得模型的拖动过程更为真实的反映用户的操作,增强模型拖动的真实性。此外,由于辅助控制体和模型之间相隔一定的距离,在模型拖动的过程中,模型始终处于屏幕上的触控点之外,不会造成遮挡,用户能够更为轻松和准确的拖动模型至所要拖动的位置,以避免误操作的情况发生。
此外,还需要说明的是,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,流程图中描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
实施例2
对应实施例1,本实施例提出了一种模型控制装置,所述装置包括:
屏幕坐标获取模块,用于获取屏幕上的触控点坐标;
辅助控制体空间坐标计算模块,用于根据所述屏幕上的触控点坐标和虚拟相机的空间坐标获得辅助控制体的空间坐标;
模型空间坐标计算模块,用于根据所述辅助控制体的空间坐标和预先设定的所述辅助控制体与模型之间的距离获得与所述辅助控制体相对应的模型的空间坐标;
显示模块,用于根据所述辅助控制体的空间坐标和模型的空间坐标显示所述辅助控制体和模型。
具体的,辅助控制体空间坐标计算模块包括:
第一坐标转换子模块,用于将所述屏幕上的触控点坐标转换为3D场景中的坐标;
空间第一直线方程计算子模块,用于根据虚拟相机的空间坐标和触控点在3D场景中的坐标的方向向量获得空间第一直线方程;
空间第一平面方程计算子模块,用于根据辅助控制体的初始屏幕坐标和沿所述辅助控制体的初始屏幕坐标Z轴的正向法向量获得空间第一平面方程;
辅助控制体空间坐标计算子模块,用于根据所述空间第一直线方程和所述空间第一平面方程获得所述空间第一直线方程中直线与所述空间第一平面方程中平面的交点坐标,所述交点坐标为所述辅助控制体的空间坐标。
模型空间坐标计算模块包括:
第二坐标转换子模块,用于将所述辅助控制体的空间坐标转换为屏幕坐标;
模型屏幕坐标计算子模块,用于根据所述辅助控制体的屏幕坐标和预先设定的辅助控制体与模型之间的距离获得模型的屏幕坐标;
第三坐标转换子模块,用于将所述模型的屏幕坐标转换为3D场景中的坐标;
空间第二直线方程子模块,用于根据所述模型在3D场景中的坐标和虚拟相机的空间坐标获得空间第二直线方程;
空间第二平面方程子模块,用于根据所述辅助控制体的空间坐标和沿虚拟相机前向的方向向量为法向量获得空间第二平面方程;
模型空间坐标计算子模块,用于根据所述空间第二直线方程和所述空间第二平面方程获得所述空间第二直线方程中直线与所述空间第二平面方程中平面的交点坐标,所述交点坐标为所述模型的空间坐标。
进一步的,本实施例所提出的模型控制装置还包括:
辅助控制体空间范围计算模块,用于根据虚拟相机的空间坐标、辅助控制体的空间坐标和预先设定的辅助控制体在屏幕中的预设显示范围获得辅助控制体在空间中的目标显示范围;
显示模块,用于在屏幕中显示与所述目标显示范围相对应的辅助控制体。
具体的,辅助控制体空间范围计算模块包括:
第四坐标转换子模块,用于将所述辅助控制体的空间坐标转换为屏幕坐标;
圆上点坐标计算子模块,用于根据所述辅助控制体的屏幕坐标和预先设定的辅助控制体在屏幕中的预设显示范围获得辅助控制体的X轴方向的圆上点坐标,所述圆上点所在圆的半径为所述预设显示范围中辅助控制体中心点到端点的最大距离;
空间第三直线方程计算子模块,用于将所述辅助控制体的X轴方向的圆上点坐标转换为3D场景中的坐标,并根据所述辅助控制体的X轴方向的圆上点在3D场景中的坐标和虚拟相机的空间坐标获得空间第三直线方程;
空间第三平面方程计算子模块,用于根据所述辅助控制体的空间坐标和沿虚拟相机前向的方向向量为法向量获得空间第三平面方程;
交点坐标计算子模块,用于根据所述空间第三直线方程和所述空间第三平面方程获得所述空间第三直线方程中直线与所述空间第三平面方程中平面的交点坐标;
辅助控制体空间范围计算子模块,用于根据所述交点坐标和所述辅助控制体的空间坐标获得辅助控制体在空间中的目标显示范围。
本实施例将3D场景下的辅助控制体和模型进行绑定,通过辅助控制体的空间坐标计算获得模型的空间坐标。这样,当辅助控制体的位置发生变化时,相对应的模型的位置也会同步发生变化,进而实现用户在控制辅助控制体的同时,模型也可以随着辅助控制体的移动而移动。同时,由于本发明在模型拖动的过程中没有任何定义坐标系以及拖动规则的操作,因此,辅助控制体和模型在移动过程中完全没有任何约束,可以以最大的自由度进行模型拖动,使得模型的拖动过程更为真实的反映用户的操作,增强模型拖动的真实性。此外,由于辅助控制体和模型之间相隔一定的距离,在模型拖动的过程中,模型始终处于屏幕上的触控点之外,不会造成遮挡,用户能够更为轻松和准确的拖动模型至所要拖动的位置,以避免误操作的情况发生。
实施例3
对应实施例1,本实施例提出了一个或多个存储计算机可执行指令的计算机可读介质,所述指令在由一个或多个计算机设备使用时使得一个或多个计算机设备执行如实施例1所述的模型控制方法。所述计算机可读介质可以是可由计算机设备访问的任何可用介质,且包括用任何方法和技术实现以存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息的易失性和非易失性介质、可移动和不可移动介质。计算机可读介质包括但不限于,RAM、 ROM、EEPROM、闪存或其它存储器技术、CD-ROM、数字多功能盘(DVD) 或其它光存储、盒式磁带、磁带、磁盘存储或其它磁存储设备,或者可用于存储所需信息并且可由计算设备访问的任何其它介质。上述的任意组合也应包含在计算机可读介质的范围内。
实施例4
对应实施例1,本实施例提出了一种计算机设备。如图5所示,该计算机设备30包括存储器301和处理器302,其中:所述存储器301存储有计算机程序,所述处理器302执行所述计算机程序时实现如实施例1所述的模型控制方法。其中存储器301和处理器302可以通过总线连接。
请参考图6,图6是用于执行本发明的模型控制方法的具体实施方式的一种典型计算机设备的结构示意图。更具体而言,用于执行前文所述的模型控制方法的各个自动化装置可作为该计算机设备的一部分包含于其中。所述计算机设备至少包括如下部分:CPU(中央处理器)501、RAM(随机存储器)502、ROM(只读存储器)503、系统总线500、硬盘控制单元504、硬盘505、人机交互外部设备控制单元506、人机交互外部设备507、串行接口控制单元508、串行接口外部设备509、并行接口控制单元510、并行接口外部设备511、显示设备控制单元512和显示设备513。其中,CPU 501、RAM 502、ROM 503、硬盘控制单元504、人机交互外部设备控制单元506、串行接口控制单元508、并行接口控制单元510以及显示设备控制单元512与系统总线500相连接,并通过系统总线500实现彼此之前的通信。此外,硬盘控制单元504与硬盘505相连接;人机交互外部设备控制单元506与人机交互外部设备507相连接,典型地该人机交互外部设备是鼠标、轨迹球、触摸屏或键盘;串行接口控制单元508与串行接口外部设备509相连接;并行接口控制单元510与并行接口外部设备511相连接;显示设备控制单元512和显示设备513相连接。
图6所述的结构框图仅仅示出了能实践本发明各个实施例的一种计算机设备的结构,而并非是对本发明的实践环境的限制。在一些情况下,可以根据需要添加或者减少该计算机设备中的一些设备。例如,图6所示的设备可以移除人机交互外部设备507和显示设备513,其具体实施形态仅仅是一个能够被外部设备访问的服务器。当然图6所示的计算机设备可以单独地实现本发明运行的环境,也可以通过网络互相连接起来而提供本发明各个具体实施方式所适用运行环境,例如本发明的各个模块和/步骤可以分布地实现在互相连接的各个计算机设备中。
本发明提供的模型控制方法中涉及软件逻辑的部分可以使用可编程逻辑器件来实现,也可以实施为计算机程序产品,该程序产品使计算机执行用于所示范的方法。所述计算机程序产品包括计算机可读存储介质,该介质上包含计算机程序逻辑或代码部分,用于实现上述涉及软件逻辑的部分的各个步骤。所述计算机可读存储介质可以是被安装在计算机中的内置介质或者可从计算机主体拆卸的可移动介质(例如可热拔插的存储设备)。所述内置介质包括但不限于可重写的非易失性存储器,例如RAM、ROM和硬盘。所述可移动介质包括但不限于:光存储媒体(例如CD-ROM和DVD)、磁光存储媒体(例如MO)、磁存储媒体(例如磁带或移动硬盘)、具有内置的可重写的非易失性存储器的媒体(例如存储卡)和具有内置ROM的媒体(例如 ROM盒)。
本领域技术人员应当理解,任何具有适当编程装置的计算机系统都能够执行包含在计算机程序产品中的本发明的方法的诸步骤。尽管本说明书中描述的多数具体实施方式都侧重于软件程序,但是以硬件方式实现本发明提供的方法的替代实施例同样在本发明要求保护的范围之内。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,在权利要求的等同要件的含义和范围内的所有变化均涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他部件、单元或步骤,单数不排除复数。权利要求中陈述的多个部件、单元或装置也可以由一个部件、单元或装置通过软件或者硬件来实现。
以上所披露的仅为本发明的一部分实施例或具体实施方式,不能以此来限定本发明之权利范围,依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (10)
1.一种模型控制方法,其特征在于,所述方法包括:
获取屏幕上的触控点坐标;
根据所述屏幕上的触控点坐标和虚拟相机的空间坐标获得辅助控制体的空间坐标;
根据所述辅助控制体的空间坐标和预先设定的所述辅助控制体与模型之间的距离获得与所述辅助控制体相对应的模型的空间坐标;
根据所述辅助控制体的空间坐标和模型的空间坐标显示所述辅助控制体和模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述屏幕上的触控点坐标和虚拟相机的空间坐标获得辅助控制体的空间坐标的过程包括:
将所述屏幕上的触控点坐标转换为3D场景中的坐标;
根据虚拟相机的空间坐标和触控点在3D场景中的坐标的方向向量获得空间第一直线方程;
根据辅助控制体的初始屏幕坐标和沿所述辅助控制体的初始屏幕坐标Z轴的正向法向量获得空间第一平面方程;
根据所述空间第一直线方程和所述空间第一平面方程获得所述空间第一直线方程中直线与所述空间第一平面方程中平面的交点坐标,所述交点坐标为所述辅助控制体的空间坐标。
3.根据权利要求1所述的方法,其特征在于,所述根据所述辅助控制体的空间坐标和预先设定的所述辅助控制体与模型之间的距离获得与所述辅助控制体相对应的模型的空间坐标的过程包括:
将所述辅助控制体的空间坐标转换为屏幕坐标;
根据所述辅助控制体的屏幕坐标和预先设定的辅助控制体与模型之间的距离获得模型的屏幕坐标;
将所述模型的屏幕坐标转换为3D场景中的坐标;
根据所述模型在3D场景中的坐标和虚拟相机的空间坐标获得空间第二直线方程;
根据所述辅助控制体的空间坐标和沿虚拟相机前向的方向向量为法向量获得空间第二平面方程;
根据所述空间第二直线方程和所述空间第二平面方程获得所述空间第二直线方程中直线与所述空间第二平面方程中平面的交点坐标,所述交点坐标为所述模型的空间坐标。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据虚拟相机的空间坐标、辅助控制体的空间坐标和预先设定的辅助控制体在屏幕中的预设显示范围获得辅助控制体在空间中的目标显示范围;
在屏幕中显示与所述目标显示范围相对应的辅助控制体。
5.根据权利要求4所述的方法,其特征在于,所述根据虚拟相机的空间坐标、辅助控制体的空间坐标和预先设定的辅助控制体在屏幕中的预设显示范围获得辅助控制体在空间中的目标显示范围的过程包括:
将所述辅助控制体的空间坐标转换为屏幕坐标;
根据所述辅助控制体的屏幕坐标和预先设定的辅助控制体在屏幕中的预设显示范围获得辅助控制体的X轴方向的圆上点坐标;
将所述辅助控制体的X轴方向的圆上点坐标转换为3D场景中的坐标,并根据所述辅助控制体的X轴方向的圆上点在3D场景中的坐标和虚拟相机的空间坐标获得空间第三直线方程;
根据所述辅助控制体的空间坐标和沿虚拟相机前向的方向向量为法向量获得空间第三平面方程;
根据所述空间第三直线方程和所述空间第三平面方程获得所述空间第三直线方程中直线与所述空间第三平面方程中平面的交点坐标;
根据所述交点坐标和所述辅助控制体的空间坐标获得辅助控制体在空间中的目标显示范围。
6.根据权利要求5所述的方法,其特征在于,所述辅助控制体为对称图形,所述圆上点所在圆的半径为所述预设显示范围中辅助控制体中心点到端点的最大距离。
7.根据权利要求5所述的方法,其特征在于,所述辅助控制体为非对称图形,所述圆上点所在圆的半径为所述预设显示范围中辅助控制体两个端点之间最大距离的一半。
8.一种模型控制装置,其特征在于,所述装置包括:
屏幕坐标获取模块,用于获取屏幕上的触控点坐标;
辅助控制体空间坐标计算模块,用于根据所述屏幕上的触控点坐标和虚拟相机的空间坐标获得辅助控制体的空间坐标;
模型空间坐标计算模块,用于根据所述辅助控制体的空间坐标和预先设定的所述辅助控制体与模型之间的距离获得与所述辅助控制体相对应的模型的空间坐标;
显示模块,用于根据所述辅助控制体的空间坐标和模型的空间坐标显示所述辅助控制体和模型。
9.一个或多个存储计算机可执行指令的计算机可读介质,所述指令在由一个或多个计算机设备使用时使得一个或多个计算机设备执行如权利要求1至7任一项所述的模型控制方法。
10.一种计算机设备,所述计算机设备包括存储器和处理器,其中:
所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的模型控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210268421.7A CN114733192A (zh) | 2022-03-18 | 2022-03-18 | 模型控制方法、装置、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210268421.7A CN114733192A (zh) | 2022-03-18 | 2022-03-18 | 模型控制方法、装置、介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114733192A true CN114733192A (zh) | 2022-07-12 |
Family
ID=82278032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210268421.7A Pending CN114733192A (zh) | 2022-03-18 | 2022-03-18 | 模型控制方法、装置、介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114733192A (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10116360A (ja) * | 1996-10-11 | 1998-05-06 | Meidensha Corp | 3次元オブジェクトモデル作成方法 |
JP2002298160A (ja) * | 2001-03-29 | 2002-10-11 | Namco Ltd | 携帯型画像生成装置、プログラム及び情報記憶媒体 |
US20060094503A1 (en) * | 2004-10-29 | 2006-05-04 | Nintendo Co., Ltd. | Game program |
US20070052712A1 (en) * | 2005-09-02 | 2007-03-08 | Nintendo Co., Ltd. | Game apparatus, storage medium storing a game program, and game controlling method |
WO2010021182A1 (ja) * | 2008-08-22 | 2010-02-25 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法、プログラム及び情報記憶媒体 |
EP2508233A2 (en) * | 2011-04-08 | 2012-10-10 | Nintendo Co., Ltd. | Information processing program, information processing apparatus, information processing system, and information processing method |
JP2017027163A (ja) * | 2015-07-16 | 2017-02-02 | 株式会社コロプラ | 仮想カメラの制御方法及び制御プログラム |
WO2018090893A1 (zh) * | 2016-11-16 | 2018-05-24 | 腾讯科技(深圳)有限公司 | 一种基于触摸屏的操控方法和装置 |
CN108355353A (zh) * | 2017-12-29 | 2018-08-03 | 网易(杭州)网络有限公司 | 信息处理方法及装置、存储介质、电子设备 |
CN110264568A (zh) * | 2019-06-21 | 2019-09-20 | 网易(杭州)网络有限公司 | 一种三维虚拟模型交互方法和装置 |
CN110548289A (zh) * | 2019-09-18 | 2019-12-10 | 网易(杭州)网络有限公司 | 一种三维控件显示的方法和装置 |
JPWO2021140603A1 (zh) * | 2020-01-09 | 2021-07-15 |
-
2022
- 2022-03-18 CN CN202210268421.7A patent/CN114733192A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10116360A (ja) * | 1996-10-11 | 1998-05-06 | Meidensha Corp | 3次元オブジェクトモデル作成方法 |
JP2002298160A (ja) * | 2001-03-29 | 2002-10-11 | Namco Ltd | 携帯型画像生成装置、プログラム及び情報記憶媒体 |
US20060094503A1 (en) * | 2004-10-29 | 2006-05-04 | Nintendo Co., Ltd. | Game program |
US20070052712A1 (en) * | 2005-09-02 | 2007-03-08 | Nintendo Co., Ltd. | Game apparatus, storage medium storing a game program, and game controlling method |
WO2010021182A1 (ja) * | 2008-08-22 | 2010-02-25 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法、プログラム及び情報記憶媒体 |
EP2508233A2 (en) * | 2011-04-08 | 2012-10-10 | Nintendo Co., Ltd. | Information processing program, information processing apparatus, information processing system, and information processing method |
JP2017027163A (ja) * | 2015-07-16 | 2017-02-02 | 株式会社コロプラ | 仮想カメラの制御方法及び制御プログラム |
WO2018090893A1 (zh) * | 2016-11-16 | 2018-05-24 | 腾讯科技(深圳)有限公司 | 一种基于触摸屏的操控方法和装置 |
CN108355353A (zh) * | 2017-12-29 | 2018-08-03 | 网易(杭州)网络有限公司 | 信息处理方法及装置、存储介质、电子设备 |
CN110264568A (zh) * | 2019-06-21 | 2019-09-20 | 网易(杭州)网络有限公司 | 一种三维虚拟模型交互方法和装置 |
CN110548289A (zh) * | 2019-09-18 | 2019-12-10 | 网易(杭州)网络有限公司 | 一种三维控件显示的方法和装置 |
JPWO2021140603A1 (zh) * | 2020-01-09 | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10311544B2 (en) | Method for detecting collision between cylindrical collider and convex body in real-time virtual scenario, terminal, and storage medium | |
CN109636919B (zh) | 一种基于全息技术的虚拟展馆构建方法、系统及存储介质 | |
JP7556839B2 (ja) | 複合現実において動的仮想コンテンツを生成するデバイスおよび方法 | |
CN103157281B (zh) | 一种二维游戏场景显示的方法和设备 | |
CN114648615B (zh) | 目标对象交互式重现的控制方法、装置、设备及存储介质 | |
US20220375164A1 (en) | Method and apparatus for three dimensional reconstruction, electronic device and storage medium | |
CN103679792B (zh) | 一种三维模型的渲染方法和系统 | |
CN112632683A (zh) | 基于虚幻引擎的数字孪生城市空间定位方法、装置及存储介质 | |
EP4002072A1 (en) | Interpreting inputs for three-dimensional virtual spaces from touchscreen interface gestures to improve user interface functionality | |
US11204679B1 (en) | Snapping objects into alignment in three-dimensional space | |
RU2736628C1 (ru) | Способ и система рендеринга 3d моделей в браузере с использованием распределенных ресурсов | |
Dong et al. | Real-time occlusion handling for dynamic augmented reality using geometric sensing and graphical shading | |
CN106503171B (zh) | 一种矢量数据的处理方法及装置 | |
CN112465971B (zh) | 模型中点位的引导方法和装置、存储介质、电子设备 | |
CN113705378A (zh) | 样本数据的生成方法、装置及电子设备 | |
CN110264568B (zh) | 一种三维虚拟模型交互方法和装置 | |
CN114733192A (zh) | 模型控制方法、装置、介质及设备 | |
CN117994482A (zh) | 基于图像进行三维模型重建的方法、装置、介质和设备 | |
Xin et al. | Application of 3D tracking and registration in exhibition hall navigation interaction | |
CN112862981B (zh) | 用于呈现虚拟表示的方法和装置、计算机设备和存储介质 | |
CN114596407A (zh) | 资源对象三维模型生成交互方法和装置,显示方法和装置 | |
CN112037336B (zh) | 相邻点位分割方法及装置 | |
Blut et al. | X-Reality for intuitive BIM-based as-built documentation | |
CN115601512B (zh) | 交互式三维重建方法、装置、计算机设备及存储介质 | |
US20240160800A1 (en) | Simulation of Parts and Assemblies in a Computer Aided Design Modeling Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |