[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7235689B2 - Haptic sensation presentation method, system and program - Google Patents

Haptic sensation presentation method, system and program Download PDF

Info

Publication number
JP7235689B2
JP7235689B2 JP2020030375A JP2020030375A JP7235689B2 JP 7235689 B2 JP7235689 B2 JP 7235689B2 JP 2020030375 A JP2020030375 A JP 2020030375A JP 2020030375 A JP2020030375 A JP 2020030375A JP 7235689 B2 JP7235689 B2 JP 7235689B2
Authority
JP
Japan
Prior art keywords
tactile
tactile sensation
sensation
display
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020030375A
Other languages
Japanese (ja)
Other versions
JP2021135655A (en
Inventor
優輝 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020030375A priority Critical patent/JP7235689B2/en
Publication of JP2021135655A publication Critical patent/JP2021135655A/en
Application granted granted Critical
Publication of JP7235689B2 publication Critical patent/JP7235689B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、触感提示方法、システムおよびプログラムに係り、特に、ユーザが指定したディスプレイ上の位置に表示されている任意の物体の触感を当該ユーザに視覚的、直感的に提示できる触感提示方法、システムおよびプログラムに関する。 The present invention relates to a tactile sensation presentation method, system, and program, and in particular, a tactile sensation presentation method that can visually and intuitively present to the user the tactile sensation of any object displayed at a position on the display specified by the user. Regarding systems and programs.

非特許文献1には、マウス等のポインティングデバイスによる位置入力を矢印カーソルとしてディスプレイ上に表示し、そのカーソルの動きや大きさを制御することでユーザに触感を提示するシステムが開示されている。例えば、ディスプレイに表示されたガタガタした面の上で矢印カーソルを移動させようとすると、マウスカーソルが上下に揺れるように表示される。また、ガムテープの接着面が表示された部分で矢印カーソルを動かそうとすると、カーソルがつっかかりながら移動する。非特許文献1では、このようなカーソルの動きの変化によって、ユーザはディスプレイに表示された物体の触感を擬似的に得られる。 Non-Patent Document 1 discloses a system that displays a position input by a pointing device such as a mouse as an arrow cursor on a display, and presents a tactile sensation to the user by controlling the movement and size of the cursor. For example, if you try to move the arrow cursor over a rickety surface displayed on the display, the mouse cursor will appear to wobble up and down. Also, if you try to move the arrow cursor at the part where the adhesive surface of the packing tape is displayed, the cursor will move while being stuck. In Non-Patent Document 1, the user can obtain a simulated tactile sensation of an object displayed on the display by such a change in cursor movement.

特許文献1には、主にオンラインショッピングへの利用を想定し、商品の各種情報を提供するウェブページをHTML文書の形式で生成するサーバ装置と、タッチパネルからのタッチ入力に基づいてアクチュエータを駆動することで物体の触感を提示する触感提示装置が開示されている。 Japanese Patent Laid-Open No. 2002-200011 describes a server device that generates a web page providing various information about products in the form of an HTML document, mainly for use in online shopping, and a device that drives an actuator based on touch input from a touch panel. Disclosed is a tactile sensation presentation device that presents the tactile sensation of an object.

特許文献1では、サーバ装置が生成するウェブページに「触感体感」と記載されたアイコンが表示されており、ユーザはスマートフォンのような消費者端末からアイコンをクリックすることで、サーバ装置から触感提示装置の制御パラメータをダウンロードできる。消費者端末と触感提示装置とは有線あるいは無線で接続され、ダウンロードした制御パラメータを触感提示装置に適用し、触感提示装置のタッチパネルに指先で触れることでユーザは所望の商品の触感を体感できる。 In Patent Document 1, a web page generated by a server device displays an icon labeled "tactile sensation", and a user clicks the icon from a consumer terminal such as a smartphone to present a tactile sensation from the server device. Device control parameters can be downloaded. The consumer terminal and the tactile sensation presentation device are connected by wire or wirelessly, the downloaded control parameters are applied to the tactile sensation presentation device, and the user can experience the tactile sensation of the desired product by touching the touch panel of the tactile sensation presentation device with a fingertip.

特開2019-128738号公報Japanese Patent Application Laid-Open No. 2019-128738

Keita Watanabe Michiaki Yasumura, VisualHaptics: Generating Haptic Sensation Using Only Visual Cues,ACE '08: Proceedings of the 2008 International Conference on Advances in Computer Entertainment TechnologyKeita Watanabe Michiaki Yasumura, VisualHaptics: Generating Haptic Sensation Using Only Visual Cues,ACE '08: Proceedings of the 2008 International Conference on Advances in Computer Entertainment Technology

特許文献1の装置は、オンラインショッピングにおいて触感をユーザに提供する用途に最適化されている。非特許文献1も、予め用意した物体の触感を提示するシステムである。このため、任意の場面において、任意の物体の触感をユーザに視覚的、直感的に提供する装置を構成する際、以下の点が技術的な課題となる。 The device of Patent Literature 1 is optimized for use in providing tactile sensations to users in online shopping. Non-Patent Document 1 is also a system that presents the tactile sensation of an object prepared in advance. Therefore, when constructing a device that visually and intuitively provides a user with a tactile sensation of an arbitrary object in an arbitrary scene, the following points become technical problems.

第1に、物体に紐づく触感パラメータを事前に準備する必要があるため、触感を体感させる対象物体の点数の増大に伴い、触感パラメータのセッティング回数が増大し、時間的コストが生じる。 First, since it is necessary to prepare tactile parameters linked to objects in advance, as the number of target objects for which tactile sensations are experienced increases, the number of times the tactile parameters are set increases, resulting in a time cost.

第2に、一つの物品に対して一つの触感パラメータを設定しているため、同一場面において複数の物体の触感を同時に再現できない。例えば、キッチンの場面ではコップやフライパンといった様々な物体が存在する。そのような場面において、コップの触感やフライパンの触感を同時に視覚的、直感的に表現することができない。 Secondly, since one tactile parameter is set for one article, the tactile sensations of a plurality of objects cannot be reproduced simultaneously in the same scene. For example, in a kitchen scene, there are various objects such as cups and frying pans. In such a scene, it is impossible to visually and intuitively express the tactile sensation of a cup and the tactile sensation of a frying pan at the same time.

本発明の目的は、上記の技術課題を解決し、ディスプレイに表示されている物体について、ユーザが要求した任意の物体の触感を視覚的、直感的に提示できる触感提示方法、システムおよびプログラムを提供することにある。 An object of the present invention is to solve the above technical problems, and to provide a tactile sensation presentation method, system, and program that can visually and intuitively present the tactile sensation of any object displayed on a display requested by the user. to do.

上記の目的を達成するために、本発明は、ディスプレイに表示される物体の触感を視覚的に提示する触感提示システムにおいて、以下の構成を具備した点に特徴がある。 In order to achieve the above objects, the present invention is characterized by having the following configuration in a tactile sensation presentation system that visually presents the tactile sensation of an object displayed on a display.

(1) 物体の映像を取得する手段と、物体の種別ごとに触感パラメータを保持する触感記憶手段と、ディスプレイに表示される物体の種別および位置を識別する手段と、前記物体の種別および位置の識別結果ならびに前記触感記憶手段に基づいて、前記ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手段と、ディスプレイに対する触感要求操作に基づいて触感要求位置を検知する手段と、前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段と、取得した触感パラメータに基づいて、前記触感要求位置の触感を視覚的に表現する触感インジケータを表示する手段とを具備した。 (1) means for acquiring an image of an object, tactile sensation storage means for holding tactile sensation parameters for each type of object, means for identifying the type and position of the object displayed on the display, and identifying the type and position of the object. means for generating tactile information that associates each position on the display with a tactile parameter based on the identification result and the tactile sensation storage means; means for detecting a tactile sensation requesting position based on a tactile sensation requesting operation on the display; and the tactile sensation A means for acquiring a tactile parameter corresponding to the requested position based on the tactile information, and a means for displaying a tactile indicator visually expressing the tactile sensation at the tactile requested position based on the acquired tactile parameter.

(2) 触感インジケータが物体の背景領域の全域に複数表示されるようにした。 (2) Multiple tactile indicators are displayed over the entire background area of the object.

(3) 触感要求位置がスライドすると各スライド位置の触感に応じて触感インジケータが変化するようにした。 (3) When the tactile sensation request position slides, the tactile indicator changes according to the tactile sensation at each slide position.

(4) 触感要求位置のスライドに応じて触感インジケータの表示位置が移動するようにした。 (4) The display position of the tactile indicator is moved according to the sliding of the tactile request position.

(5) 今回のフレーム画像に基づいて生成した触感情報を、前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正する手段を具備した。 (5) A means is provided for correcting the tactile information generated based on the current frame image based on each tactile information generated based on each frame image before the last time.

(6) 今回フレームの全てのピクセルまたは触感要求位置の種別を、当該各ピクセルまたは触感要求位置と前回以前の各フレーム画像の各ピクセルとの距離およびその種別に基づく重み付き線形和で修正する手段を具備した。 (6) Means for correcting all pixels in the current frame or types of tactile sensation requested positions by a weighted linear sum based on the distance between each pixel or tactile sensation requested position and each pixel of each frame image before the previous one and the type thereof. Equipped with

(7) フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正する手段を適用しないようにした。 (7) A type histogram is created for each frame, and the correction means is not applied between frames in which the change in the type histogram exceeds a predetermined threshold.

(1) ディスプレイに表示される物体の種別および位置が識別され、ユーザが触感を体感したい物体の表示位置を指定すると、当該指定位置に表示されている物品の識別結果に基づいてその触感パラメータが取得されて触感がインジケータで表現されるので、ユーザはディスプレイに表示される任意の物体の触感を視覚的、直感的に得られるようになる。 (1) The type and position of the object displayed on the display are identified, and when the user designates the display position of the object that the user wants to experience the tactile sensation, the tactile parameter is determined based on the identification result of the object displayed at the designated position. Since the obtained tactile sensation is represented by the indicator, the user can visually and intuitively obtain the tactile sensation of any object displayed on the display.

その結果、触感を伴った映画や、画像中に含まれる商品のそれぞれの触感を視覚的に経験しながら商品選択できるオンラインショッピングなどを実現できるようになる。また、リアルタイムに処理を行うことができるため、触感を伴ったテレコミュニケーションシステムを実現できる。更に、架空のキャラクターを識別して触感を付与することで、登場キャラクターに触ることができる漫画書籍やアニメーション等の製作等、より臨場感のあるアプリケーションを製作できるようになる。 As a result, it becomes possible to realize movies with tactile sensations, online shopping, etc., in which a product can be selected while visually experiencing the tactile sensation of each product included in the image. Moreover, since processing can be performed in real time, a telecommunication system with tactile sensation can be realized. Furthermore, by identifying fictitious characters and giving them tactile sensations, it is possible to produce applications with a more realistic feel, such as production of comic books, animations, etc., in which characters appearing can be touched.

(2) 触感インジケータが物体の背景領域の全域に表示されるので、触感を得たい物品の表示を妨げることなく、当該物品の様々な触感を視覚的、直感的に提示できるようになる。 (2) Since the tactile indicator is displayed on the entire background area of the object, various tactile sensations of the object can be presented visually and intuitively without obstructing the display of the object.

(3) 触感要求位置がスライドすると各スライド位置の触感に応じて触感インジケータが変化するので、触感が位置に応じて変化する物品の触感も漏れなく視覚的に表現できるようになる。 (3) When the tactile sensation requesting position slides, the tactile indicator changes according to the tactile sensation at each slide position, so that the tactile sensation of the article, which varies depending on the position, can be visually expressed without omission.

(4) 触感要求位置のスライドに応じて触感インジケータの表示位置が移動するので、物品の質感を視覚的にダイナミックに表現できるようになる。 (4) Since the display position of the tactile indicator moves according to the sliding of the tactile sensation request position, the texture of the article can be dynamically expressed visually.

(5) 今回のフレーム画像に基づいて生成した触感情報を前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正することができるので、物体の種別を正しく識別できなかった場合でも当該物体の正しい触感をユーザに提示できるようになる。 (5) The tactile information generated based on the current frame image can be corrected based on the tactile information generated based on the previous and previous frame images. It becomes possible to present the correct tactile sensation of the object to the user.

(6) 今回フレームの各ピクセルまたは触感要求位置の種別を、当該各ピクセルまたは触感要求位置と前回以前の各フレーム画像の各ピクセルとの距離およびその種別に基づく重み付き線形和で修正するので、種別の推定結果を時間的、空間的に抽象化できる。したがって、種別の推定において一時的あるいは部分的な誤認識が生じたとしても、触感表現への影響を軽減できるようになる。 (6) Each pixel of the current frame or the type of the tactile sensation requested position is corrected by a weighted linear sum based on the distance between each pixel or the tactile sensation requested position and each pixel of each frame image before the previous time and the type thereof, The type estimation result can be abstracted temporally and spatially. Therefore, even if temporary or partial misrecognition occurs in estimating the type, the influence on the tactile expression can be reduced.

(7) フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正を適用しないようにしたので、映像が大きく変化する前の触感情報が、大きく変化した後の触感情報に基づいて修正されてしまうような、誤った修正を防止できるようになる。 (7) A type histogram is created for each frame, and the correction is not applied between frames where the change in the type histogram exceeds a predetermined threshold. It is possible to prevent erroneous correction, such as correction based on later tactile information.

本発明を適用した触感提示システムの機能ブロック図である。1 is a functional block diagram of a tactile presentation system to which the present invention is applied; FIG. 触感情報の例を示した図である。FIG. 4 is a diagram showing an example of tactile information; 触覚の要求方法を説明した図である。It is a figure explaining the request|requirement method of a tactile sense. 本発明の第1実施形態に係る触覚インジケータの表示方法を示した図である。FIG. 4 is a diagram showing a method of displaying a tactile indicator according to the first embodiment of the present invention; 本発明の第2実施形態に係る触覚インジケータの表示方法を示した図である。FIG. 10 is a diagram showing a method of displaying a tactile indicator according to the second embodiment of the present invention; 触感インジケータの形状で触感を表現する例を示した図である。FIG. 10 is a diagram showing an example of expressing a tactile sensation with the shape of a tactile indicator; 針鼠の触覚を触感インジケータの形状で表現する例を示した図である。FIG. 10 is a diagram showing an example of expressing the tactile sense of a hedgehog in the shape of a tactile indicator. 触感インジケータの大きさで触感を表現する例を示した図である。FIG. 10 is a diagram showing an example of expressing a tactile sensation with the size of a tactile indicator; 人顔の頬部分の触感を触感インジケータの大きさで表現した図である。FIG. 4 is a diagram expressing the tactile sensation of the cheek portion of a human face by the size of the tactile indicator. 温度を触感インジケータの色で表現する例を示した図である。FIG. 10 is a diagram showing an example of expressing temperature by the color of a tactile indicator; 滑らかさを触感インジケータの動きで表現する例を示した図である。FIG. 10 is a diagram showing an example of expressing smoothness by movement of a tactile indicator; タッチ操作のスライド位置の触感をインジケータの動きで表現する例を示した図である。FIG. 10 is a diagram showing an example of expressing a tactile sensation of a slide position of a touch operation by movement of an indicator; タッチ操作を直線的にスライドされたときの触感をインジケータがスライド方向の左右に変位することで表現する例を示した図である。FIG. 11 is a diagram showing an example of expressing a tactile sensation when a touch operation is linearly slid by displacing an indicator to the left and right in the sliding direction; タッチ操作のスライドに同期して背景領域の触感インジケータを移動させ、更にその形状等をスライド位置の触感に応じて変化させる例を示した図である。FIG. 10 is a diagram showing an example in which the tactile indicator in the background area is moved in synchronization with the sliding of the touch operation, and the shape and the like are changed according to the tactile sensation at the slide position. タッチ操作の位置がスライドされたときに触感が変化する過程で触感インジケータの表示を部分的に切り替える例を示した図である。FIG. 10 is a diagram showing an example of partially switching the display of the tactile indicator in the process of changing the tactile sensation when the position of the touch operation is slid; タッチ位置が触覚の異なる物品間でスライドされる場合の触感インジケーの表示切替方法を模式的に示した図である。FIG. 10 is a diagram schematically showing a display switching method of a tactile indicator when a touch position is slid between articles having different tactile sensations; 本発明を適用した触感提示方法のフローチャートである。4 is a flow chart of a tactile presentation method to which the present invention is applied; 触感提示システムをローカル端末及びサーバ装置で構成した実施形態の機能ブロック図である。1 is a functional block diagram of an embodiment in which a tactile sensation presentation system is configured with a local terminal and a server device; FIG. 図18に示した触感提示システムのシーケンスフローである。19 is a sequence flow of the tactile sensation presentation system shown in FIG. 18; 触感提示システムをローカル端末及びサーバ装置で構成した実施形態の機能ブロック図である。1 is a functional block diagram of an embodiment in which a tactile sensation presentation system is configured with a local terminal and a server device; FIG. 図20に示した触感提示システムのシーケンスフローである。21 is a sequence flow of the tactile sensation presentation system shown in FIG. 20; 触感提示システムをローカル端末で構成した実施形態の機能ブロック図である。1 is a functional block diagram of an embodiment in which a tactile sensation presentation system is configured by a local terminal; FIG. マップ修正部を備えた触感提示システムの機能ブロック図である。FIG. 4 is a functional block diagram of a tactile sensation presentation system having a map correction unit; マップ修正部の機能を説明した図である。It is a figure explaining the function of a map correction part. マップ修正部をローカル端末に備えた触感提示システムの機能ブロック図である。FIG. 3 is a functional block diagram of a tactile presentation system in which a local terminal is provided with a map correction unit; 今回フレームの触感要求位置の種別を修正する方法を模式的に示した図である。FIG. 11 is a diagram schematically showing a method of correcting the type of tactile sensation requested position of the current frame; カメラの切替わりや物体の入替わりを検知する方法を模式的に示した図である。FIG. 4 is a diagram schematically showing a method of detecting switching of cameras and replacement of objects; マップ修正部をサーバ装置に備えた触感提示システムの機能ブロック図である。FIG. 3 is a functional block diagram of a tactile sensation presentation system in which a map correction unit is provided in a server device;

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明を適用した触感提示システム10の機能ブロック図である。本発明の触感提示システム10は、複数の物体を表示するディスプレイ上でユーザが指定した物体の触感情報を当該ディスプレイ上に視覚的に表現することで、ユーザへの触感提示を実現する。なお、以下の実施形態は本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram of a tactile presentation system 10 to which the present invention is applied. The tactile sensation presentation system 10 of the present invention presents tactile sensations to the user by visually expressing tactile information of an object specified by the user on a display that displays a plurality of objects. It should be noted that the following embodiment is an example that embodies the present invention, and does not limit the technical scope of the present invention.

本発明では、触感を要求する物品の指定がタッチパネルディスプレイに対するタッチ操作で行われる場合を例にして説明するが、本発明はこれのみに限定されず、マウス等のポインティングデバイスによるポインティング操作で指定するようにしても良い。 In the present invention, an example will be described in which an article requiring a tactile sensation is designated by a touch operation on a touch panel display, but the present invention is not limited to this, and is designated by a pointing operation using a pointing device such as a mouse. You can do it.

映像取得部100は、被写体として物体を含む静止画像または動画映像(以下、映像またはフレーム画像で代表する)をネットワーク経由またはローカルに取得し、タッチ操作を検知できるタッチパネル102aを表示面に備えたディスプレイ102に表示する。 The image acquisition unit 100 acquires a still image or a moving image including an object as a subject (hereinafter, represented by an image or a frame image) via a network or locally, and a display having a touch panel 102a capable of detecting touch operations on its display surface. 102.

物体識別部101は、種別識別部101aおよび位置識別部101bを含み、タッチパネルディスプレイ102に表示される物体の種別および位置座標をそれぞれ識別する。位置座標は、平面的な2D位置座標であっても良いし、奥行き情報(z軸方向)を加えた立体的な3D位置座標であっても良い。 The object identification unit 101 includes a type identification unit 101a and a position identification unit 101b, and identifies the type and position coordinates of the object displayed on the touch panel display 102, respectively. The positional coordinates may be planar 2D positional coordinates, or may be stereoscopic 3D positional coordinates to which depth information (z-axis direction) is added.

前記種別識別部101aとしては、矩形領域として二次元の位置座標を推定するYOLO、あるいは自由形状の領域として二次元の位置座標を推定するDeepLabなどのアルゴリズムを使用できる。奥行き情報を推定するアルゴリズムとしてはPlaneNetなどを使用できる。また、TOF (Time of Flight) センサ等により物体の奥行き情報を取得している場合はその値を用いてもよい。 As the type identifying unit 101a, an algorithm such as YOLO for estimating two-dimensional positional coordinates as a rectangular area or DeepLab for estimating two-dimensional positional coordinates as a free-form area can be used. PlaneNet or the like can be used as an algorithm for estimating depth information. Also, if the depth information of the object is acquired by a TOF (Time of Flight) sensor or the like, that value may be used.

触感データベース(DB)103には、物体の種別ごとに、後に詳述する触感パラメータが保持されている。触感パラメータには、物体ごとに固有の「ヤング率」、「表面粗さ」あるいは「熱伝導率」といった物質特性に対応するパラメータ、および/または「硬さ感」、「粗さ感」あるいは「ひんやり感」といった触感の知覚強度に対応するパラメータが含まれる。 A tactile database (DB) 103 holds tactile parameters, which will be described in detail later, for each type of object. The tactile parameters include parameters corresponding to material properties such as "Young's modulus", "surface roughness" or "thermal conductivity" unique to each object, and/or "hardness", "roughness" or " It includes a parameter corresponding to the perceived strength of the tactile sensation, such as "cool feeling".

触感情報生成部104は、物体識別部101から取得した各物体の種別に対応した触感パラメータを前記触感データベース103から取得し、図2に一例を示したように、認識物体マップd1と触感データサブセットd2とから構成される触感情報Dを生成する。認識物体マップd1は、タッチパネルディスプレイ102における各物体の位置座標を定義する。触感データサブセットd2は、各物体の種別と触感パラメータとを対応付ける。 The tactile information generation unit 104 acquires from the tactile sense database 103 tactile sense parameters corresponding to the type of each object acquired from the object identification unit 101, and generates a recognized object map d1 and a tactile sense data subset as shown in FIG. d2 and tactile information D is generated. The recognized object map d1 defines the position coordinates of each object on the touch panel display 102. FIG. The tactile data subset d2 associates each object type with tactile parameters.

触感要求検知部105は、位置検知部105aおよび触り方検知部105bを含む。位置検知部105aは、物体を表示しているタッチパネルディスプレイ102のタッチパネル102aに対するユーザのタッチ操作に基づいて、当該ユーザが触感を要求している物体の位置を触感要求位置Pとして検知する。触り方検知部105bは、前記タッチ操作に基づいて、タッチ速度やタッチ圧の時系列変化を"触り方Q"として検知する。触感要求がタッチ操作ではなくマウス等のポインティングデバイスにより行われた場合は触感要求位置Pのみが検知される。 The tactile sensation request detection unit 105 includes a position detection unit 105a and a touch method detection unit 105b. The position detection unit 105a detects the position of the object for which the user is requesting the tactile sensation as the tactile sensation request position P based on the user's touch operation on the touch panel 102a of the touch panel display 102 displaying the object. The touch detection unit 105b detects a time-series change in touch speed or touch pressure as a "touch Q" based on the touch operation. If the tactile sensation request is made by a pointing device such as a mouse instead of a touch operation, only the tactile sensation request position P is detected.

触感パラメータ取得部106は、前記触感情報Dから触感要求位置Pに基づいて当該ユーザが触感を要求した物体の触感パラメータを取得する。触感インジケータ生成部107は、前記触感要求位置P,触り方Qおよび触感パラメータを、予め学習した所定のモデル式に適用して触感インジケータを生成する。触感インジケータ表示部108は、触感インジケータを前記フレーム画像に重畳表示する。 The tactile parameter acquisition unit 106 acquires the tactile parameter of the object for which the user has requested the tactile sensation from the tactile information D based on the tactile sensation request position P. The tactile indicator generation unit 107 generates a tactile indicator by applying the tactile sensation request position P, the touch method Q, and the tactile sensation parameter to a predetermined model formula learned in advance. A tactile indicator display unit 108 superimposes a tactile indicator on the frame image.

図3,4,5は、本発明による触覚インジケータInの表示方法を示した図であり、図3に示したように、車、人および犬が表示されている画面においてオペレータが人顔の頬部分にタッチ操作等して触感要求を行うと、当該触覚要求位置Pの触覚パラメータが前記触感パラメータ取得部106により取得される。 FIGS. 3, 4, and 5 are diagrams showing a display method of the tactile indicator In according to the present invention. As shown in FIG. 3, on a screen on which a car, a person, and a dog are displayed, the operator touches the cheek of a human face. When a tactile sensation is requested by performing a touch operation or the like on a part, the tactile parameter of the tactile sensation request position P is acquired by the tactile parameter acquisition unit 106 .

図4は、本発明の第1実施形態に係る触覚インジケータInの表示方法を示した図である。本実施形態では、触覚要求位置Pを中心に、当該触覚要求位置Pの触感を視覚的に表現する所定形状の触感インジケータInが重畳表示される。 FIG. 4 is a diagram showing a display method of the tactile indicator In according to the first embodiment of the present invention. In the present embodiment, a tactile sensation indicator In having a predetermined shape that visually expresses the tactile sensation of the tactile sensation requesting position P is superimposed on the tactile sensation requesting position P in the center.

図5は、本発明の第2実施形態に係る触覚インジケータの表示方法を示した図である。本実施形態では、触覚要求位置Pの物品以外の背景領域(車領域および犬領域を含む)に、触覚要求位置Pの触覚を視覚的に表現する多数の触感インジケータInが離散的かつ規則的な配列で重畳表示される。このとき、触感インジケータInを見易くするために、触感を要求されていない物品の表示色を薄くし、あるいは淡くするようにしても良い。 FIG. 5 is a diagram showing a display method of a tactile indicator according to the second embodiment of the invention. In this embodiment, a large number of tactile sense indicators In that visually represent the tactile sense of the tactile sense requesting position P are discretely and regularly arranged in the background region (including the car region and the dog region) other than the article at the tactile sense requesting position P. It is displayed superimposed in an array. At this time, in order to make the tactile indicator In easier to see, the display color of an article that does not require a tactile sensation may be made lighter or lighter.

前記インジケータInは、その形状、色、大きさ、動き等で触覚要求位置Pの触感を視覚的に表現できる。図6は触感インジケータInの形状で触感を表現する例を示した図であり、触感インジケータInは触感が十分に滑らかであれば、その滑らかさを直感的に表現する円形状であるが、触感が粗くなるにつれてその円周上に突起物が出現し、さらに突起物の形状が先鋭化して表面の粗さを直感的に表現する形状となる。 The indicator In can visually express the tactile sensation of the tactile sensation requesting position P by its shape, color, size, movement, and the like. FIG. 6 is a diagram showing an example of expressing a tactile sensation with the shape of the tactile indicator In. If the tactile sensation is sufficiently smooth, the tactile indicator In has a circular shape that intuitively expresses the smoothness. As the surface becomes rougher, protrusions appear on the circumference, and the shape of the protrusions becomes sharper to intuitively express the roughness of the surface.

図7は、第2実施形態において、針鼠の体表部分に対して触覚要求した場合の触覚の視覚化例を示した図であり、背景領域に表示された触感インジケータInの外周部に先鋭化した多数の突起が出現している。 FIG. 7 is a diagram showing a visualization example of the tactile sensation when a tactile sensation is requested to the body surface of a hedgehog in the second embodiment, and the tactile indicator In displayed in the background area is sharpened to the outer periphery. A large number of protrusions appear.

図8は、触覚要求位置Pの硬さを触感インジケータInの大きさで表現する例を示している。タッチパネルセンサ102aが接触圧を検知できるよう構成されている場合、本実施形態では、タッチ操作時の押し込み圧力が大きいほど、また触感が柔らかいほど、触感インジケータInのサイズが大きくなる。図9は、人顔の頬部分の硬さを触感インジケータInの大きさで表現した図であり、図5に比べて触感インジケータInが大きく表示され、触感がより柔らかいことを表現している。 FIG. 8 shows an example of expressing the hardness of the tactile sensation required position P by the size of the tactile indicator In. In the case where the touch panel sensor 102a is configured to detect contact pressure, in the present embodiment, the size of the tactile indicator In increases as the pressing pressure during the touch operation increases and as the tactile sensation becomes softer. FIG. 9 is a diagram expressing the hardness of the cheek portion of the human face by the size of the tactile indicator In. Compared to FIG. 5, the tactile indicator In is displayed larger to express that the tactile sensation is softer.

図10は、触覚要求位置Pの温度を触感インジケータInで表現する例を示した図であり、触感情報が温度情報を有する場合、温度の違いが触感インジケータInの色で視覚化される。本実施形態では、最も冷たい触感を紫色で表現し、温度が高くなるにつれて色が藍、青、緑、黄、橙、赤へと変化する。 FIG. 10 is a diagram showing an example in which the temperature of the tactile sensation requesting position P is represented by the tactile indicator In. When the tactile information includes temperature information, the difference in temperature is visualized by the color of the tactile indicator In. In this embodiment, the coldest tactile sensation is expressed in purple, and as the temperature increases, the color changes to indigo, blue, green, yellow, orange, and red.

図11は、触覚要求位置Pの滑らかさを触感インジケータInの動きで表現する例を示した図であり、触覚要求位置Pの滑らかさが触感インジケータInの振幅および/または振動数で表現される。本実施形態では、触覚要求位置Pの触感が粗いほど、触感インジケータInを大きな振幅/低い振動数で動かすようにしている。なお、触感インジケータInの振幅および/または振動数が触感要求位置Pからの距離に応じて変化するようにしても良い。例えば、触感要求位置Pから離れた触感インジケータInほど、その振幅および/または振動数が抑制されるようにすることができる。また、触感要求位置Pまでの距離に応じて振動に時間遅れをもたせることでゴムのような弾性や軟性を表現する事もできる。 FIG. 11 is a diagram showing an example of expressing the smoothness of the required tactile position P by the movement of the tactile indicator In, and the smoothness of the required tactile position P is expressed by the amplitude and/or frequency of the tactile indicator In. . In this embodiment, the rougher the tactile sensation at the tactile sensation requesting position P, the larger the amplitude/lower the vibration frequency of the tactile indicator In. Note that the amplitude and/or frequency of the tactile indicator In may change according to the distance from the tactile sensation requesting position P. For example, the farther the tactile indicator In is from the tactile sensation requesting position P, the more the amplitude and/or frequency of the tactile indicator In can be suppressed. Also, by giving a time delay to the vibration according to the distance to the tactile sensation request position P, elasticity and softness like rubber can be expressed.

なお、上記の実施形態では触感インジケータInが触感に応じて形状、色、大きさおよび動きのいずれか一つで表現されるものとして説明したが、本発明はこれのみに限定されるものではなく、例えば触覚要求位置Pの滑らかさ、温度および柔らかさを、触感インジケータInの形状、色および大きさの組み合わせで表現するようにしても良い。 In the above embodiment, the tactile indicator In is represented by any one of shape, color, size, and movement depending on the tactile sensation, but the present invention is not limited to this. For example, the smoothness, temperature and softness of the tactile sensation requested position P may be expressed by a combination of the shape, color and size of the tactile indicator In.

さらに、上記の実施形態では物品の一か所が固定的にタッチ操作等された場合を例にして触感の視覚的な表現方法を説明したが、タッチ操作等の位置がタッチ状態を維持したままスライドされると、各スライド位置の触感に応じてのインジケータInの形状等を連続的に変化させるようにしても良い。 Furthermore, in the above-described embodiment, the method of visually expressing a tactile sensation has been described by taking as an example the case where a touch operation or the like is performed at a fixed location on the article. When slid, the shape or the like of the indicator In may be changed continuously according to the tactile sensation of each slide position.

図12は、タッチ操作等の位置がスライドされたときに、スライド位置の触感に応じてインジケータInの動きをスライド操作に同期させなくすることで触感を表現する例を示した図である。本実施形態では、スライド位置の触感が十分に滑らかであると、同図(a)に示したように、タッチ位置のスライド動作とインジケータInの動きとが同期する。これに対して、スライド位置の触感が滑らかでないと、同図(b)に示したように、インジケータInの動きに引っ掛かりが発生してタッチ位置のスライド動作とインジケータInの動きとが同期しなくなる。 FIG. 12 is a diagram showing an example of expressing a tactile sensation by not synchronizing the movement of the indicator In with the tactile sensation of the sliding position when the position of the touch operation or the like is slid. In this embodiment, if the tactile sensation of the slide position is sufficiently smooth, the slide motion of the touch position and the movement of the indicator In are synchronized as shown in FIG. On the other hand, if the tactile sensation at the slide position is not smooth, as shown in FIG. .

図13は、タッチ操作等の位置が直線的にスライドされたときに、スライド位置の触感に応じてインジケータInがスライド方向の左右に変位しながら移動する例を示した図である。本実施形態では、スライド位置の触感が粗いほど左右への変位量が大きくなる。 FIG. 13 is a diagram showing an example in which when the position of a touch operation or the like is linearly slid, the indicator In moves while being displaced left and right in the slide direction according to the tactile sensation of the slide position. In the present embodiment, the rougher the tactile sensation of the slide position, the greater the amount of lateral displacement.

図14は、タッチ操作等の位置がスライドされたときに、その動きに同期して背景領域の触感インジケータInをスライド方向と同一方向または逆方向に移動させ、さらには移動する触感インジケータInの形状、大きさ、色等をスライド位置の触感に応じて変化させる例を示した図である。 FIG. 14 shows the shape of the tactile indicator In that, when the position of the touch operation or the like is slid, moves the tactile indicator In in the background area in the same direction or in the opposite direction to the sliding direction in synchronization with the movement, and further moves the tactile indicator In. 4 is a diagram showing an example in which , size, color, etc. are changed according to the tactile sensation of the slide position. FIG.

図15は、タッチ操作等の位置がスライドされたときに、触感が変化する過程で触感インジケータInの表示を部分的に切り替える例を示した図であり、ここでは、人物の髪の毛から犬の体表面へスライド操作する場合を例にして説明する。 FIG. 15 is a diagram showing an example of partially switching the display of the tactile indicator In in the process of changing the tactile sensation when the position of the touch operation or the like is slid. A case of performing a slide operation to the surface will be described as an example.

初めに人物の髪の毛部分に対するタッチ操作が検知されると、同図(a)に示したように、滑らかな触感を視覚化した丸形状の触感インジケータInが背景領域の全面に表示される。次いで、タッチ位置が正面右方向へスライドし、同図(b)に示したように、髪の毛および犬の体表面に跨る位置に達すると、髪の毛部分に対応する画面左側の背景には"滑らか"を視覚化した触感インジケータInが表示される一方、犬の体表部分に対応する画面右側の背景には"粗さ"を視覚化した触感インジケータInが表示される。 First, when a touch operation on a person's hair is detected, a circular tactile indicator In that visualizes a smooth tactile sensation is displayed on the entire background area, as shown in FIG. Next, when the touch position slides in the front right direction and reaches a position straddling the hair and the body surface of the dog as shown in FIG. While a tactile indicator In that visualizes is displayed, a tactile indicator In that visualizes "roughness" is displayed in the background on the right side of the screen corresponding to the dog's body surface.

タッチ位置が更に右側方向へ進んで犬の体表部に達すると、同図(c)に示したように、犬以外の背景領域に表示される全ての触感インジケータInの形状や色が犬の体表部の触感に対応した形状および色に変化する。 When the touch position moves further to the right and reaches the body surface of the dog, all the tactile indicators In displayed in the background area other than the dog change their shape and color to that of the dog, as shown in FIG. It changes its shape and color according to the tactile sensation of the body surface.

図16は、タッチ操作等の位置が触覚の異なる物品間でスライドされる場合の触感インジケーInの表示切替方法を模式的に示した図である。 FIG. 16 is a diagram schematically showing a display switching method of the tactile indicator In when the position of a touch operation or the like is slid between articles having different tactile sensations.

本実施形態では、触感要求位置近傍の触感情報Dについて、各触感インジケータInに対応した微小な矩形領域に分割し、各矩形領域の触感に応じて各触感インジケータInの形状や色が決定される。本実施形態では、左3列の各矩形領域の触感は「髪の毛」であり、右3列の各矩形領域の触感は「犬」なので、それぞれ「髪の毛」および「犬」に対応した触感インジケータInが表示される。 In this embodiment, the tactile information D in the vicinity of the tactile sensation request position is divided into small rectangular areas corresponding to the respective tactile indicator In, and the shape and color of each tactile indicator In are determined according to the tactile sensation of each rectangular area. . In this embodiment, the tactile sensation of each rectangular area in the left three columns is "hair", and the tactile sensation of each rectangular area in the right three columns is "dog". is displayed.

これに対して、中央の1列ついては「髪の毛」および「犬」が混在しているが、「犬」の面積が「髪の毛」の面積よりも大きいので「犬」に対応した触感インジケータInが表示される。 On the other hand, "hair" and "dog" are mixed in the central row, but since the area of "dog" is larger than the area of "hair", the tactile indicator In corresponding to "dog" is displayed. be done.

図17は、前記触感提示システムの動作を示したフローチャートであり、ステップS1では、物体を被写体とする映像が前記映像取得部100によりネットワーク経由または内蔵メモリ等からフレーム単位で取得される。 FIG. 17 is a flow chart showing the operation of the tactile sensation presentation system. In step S1, the image acquisition unit 100 acquires a frame-by-frame image of an object as a subject via a network or from an internal memory or the like.

ステップS2では、前記映像がディスプレイ102に表示され、これと並行または前後して、ステップS3では前記識別部101がフレーム画像から抽出した各物体の種別を種別識別部101aが識別し、ステップS4では、位置識別部101bが各物体のディスプレイ102上での位置座標を識別し、ステップS5では、前記触感情報生成部104が物体の種別および位置の識別結果ならびに触感データベース103に基づいて触感情報Dを生成する。 In step S2, the image is displayed on the display 102. In parallel with or before or after this, the type identification unit 101a identifies the type of each object extracted from the frame image by the identification unit 101 in step S3, and in step S4 , the position identification unit 101b identifies the position coordinates of each object on the display 102, and in step S5, the tactile information generation unit 104 generates the tactile information D based on the identification result of the type and position of the object and the tactile database 103. Generate.

ステップS6では、前記触感要求検知部105により、ユーザがディスプレイ102にタッチ操作したか否かが判断される。タッチ操作が検知されると、触感要求検知部105がその位置を触感要求位置Pと認識し、さらに触り方Qを検知してステップS7へ進む。ステップS7では前記触感情報Dを参照し、認識物体マップd1上での触感要求位置Pと対応付けられた触感パラメータが触感データサブセットd2から取得される。 In step S<b>6 , the tactile sensation request detection unit 105 determines whether or not the user has touched the display 102 . When the touch operation is detected, the tactile request detection unit 105 recognizes the position as the tactile request position P, further detects the touch manner Q, and proceeds to step S7. In step S7, the tactile information D is referenced, and tactile parameters associated with the tactile sensation request position P on the recognition object map d1 are acquired from the tactile sensation data subset d2.

ステップS8では、前記触感要求位置P、触り方Qおよび触感パラメータがモデル式に適用されて触感インジケータInが生成される。ステップS9では、前記触感インジケータInがフレーム画像に重畳表示されてユーザに提示される。したがって、ユーザはディスプレイに表示される任意の物体の触感を視覚的、直感的に体感できるようになる。 In step S8, the tactile sensation request position P, the touch manner Q, and the tactile sensation parameter are applied to the model formula to generate the tactile sensation indicator In. In step S9, the tactile indicator In is superimposed on the frame image and presented to the user. Therefore, the user can visually and intuitively feel the tactile sensation of any object displayed on the display.

本実施形態によれば、ユーザはタッチパネルディスプレイに表示される任意の物体の触感を視覚的に体感できるので、触感を伴った映画や、画像中に含まれる商品のそれぞれの触感を体験しながら商品選択できるオンラインショッピングなどを実現できるようになる。また、リアルタイムに処理を行うことができるため、触感を伴ったテレコミュニケーションシステムを実現できる。更に、架空のキャラクターを識別して触感を付与することで、登場キャラクターに触ることができる漫画書籍やアニメーション等の製作等、より臨場感のあるアプリケーションを製作できるようになる。 According to this embodiment, the user can visually experience the tactile sensation of any object displayed on the touch panel display. It will be possible to realize selectable online shopping. Moreover, since processing can be performed in real time, a telecommunication system with tactile sensation can be realized. Furthermore, by identifying fictitious characters and giving them tactile sensations, it is possible to produce applications with a more realistic feel, such as production of comic books, animations, etc., in which characters appearing can be touched.

図18は、触感提示システムを構成する各機能の第1の分散例を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態では、触感提示システム10の各機能が、スマートフォンに代表されるローカル端末1とネットワーク上のサーバ装置2とに分散配置され、各機能が連携動作することで触感提示が実現される点に特徴がある。 FIG. 18 is a functional block diagram showing a first distributed example of each function constituting the tactile sensation presentation system. Since the same reference numerals as above denote the same or equivalent parts, description thereof will be omitted. In the present embodiment, each function of the tactile sensation presentation system 10 is distributed to the local terminal 1 represented by a smartphone and the server device 2 on the network, and the tactile sensation presentation is realized by the cooperation of each function. is characterized by

ローカル端末1において、触感情報取得部104aは、映像取得部100が取得した映像の情報をサーバ装置2へ送信し、前記物体識別マップd1および触感データセットd2から構成される触感情報Dを当該サーバ装置2から取得する。 In the local terminal 1, the tactile information acquisition unit 104a transmits the image information acquired by the image acquisition unit 100 to the server device 2, and transmits the tactile information D composed of the object identification map d1 and the tactile data set d2 to the server. Acquired from device 2 .

図19は、第1の分散例の動作を示したシーケンスフローであり、時刻t1では、ローカル端末1の映像取得部100が物体のフレーム画像を取得する。時刻t2では、触感情報取得部104aがフレーム画像の情報を含む触感情報要求をネットワーク経由でサーバ装置2へ送信する。時刻t3では、前記フレーム画像がタッチパネルディスプレイ102に表示される。 FIG. 19 is a sequence flow showing the operation of the first distribution example. At time t1, the video acquisition unit 100 of the local terminal 1 acquires a frame image of an object. At time t2, the tactile information acquisition unit 104a transmits a tactile information request including frame image information to the server device 2 via the network. The frame image is displayed on the touch panel display 102 at time t3.

サーバ装置2は、前記触感情報要求を受信すると、時刻t4において、識別部101がフレーム画像から物体を抽出し、更に各物体の種別および位置座標を識別する。時刻t5では、サーバ装置2から触感DB103へ、前記物体の種別を記述したパラメータ要求が送信される。触感DB103は、時刻t6において前記物体種別に対応した触感パラメータをサーバ装置2へ応答する。 When the server device 2 receives the tactile sensation information request, at time t4, the identification unit 101 extracts objects from the frame image, and further identifies the type and position coordinates of each object. At time t5, a parameter request describing the type of the object is transmitted from server device 2 to tactile DB 103 . The tactile DB 103 responds to the server device 2 with tactile parameters corresponding to the object type at time t6.

サーバ装置2は、時刻t7において、取得した各物体の触感パラメータおよび位置座標に基づいて、前記図2を参照して説明した触感情報Dを生成し、時刻t8において当該触感情報Dをローカル端末1へ応答する。 At time t7, the server device 2 generates the tactile information D described with reference to FIG. 2 based on the acquired tactile parameters and position coordinates of each object. to respond to.

これと並行して、時刻t9では、ローカル端末1の触感要求検知部105が、タッチパネル部102bに対するユーザのタッチ操作に基づいて、当該ユーザが触感を要求している物体の位置を触感要求位置Pとして検知し、さらにタッチ速度やタッチ圧の時系列変化を触り方Qとして検知する。 In parallel with this, at time t9, the tactile sensation request detection unit 105 of the local terminal 1 determines the position of the object for which the user is requesting the tactile sensation as the tactile sensation request position P based on the user's touch operation on the touch panel unit 102b. , and the time-series changes in touch speed and touch pressure are detected as touch method Q.

ローカル端末1では、時刻t10において、触感パラメータ取得部106が前記触感情報Dから触感要求位置Pに基づいて前記ユーザが要求した物体の触感パラメータを取得する。時刻t11では、前記触感インジケータ生成部107が前記触感要求位置P、触り方Qおよび触感パラメータをモデル式に適用して触感インジケータInを生成する。時刻t12では、前記触感インジケータ表示部108が前記触感インジケータInを現在のフレーム画像に重畳表示する。 In the local terminal 1, the tactile parameter acquisition unit 106 acquires the tactile parameter of the object requested by the user from the tactile information D based on the tactile request position P at time t10. At time t11, the tactile indicator generation unit 107 generates a tactile indicator In by applying the tactile sensation request position P, the touch manner Q, and the tactile sensation parameter to the model formula. At time t12, the tactile indicator display unit 108 superimposes the tactile indicator In on the current frame image.

本実施形態によれば、触感提示に要する複数の機能をローカル端末1およびサーバ装置2に分散できるので、処理能力の低いローカル端末にも視覚的な触感提示機能を付与できるようになる。 According to this embodiment, since a plurality of functions required for tactile sensation presentation can be distributed to the local terminal 1 and the server device 2, a visual tactile sensation presentation function can be provided even to a local terminal with low processing capability.

図20は、触感提示システムを構成する各機能の第2の分散例を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態は第1の分散例と比較して、識別部101がローカル端末1に実装された点に特徴がある。 FIG. 20 is a functional block diagram showing a second distributed example of each function constituting the tactile sensation presentation system. Since the same reference numerals as above denote the same or equivalent parts, description thereof will be omitted. This embodiment is characterized in that the identification unit 101 is implemented in the local terminal 1 as compared with the first distributed example.

図21は、第2の分散例の動作を示したシーケンスフローであり、時刻t21では、ローカル端末1の映像取得部100がフレーム画像を取得し、時刻t22においてタッチパネルディスプレイ102に表示する。時刻t23では、識別部101が前記フレーム画像から物体を抽出し、各物体の種別およびディスプレイ102上での位置座標を識別する。 FIG. 21 is a sequence flow showing the operation of the second distribution example. At time t21, the video acquisition unit 100 of the local terminal 1 acquires a frame image, and displays it on the touch panel display 102 at time t22. At time t23, the identification unit 101 extracts objects from the frame image, and identifies the type of each object and the position coordinates on the display 102. FIG.

時刻t24では前記物体の種別が記述された触感情報要求がローカル端末1からサーバ装置2へ送信される。時刻t25では、前記触感情報要求に記述されている物体種別を含むパラメータ要求がサーバ装置2から触感DB103へ送信される。時刻t26では、前記パラメータ要求に対して前記物体種別に対応した触感パラメータが触感DB3からサーバ装置2へ応答される。時刻t27では、サーバ装置2の触感情報生成部104により、取得した触感パラメータおよび物体の位置座標に基づいて、前記物体識別マップd1および触感データセットd2から構成される触感情報Dが生成される。 At time t24, a tactile information request describing the type of the object is transmitted from the local terminal 1 to the server device 2. FIG. At time t25, a parameter request including the object type described in the tactile information request is transmitted from the server device 2 to the tactile DB 103. FIG. At time t26, the tactile sensation DB 3 responds to the server device 2 with the tactile sensation parameter corresponding to the object type in response to the parameter request. At time t27, the tactile information generation unit 104 of the server device 2 generates the tactile information D composed of the object identification map d1 and the tactile data set d2 based on the acquired tactile parameters and the positional coordinates of the object.

これと並行して、時刻t29では、ローカル端末1の前記触感要求検知部105が、タッチパネル部102bに対するユーザのタッチ操作に基づいて触感要求位置Pおよび触り方Qを検知する。時刻t30では、前記触感パラメータ取得部106が、前記触感情報Dから触感要求位置Pに基づいて触感パラメータを取得する。 In parallel with this, at time t29, the tactile sensation request detection unit 105 of the local terminal 1 detects the tactile sensation request position P and the touch method Q based on the user's touch operation on the touch panel unit 102b. At time t30, the tactile parameter acquisition unit 106 acquires tactile parameters from the tactile information D based on the tactile sensation request position P. FIG.

時刻t31では、前記触感インジケータ生成部107が前記触感要求位置P、触り方Qおよび触感パラメータをモデル式に適用して触感提示信号を生成する。時刻t32では、前記触感インジケータInがフレーム画像に重畳表示される。 At time t31, the tactile indicator generation unit 107 generates a tactile presentation signal by applying the tactile sensation request position P, the touch manner Q, and the tactile sensation parameter to the model formula. At time t32, the tactile indicator In is superimposed on the frame image.

本実施形態によれば、第1の分散例との比較で、触感提示に係るローカル端末1の処理負荷は増えるが、ローカル端末1とサーバ装置2との間のトラヒック量を低減できるようになる。 According to this embodiment, although the processing load on the local terminal 1 related to tactile sensation presentation increases compared to the first distribution example, the amount of traffic between the local terminal 1 and the server device 2 can be reduced. .

図22は、触感提示システムを構成する各機能の第3の分散例を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているのでその説明は省略する。本実施形態は、触感提示システム10の全ての機能をローカル端末1に実装した点に特徴がある。 FIG. 22 is a functional block diagram showing a third distribution example of each function constituting the tactile sensation presentation system. Since the same reference numerals as above denote the same or equivalent parts, the description thereof will be omitted. This embodiment is characterized in that all the functions of the tactile sensation presentation system 10 are implemented in the local terminal 1 .

図23は、触感提示システム10の他の構成を示した機能ブロック図であり、触感情報生成部104が生成した認識物体マップd1を修正するマップ修正部109を具備した点に特徴がある。 FIG. 23 is a functional block diagram showing another configuration of the tactile sensation presentation system 10, which is characterized by having a map corrector 109 that corrects the recognition object map d1 generated by the tactile information generator 104. FIG.

触感情報生成部104は、映像が動画であれば識別部101による識別結果に基づいてフレーム単位で認識物体マップd1を生成する。このとき識別部101aの識別精度、画像中の光陰、映像ノイズ等の影響により、図24に示したように、フレーム間で一時的かつ部分的に物体の種別が誤認識され、認識物体マップd1の一部に誤りが生じることがある。このような誤認識は、特に自由形状に基づいて物体の種別を推定する識別アルゴリズムにおいて顕著に発生する。 The tactile information generation unit 104 generates the recognition object map d1 for each frame based on the identification result of the identification unit 101 if the image is a moving image. At this time, as shown in FIG. 24, the type of object is temporarily and partially erroneously recognized between frames due to the discrimination accuracy of the discrimination unit 101a, light and shade in the image, image noise, etc., and the recognized object map d1 part of the error may occur. Such erroneous recognition occurs remarkably particularly in an identification algorithm that estimates the type of an object based on a free form.

誤認識された領域が触感要求位置Pとして指定されると、誤った触感パラメータに基づいて誤った触感が提示され、さらに次フレームで正しい触感パラメータに基づいて正しい触感が提示されると、短時間での触感変化がノイズの要因となり、提示触感のクオリティが著しく低下する。 If the erroneously recognized region is designated as the tactile sensation request position P, an erroneous tactile sensation is presented based on the erroneous tactile parameters, and if the correct tactile sensation is presented based on the correct tactile parameters in the next frame, the A change in tactile sensation at the time becomes a factor of noise, and the quality of the presented tactile sensation is significantly degraded.

マップ修正部109は、物体の種別が誤認識されて認識物体マップd1の一部に誤りが生じることに起因した提示触感のクオリティ低下を防止するために、今回フレームの認識物体マップd1を過去の複数フレーム分の認識物体マップd1に基づいて修正する。これにより、物体の種別を正しく識別できなかった場合でも当該物体の正しい触感をユーザに提示できるようになる。 The map correction unit 109 replaces the recognition object map d1 of the current frame with the recognition object map d1 of the past in order to prevent the quality of the presentation tactile sensation from being degraded due to an error in part of the recognition object map d1 due to erroneous recognition of the object type. Correction is made based on the recognition object map d1 for multiple frames. As a result, even if the type of the object cannot be correctly identified, the correct tactile sensation of the object can be presented to the user.

図25は、前記マップ修正部109の機能を備えた触感提示システムにおける各機能の分散例を示した機能ブロック図であり、ローカル端末102にマップ修正部109aが実装された点に特徴がある。 FIG. 25 is a functional block diagram showing an example of distribution of each function in the tactile sensation presentation system having the function of the map correction unit 109. The local terminal 102 is characterized by the map correction unit 109a.

マップ修正部109aは、今回フレームの認識物体マップd1に加えて、過去nフレーム分(本実施形態では、過去4フレーム分)の認識物体マップd1を保持し、図26に示したように、触感要求位置Pが検知されると、当該触感要求位置Pの座標を中心に、例えば5ピクセル四方、併せて125ピクセル分の識別結果を各認識物体マップd1から抽出する。そして、触感要求位置Pの座標を起点に過去フレームのピクセルごとに時間的あるいはピクセル間距離に基づくタグIDの重み付き線形和を計算する。ここで、タグIDは各物体の識別結果に固有の識別子である。 In addition to the recognition object map d1 of the current frame, the map correction unit 109a holds the recognition object map d1 of the past n frames (the past 4 frames in this embodiment), and as shown in FIG. When the required position P is detected, the identification result of, for example, 5 pixels square, 125 pixels in total, centered on the coordinates of the tactile sensation required position P, is extracted from each recognition object map d1. Then, starting from the coordinates of the tactile sensation request position P, a weighted linear sum of tag IDs based on time or inter-pixel distance is calculated for each pixel in the past frame. Here, the tag ID is an identifier unique to the identification result of each object.

本実施形態では、今回フレームの認識物体マップd1における触感要求位置Pの位置座標を(xt, yt)とし、fフレーム前の認識物体マップd1における各ピクセルの位置座標(x, y)に対応したタグIDをvxyfとし、過去kフレームに遡って、(2N+1)ピクセル×(2M+1)ピクセルの矩形領域を対象にタグIDを抽出して線形和を求める。タグID (T)についての線形和E (T)は次式(1)で表すことができる。ただし、wxyfは今回フレームにおける触感要求位置P(xt, yt)からfフレーム前の認識物体マップj1における各ピクセル座標(x, y)までの線形和重みであり、f=0は現在のフレームを表す。 In this embodiment, the position coordinates of the tactile sensation request position P in the recognition object map d1 of the current frame are (xt, yt), and the position coordinates (x, y) of each pixel in the recognition object map d1 of f frames before Let vxyf be the tag ID, go back k frames, extract tag IDs from a rectangular area of (2N+1) pixels×(2M+1) pixels, and calculate the linear sum. A linear sum E (T) for tag ID (T) can be expressed by the following equation (1). However, wxyf is the linear sum weight from the tactile sensation request position P (xt, yt) in the current frame to each pixel coordinate (x, y) in the recognition object map j1 f frames ago, and f = 0 is the current frame. show.

Figure 0007235689000001
Figure 0007235689000001

そして、各タグIDについて求められた線形和のうち、最も値が大きい線形和、およびそれに対応するタグIDを選出し、その線形和が一定の閾値より大きければ、触感要求位置Pの位置座標(xt, yt)を、選出されたタグIDの領域と判断する。これに対して、線形和が閾値より小さければ、その位置座標(xt, yt)を背景領域と判断する。 Then, among the linear sums obtained for each tag ID, the linear sum with the largest value and the tag ID corresponding to it are selected. xt, yt) as the region of the selected tag ID. On the other hand, if the linear sum is smaller than the threshold, the position coordinates (xt, yt) are determined as the background area.

本実施形態によれば、推定結果を時間的、空間的に抽象化するため、触感情報生成部104において一時的あるいは部分的な誤認識が生じたとしても、視覚的な触感提示への影響を軽減できる。 According to the present embodiment, since the estimation result is temporally and spatially abstracted, even if a temporary or partial recognition error occurs in the tactile information generation unit 104, the visual tactile presentation is not affected. can be reduced.

ただし、映像中にカメラ視点の切り替えや、映像中の物体の入れ替わりが発生した場合、マップ修正部109が過去のフレームに遡って重み付き線形和を算出すると、正しい推定結果が得られない可能性がある。 However, if the camera viewpoint is switched or the object in the video is changed, the correct estimation result may not be obtained if the map correction unit 109 calculates the weighted linear sum by going back to the past frames. There is

ここで、図27に示したように、認識物体マップj1において物体の識別結果(タグID)を画素データとしてヒストグラムを作成すると、このヒストグラムは、そのフレーム画像においてどの物体がどの程度の領域を占めているかを示す。そのため、「人」,「犬」,「車」が映っていたフレーム画像が、「人」のみが映ったフレーム画像に切り替わると、図示の通りヒストグラムが大きく変化する。 Here, as shown in FIG. 27, when a histogram is created using the identification result (tag ID) of the object in the recognition object map j1 as pixel data, this histogram shows which object occupies what area in the frame image. indicate whether Therefore, when the frame image showing "person", "dog", and "car" is switched to the frame image showing only "person", the histogram changes greatly as shown in the figure.

そこで、本実施形態ではタグIDについてのヒストグラムの値を過去数フレーム分保持して起き、今回フレームのヒストグラムと過去の各フレーム画像のヒストグラムとを比較することでカメラの切り替わりや物体の入れ替わりを検出する。 Therefore, in this embodiment, the value of the histogram for the tag ID is stored for the past several frames, and the histogram of the current frame is compared with the histogram of each past frame image to detect camera switching and object replacement. do.

例えば、タグIDごとに過去フレームと今回フレームとの間の変動率を算出し、さらにタグID間の変動率の平均値を算出する。算出した平均値が閾値を超えていた場合は、カメラの切り替えや物体の入れ替えが起こったと判断できる。 For example, the rate of change between the past frame and the current frame is calculated for each tag ID, and the average value of the rate of change between tag IDs is calculated. If the calculated average value exceeds the threshold, it can be determined that camera switching or object replacement has occurred.

ただし、ヒストグラムの対象領域をフレーム全体にしていた場合はフレームの部分的な変動に対応できない。このため、実際には1つのフレーム画像を部分区画に区切り、区画ごとにヒストグラムを算出することで各区画におけるカメラの切り替わりや物体の入れ替わりを検出することが望ましい。 However, if the target area of the histogram is the entire frame, it is not possible to deal with partial variations of the frame. Therefore, in practice, it is desirable to divide one frame image into partial sections and calculate a histogram for each section to detect camera switching and object replacement in each section.

上記手法により、ある領域においてカメラの切り替わりや物体の入れ替わりを検出したとき、ユーザがその領域の部分にタッチしていた場合には、検出以前のフレームを線形和の重みを再度設定しなおして、タッチ位置における物体の種別を再度判断する。これにより、カメラの切り替わりや物体の入れ替わりが起こるような映像においても、物体の誤認識の影響を軽減した視覚的な触感提示が可能になる。 With the above method, when camera switching or object switching is detected in a certain area, if the user touches a part of that area, the weight of the linear sum is set again for the frame before detection, The type of the object at the touch position is determined again. This makes it possible to present visual tactile sensations that reduce the effects of erroneous recognition of objects, even in images in which cameras are switched or objects are replaced.

本実施形態によれば、映像が大きく変化する前の触感情報が、大きく変化した後の触感情報に基づいて修正されてしまうような、誤った修正を防止できるようになる。また、本実施形態によれば、感触感要求位置Pに対応したピクセルのタグIDのみを過去フレームの触感情報マップMに基づいて修正するので計算量を減じることができる。したがって、一般的に計算能力の低いローカル端末1への実装を実現できる。 According to the present embodiment, it is possible to prevent erroneous correction, such as correcting tactile information before a large change in video based on tactile information after a large change. Further, according to this embodiment, only the tag ID of the pixel corresponding to the tactile sensation request position P is corrected based on the tactile information map M of the past frame, so the amount of calculation can be reduced. Therefore, implementation in the local terminal 1, which generally has low computing power, can be realized.

図28は、前記マップ修正部109の機能を備えた触感提示システムにおける各機能の他の分散例を示した機能ブロック図であり、前記マップ修正部109の機能をサーバ装置2において実現するマップ修正部109bが実装された点に特徴がある。 FIG. 28 is a functional block diagram showing another distribution example of each function in the tactile sensation presentation system having the function of the map correction unit 109. Map correction for realizing the function of the map correction unit 109 in the server device 2 is shown in FIG. It is characterized in that the part 109b is mounted.

本実施形態では、触感要求位置Pが検知されると、当該触感要求位置Pに対応したピクセルのタグIDのみを過去フレームの触感情報マップMに基づいて修正したが、サーバ装置2にとって触感要求位置Pは未知である。そこで、マップ修正部109bが今回フレームに関して生成した認識物体マップの全てのピクセルに関して、予め上記と同様の手順を繰り返すことで認識物体マップd1を修正する。 In this embodiment, when the tactile sensation request position P is detected, only the tag ID of the pixel corresponding to the tactile sensation request position P is corrected based on the tactile sensation information map M of the past frame. P is unknown. Therefore, the map correction unit 109b corrects the recognition object map d1 by repeating the same procedure in advance for all pixels of the recognition object map generated for the current frame.

本実施形態によれば、一般的に処理負荷の高い認識物体マップd1の修正処理をサーバ装置に負担させることができるので、ローカル端末1の処理負荷を軽減できるようになる。 According to the present embodiment, the processing load on the local terminal 1 can be reduced because the correction processing of the recognition object map d1, which generally has a high processing load, can be performed by the server device.

1…ローカル端末,2…サーバ装置,10…触感提示システム,100…映像取得部,101…物体識別部,101a…種別識別部,101b…位置識別部,102…タッチパネルディスプレイ,103…触感データベース(DB),104…触感情報生成部,105…触感要求検知部,106…触感パラメータ取得部,107…触感インジケータ生成部,108…触感インジケータ表示部,109,109a,109b…マップ修正部 1 Local terminal 2 Server device 10 Tactile presentation system 100 Video acquisition unit 101 Object identification unit 101 a Type identification unit 101 b Position identification unit 102 Touch panel display 103 Tactile database ( DB), 104... Tactile information generation unit, 105... Tactile request detection unit, 106... Tactile parameter acquisition unit, 107... Tactile indicator generation unit, 108... Tactile indicator display unit, 109, 109a, 109b... Map correction unit

Claims (15)

ディスプレイに表示される物体の触感を視覚的に提示する触感提示システムにおいて、
物体の映像を取得する手段と、
物体の種別ごとに触感パラメータを保持する触感記憶手段と、
ディスプレイに表示される物体の種別および位置を識別する手段と、
前記物体の種別および位置の識別結果ならびに前記触感記憶手段に基づいて、前記ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手段と、
ディスプレイに対する触感要求操作に基づいて触感要求位置を検知する手段と、
前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段と、
取得した触感パラメータに基づいて、前記触感要求位置の触感を視覚的に表現する触感インジケータを表示する手段とを具備し、
前記触感インジケータが前記物体の背景領域の全域に複数表示されることを特徴とする触感提示システム。
In a tactile sensation presentation system that visually presents the tactile sensation of an object displayed on a display,
means for obtaining an image of an object;
tactile sensation storage means for holding tactile sensation parameters for each type of object;
means for identifying the type and position of an object displayed on the display;
means for generating tactile information that associates each position on the display with a tactile parameter based on the result of identification of the type and position of the object and the tactile storage means;
means for detecting a tactile sensation requesting position based on a tactile sensation requesting operation on a display;
means for acquiring a tactile parameter corresponding to the tactile sensation request position based on the tactile sensation information;
means for displaying a tactile indicator that visually expresses the tactile sensation at the tactile sensation requested position based on the acquired tactile sensation parameter;
A tactile sensation presentation system, wherein a plurality of the tactile sensation indicators are displayed over the entire background area of the object .
触感要求位置がスライドすると各スライド位置の触感に応じて触感インジケータが変化することを特徴とする請求項に記載の触感提示システム。 2. The tactile sense presentation system according to claim 1 , wherein when the tactile sense request position slides, the tactile sense indicator changes according to the tactile sense of each slide position. 前記触感要求位置のスライドに応じて触感インジケータの表示位置が移動することを特徴とする請求項に記載の触感提示システム。 3. The tactile sense presentation system according to claim 2, wherein the display position of the tactile sense indicator moves according to the sliding of the tactile sense request position. 触感インジケータの表示位置が各スライド位置の触感に応じて、前記触感要求位置のスライドと非同期に移動することを特徴とする請求項に記載の触感提示システム。 4. The tactile sense presentation system according to claim 3 , wherein the display position of the tactile sense indicator moves according to the tactile sense of each slide position asynchronously with the sliding of the tactile sense request position. 前記触感インジケータの形状が触感に応じて変化することを特徴とする請求項1ないしのいずれかに記載の触感提示システム。 5. The tactile sensation presentation system according to claim 1 , wherein the shape of said tactile indicator changes according to the tactile sensation. 前記触感インジケータの表示色が触感に応じて変化することを特徴とする請求項1ないしのいずれかに記載の触感提示システム。 6. The tactile sense presentation system according to any one of claims 1 to 5 , wherein the display color of said tactile sense indicator changes according to the tactile sense. 前記触感インジケータが触感に応じた振幅および/または振動数で振動することを特徴とする請求項1ないしのいずれかに記載の触感提示システム。 7. The tactile sense presentation system according to any one of claims 1 to 6 , wherein the tactile sense indicator vibrates at an amplitude and/or frequency corresponding to the tactile sense. 前記振幅および/または振動数が触感要求位置からの距離に応じて変化することを特徴とする請求項に記載の触感提示システム。 8. The tactile sensation presentation system according to claim 7 , wherein the amplitude and/or frequency varies according to the distance from the tactile sensation requesting position. 前記ディスプレイがタッチ操作を検知するセンサを備え、
前記触感要求操作がディスプレイに対するタッチ操作であり、
前記触感インジケータの大きさが触感およびタッチ操作の押し込み圧力に応じて変化することを特徴とする請求項1ないしのいずれかに記載の触感提示システム。
The display comprises a sensor that detects a touch operation,
the tactile sensation requesting operation is a touch operation on the display;
9. The tactile sensation presentation system according to any one of claims 1 to 8 , wherein the size of said tactile indicator changes according to the tactile sensation and pressing pressure of the touch operation.
前記映像が動画の各フレーム画像であり、
今回のフレーム画像に基づいて生成した触感情報を前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正する手段を更に具備したことを特徴とする請求項1ないしのいずれかに記載の触感提示システム。
The video is each frame image of a moving image,
10. The method according to any one of claims 1 to 9 , further comprising means for correcting the tactile information generated based on the current frame image based on each tactile information generated based on each frame image before the previous one. The tactile presentation system described.
前記修正する手段は、今回フレームの触感要求位置の種別を、当該触感要求位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正することを特徴とする請求項10に記載の触感提示システム。 The correcting means corrects the type of the tactile sensation requested position of the current frame by a weighted linear sum based on the distance between the tactile sensation requested position and each position of each frame image before the previous time and the type thereof. The tactile sensation presentation system according to claim 10 . 前記修正する手段は、フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正を適用しないことを特徴とする請求項11に記載の触感提示システム。 12. The tactile sensation presentation system according to claim 11 , wherein said means for modifying creates a type histogram for each frame, and does not apply said modification between frames in which a change in the type histogram exceeds a predetermined threshold. 前記ディスプレイがタッチ操作を検知するセンサを備え、
前記触感要求操作がディスプレイに対するタッチ操作であり、
前記タッチ操作に基づいて前記ディスプレイへの触り方を検知する手段を更に具備し、
前記触感インジケータを表示する手段は、前記取得した触感パラメータおよび触り方に基づいて触感インジケータを表示することを特徴とする請求項1ないし12のいずれかに記載の触感提示システム。
The display comprises a sensor that detects a touch operation,
the tactile sensation requesting operation is a touch operation on the display;
further comprising means for detecting how the display is touched based on the touch operation;
13. The tactile sense presentation system according to any one of claims 1 to 12 , wherein the means for displaying the tactile sense indicator displays the tactile sense indicator based on the acquired tactile sense parameters and the manner of touch.
コンピュータが、ディスプレイに表示される物体の触感を視覚的に提示する触感提示方法において、
物体の映像を取得し、
物体の種別ごとに触感パラメータを予め保持し、
ディスプレイに表示される物体の種別および位置を識別し、
前記物体の種別および位置の識別結果ならびに予め物体の種別ごとに保持した触感パラメータに基づいて、前記ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成し、
ディスプレイに対する触感要求操作に基づいて触感要求位置を検知し、
前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得し、
取得した触感パラメータに基づいて、前記触感要求位置の触感を視覚的に表現する触感インジケータを表示し、
前記触感インジケータを前記物体の背景領域の全域に複数表示することを特徴とする触感提示方法。
In a tactile sensation presentation method in which a computer visually presents the tactile sensation of an object displayed on a display,
Get an image of an object,
Storing tactile parameters in advance for each type of object,
identify the type and position of the object displayed on the display;
generating tactile information that associates each position on the display with a tactile parameter based on the result of identifying the type and position of the object and the tactile parameter previously stored for each type of object;
Detects the tactile sensation request position based on the tactile sensation request operation on the display,
acquiring a tactile parameter corresponding to the tactile sensation requested position based on the tactile sensation information;
displaying a tactile indicator that visually expresses the tactile sensation at the tactile sensation requested position based on the acquired tactile sensation parameter;
A tactile sensation presentation method, characterized by displaying a plurality of the tactile sensation indicators over the entire background area of the object .
ディスプレイに表示される物体の触感を視覚的に提示する触感提示プログラムにおいて、
物体の映像を取得する手順と、
ディスプレイに表示される物体の種別および位置を識別する手順と、
前記物体の種別および位置の識別結果ならびに予め物体の種別ごとに保持した触感パラメータに基づいて、前記ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手順と、
ディスプレイに対する触感要求操作に基づいて触感要求位置を検知する手順と、
前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手順と、
取得した触感パラメータに基づいて、前記触感要求位置の触感を視覚的に表現する触感インジケータを表示する手順と、
をコンピュータに実行させ、
前記触感インジケータを前記物体の背景領域の全域に複数表示することを特徴とする触感提示プログラム。
In a tactile sensation presentation program that visually presents the tactile sensation of an object displayed on a display,
a procedure for acquiring an image of an object;
identifying the type and location of an object displayed on the display;
a step of generating tactile information that associates each position on the display with a tactile parameter, based on the result of identification of the type and position of the object and tactile parameters stored in advance for each type of object;
a procedure for detecting a tactile sensation requesting position based on a tactile sensation requesting operation on a display;
a procedure for acquiring a tactile parameter corresponding to the tactile sensation requested position based on the tactile sensation information;
a step of displaying a tactile indicator that visually expresses the tactile sensation at the tactile sensation requested position based on the acquired tactile sensation parameter;
on the computer, and
A tactile sensation presentation program characterized by displaying a plurality of the tactile sensation indicators over the entire background area of the object .
JP2020030375A 2020-02-26 2020-02-26 Haptic sensation presentation method, system and program Active JP7235689B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020030375A JP7235689B2 (en) 2020-02-26 2020-02-26 Haptic sensation presentation method, system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020030375A JP7235689B2 (en) 2020-02-26 2020-02-26 Haptic sensation presentation method, system and program

Publications (2)

Publication Number Publication Date
JP2021135655A JP2021135655A (en) 2021-09-13
JP7235689B2 true JP7235689B2 (en) 2023-03-08

Family

ID=77661228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020030375A Active JP7235689B2 (en) 2020-02-26 2020-02-26 Haptic sensation presentation method, system and program

Country Status (1)

Country Link
JP (1) JP7235689B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060132456A1 (en) 2004-12-21 2006-06-22 Microsoft Corporation Hard tap
WO2008010540A1 (en) 2006-07-19 2008-01-24 Japan Science And Technology Agency Display device
JP2009129168A (en) 2007-11-22 2009-06-11 Sharp Corp Display device
US20140104207A1 (en) 2012-10-15 2014-04-17 Samsung Electronics Co., Ltd. Method of providing touch effect and electronic device therefor
JP2014182717A (en) 2013-03-21 2014-09-29 Casio Comput Co Ltd Information processor, information processing system and program
JP2018045491A (en) 2016-09-15 2018-03-22 株式会社デンソーテン Controller and control method
JP2019082829A (en) 2017-10-30 2019-05-30 富士ゼロックス株式会社 Information processing apparatus and information processing program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060132456A1 (en) 2004-12-21 2006-06-22 Microsoft Corporation Hard tap
WO2008010540A1 (en) 2006-07-19 2008-01-24 Japan Science And Technology Agency Display device
JP2009129168A (en) 2007-11-22 2009-06-11 Sharp Corp Display device
US20140104207A1 (en) 2012-10-15 2014-04-17 Samsung Electronics Co., Ltd. Method of providing touch effect and electronic device therefor
JP2014182717A (en) 2013-03-21 2014-09-29 Casio Comput Co Ltd Information processor, information processing system and program
JP2018045491A (en) 2016-09-15 2018-03-22 株式会社デンソーテン Controller and control method
JP2019082829A (en) 2017-10-30 2019-05-30 富士ゼロックス株式会社 Information processing apparatus and information processing program

Also Published As

Publication number Publication date
JP2021135655A (en) 2021-09-13

Similar Documents

Publication Publication Date Title
US9619105B1 (en) Systems and methods for gesture based interaction with viewpoint dependent user interfaces
US9939914B2 (en) System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
CN110716645A (en) Augmented reality data presentation method and device, electronic equipment and storage medium
CN103858074B (en) The system and method interacted with device via 3D display device
US8644467B2 (en) Video conferencing system, method, and computer program storage device
CN105637559B (en) Use the structural modeling of depth transducer
EP2568355A2 (en) Combined stereo camera and stereo display interaction
US20140015831A1 (en) Apparatus and method for processing manipulation of 3d virtual object
Jimeno-Morenilla et al. Augmented and virtual reality techniques for footwear
WO2017204581A1 (en) Virtual reality system using mixed reality, and implementation method therefor
Park et al. Design evaluation of information appliances using augmented reality-based tangible interaction
US11209903B2 (en) Rendering of mediated reality content
WO2016169409A1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
US20150033157A1 (en) 3d displaying apparatus and the method thereof
CN116097316A (en) Object recognition neural network for modeless central prediction
Rasool et al. Real-time haptic interaction with RGBD video streams
Chu et al. A cloud service framework for virtual try-on of footwear in augmented reality
JP7235689B2 (en) Haptic sensation presentation method, system and program
JP7252916B2 (en) Haptic sensation presentation method, system and program
US20200211275A1 (en) Information processing device, information processing method, and recording medium
Narducci et al. Enabling consistent hand-based interaction in mixed reality by occlusions handling
JP7345387B2 (en) Tactile sensation presentation system, local terminal and server device of the tactile sensation presentation system, tactile sensation presentation method, and tactile sensation presentation program
Kim et al. Haptic interaction with objects in a picture based on pose estimation
WO2017147826A1 (en) Image processing method for use in smart device, and device
Sánchez Salazar Chavarría et al. Interactive 3D touch and gesture capable holographic light field display with automatic registration between user and content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230224

R150 Certificate of patent or registration of utility model

Ref document number: 7235689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150