[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005235041A - Retrieval image display method and retrieval image display program - Google Patents

Retrieval image display method and retrieval image display program Download PDF

Info

Publication number
JP2005235041A
JP2005235041A JP2004045835A JP2004045835A JP2005235041A JP 2005235041 A JP2005235041 A JP 2005235041A JP 2004045835 A JP2004045835 A JP 2004045835A JP 2004045835 A JP2004045835 A JP 2004045835A JP 2005235041 A JP2005235041 A JP 2005235041A
Authority
JP
Japan
Prior art keywords
image
dimensional
images
search
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004045835A
Other languages
Japanese (ja)
Inventor
Junji Takeuchi
順二 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004045835A priority Critical patent/JP2005235041A/en
Publication of JP2005235041A publication Critical patent/JP2005235041A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to efficiently find out a desired image in a short time when listing a number of retrieved images. <P>SOLUTION: An image group of retrieval results of the retrieval of an image database is acquired (S1), and an n-dimensional characteristic quantity is extracted from each retrieval result image (S2). The n-dimensional characteristic quantity is analyzed by multi-variable statistic analysis processing to calculate a new two-dimensional characteristic quantity (S3). Each retrieval result image is regarded as a point on a distance space with the two-dimensional characteristic quantity as two axes, and clustered to m-pieces of cluster groups (S4), and the display position and display the size of each retrieval result image are determined based on the clustering information (S5). Each retrieval result image is reduced and listed on a screen of a display device according to the determined display position and the display size (S6). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は,多数の候補画像の中から特定の特徴を持つ画像を検索し,それを表示する検索画像表示方法および検索画像表示プログラムに関するものである。   The present invention relates to a search image display method and a search image display program for searching for an image having a specific feature from among a large number of candidate images and displaying it.

従来,画像データにキーワードを付加してデータベースに格納しておき,検索時にキーワードを指定することによりそのキーワードが付加された画像を検索し,検索した複数の画像を縮小して検索順に表示装置に一覧表示する画像検索方法が存在する。このような従来技術においては,キーワードに合致する検索結果の画像が大量に存在する場合に,画像が無秩序に並べられて表示されるため,目的の画像を探し出すのに時間がかかるという問題があった。また,検索対象の数を絞り込むためには,新たなキーワードを加えて改めて検索しなければならないという問題があった。   Conventionally, a keyword is added to image data and stored in a database, and a keyword is specified at the time of search to search for an image to which the keyword is added, and a plurality of searched images are reduced to display devices in the search order. There are image search methods for displaying a list. In such a conventional technique, when there are a large number of search result images that match the keyword, the images are displayed in random order, so that there is a problem that it takes time to search for the target image. It was. In addition, in order to narrow down the number of search targets, there is a problem that a new keyword must be added and the search must be performed again.

これらの問題を解決するために,画像データをデータベースに格納する際に,キーワードの他に,検索結果を一覧表示するときに眺望しやすくするための分類用の属性値をあらかじめ登録しておくシステムが存在する。しかし,今後も爆発的に増え続けると予測される画像データのすべてに対して手動で属性値を付加することは現実的ではない。   In order to solve these problems, when storing image data in a database, in addition to keywords, a system that pre-registers attribute values for classification to make it easier to view when displaying search results as a list. Exists. However, it is not realistic to manually add attribute values to all image data that is expected to increase explosively in the future.

したがって,すべての画像データが有し,かつ,電子計算機により自動的に数値が算出できる彩度や輝度といった基本的な特徴量をもとに,自動的に画像データを分類する技術が必要となる。このような技術としては,n次元の属性情報を有する画像集合について,n次元のうちの特定の2次元の属性情報に着目し,それらの属性情報の特徴量に応じて,2次元の距離空間を生成し,その部分空間を検索条件として指定することで効率的な検索を可能にする画像検索の技術がある(例えば,特許文献1参照)。
特開平5−282375号公報
Therefore, there is a need for a technology that automatically classifies image data based on basic features such as saturation and brightness that all image data has and whose numerical values can be automatically calculated by an electronic computer. . As such a technique, with respect to an image set having n-dimensional attribute information, attention is paid to specific two-dimensional attribute information of n dimensions, and a two-dimensional metric space is selected according to the feature amount of the attribute information. There is an image search technique that enables efficient search by generating a subspace and specifying the subspace as a search condition (see, for example, Patent Document 1).
JP-A-5-282375

しかしながら,特許文献1に示されている技術には,検索結果の画像の一覧表示が,採用する2つの特徴量の次元軸の選択に大きく依存するという問題がある。   However, the technique disclosed in Patent Document 1 has a problem that the list display of the search result image greatly depends on the selection of the dimension axes of the two feature amounts to be employed.

視覚および感覚に影響を与える画像の特徴量には,彩度,色相,輝度,およびそれらの空間的微分値(ラプラシアン)等,多数のものがあり,さらに,例えば彩度1つをとってみても,各画素の彩度の平均値,最大値などの選択肢がある。また,平均値や最大値を計算する際の画素の範囲が画面全体を対象とするのか,中央部分の9分の1の領域だけを対象とするのかなどの選択もある。そのうちのどの2つの次元軸を採用するかは,一般に検索目的に依存するが,すべての検索者が「適切な軸」を選択しなければならないというのは,実際に使用する上で不便なことがあり,必ずしも実用的とは言えない。   There are many image features that affect vision and sensation, such as saturation, hue, luminance, and their spatial differential values (Laplacian). For example, take one saturation. There are also options such as the average value and maximum value of the saturation of each pixel. There is also a selection of whether the pixel range when calculating the average value or the maximum value covers the entire screen or only one-nineth of the central portion. Which two of these dimension axes are adopted generally depends on the search purpose, but the fact that all searchers must select the “appropriate axis” is inconvenient for practical use. Is not always practical.

また,特許文献1に示されている技術には,2次元の距離空間から検索者が部分空間を指定する際に部分空間のサイズを適切に指定しなければ効率的なブラウジングができず,一般に「適切なサイズ」は検索対象ごとに大きく異なるため,「適切なサイズ」を見出すことに検索者にとって煩わしい労力が必要になるという問題がある。   Further, in the technique disclosed in Patent Document 1, when a searcher specifies a subspace from a two-dimensional metric space, efficient browsing cannot be performed unless the subspace size is appropriately specified. Since the “appropriate size” varies greatly depending on the search target, there is a problem that finding the “appropriate size” requires troublesome work for the searcher.

本発明は,上記の問題点に鑑み,検索者が2次元距離空間の「適切な軸」を選択しなくても,また,検索者が部分空間の「適切なサイズ」を見出さなくても,検索結果の画像の中から所望の画像を短時間で効率的に見つけ出すことができるような画像の一覧表示を実現することを目的とする。   In view of the above-described problems, the present invention can be performed even if the searcher does not select the “appropriate axis” of the two-dimensional metric space, or the searcher does not find the “appropriate size” of the subspace. It is an object to realize a list display of images so that a desired image can be efficiently found in a short time from images as search results.

本発明は,上記の課題を解決するため,3次元以上の数値化された属性情報が得られる場合に,それらのうちから2つの属性情報を選択するのではなく,すべての属性情報を反映させる新たな2つの属性軸を動的に生成し,その2つの属性軸による2次元距離空間に検索画像を配置して表示することを特徴とする。   In order to solve the above-described problem, the present invention reflects all attribute information instead of selecting two attribute information from them when three-dimensional or more digitized attribute information is obtained. Two new attribute axes are dynamically generated, and a search image is arranged and displayed in a two-dimensional metric space based on the two attribute axes.

また,本発明は,画像データ群から生成される2次元の距離空間を公知のクラスタリング手法によって複数のクラスタに分割し,クラスタごとに画面の部分領域を割り当て,その部分領域にクラスタに属する画像データを可能な限り多く充填して縮小表示させることを特徴とする。   The present invention also divides a two-dimensional metric space generated from a group of image data into a plurality of clusters by a known clustering method, assigns a partial area of the screen to each cluster, and assigns image data belonging to the cluster to the partial area. Is filled in as much as possible and displayed in a reduced size.

図1は,本発明の原理を説明するためのフローチャートである。図1のフローチャートは,画像データベースの中からキーワードなどの任意に与えられた条件を満足する画像を検索し,検索により取得した複数の画像を縮小して表示装置に表示する場合の処理の流れを示している。   FIG. 1 is a flowchart for explaining the principle of the present invention. The flowchart of FIG. 1 shows the flow of processing when an image satisfying an arbitrarily given condition such as a keyword is searched from an image database, and a plurality of images acquired by the search are reduced and displayed on a display device. Show.

まず,検索結果画像集合取得処理ステップS1では,画像データベースを検索することにより複数の画像(検索結果画像集合)を取得する。次に,画像特徴量抽出処理ステップS2では,ステップS1で取得した各検索結果画像から彩度,色相,輝度などの数値で表されるn次元の特徴量を抽出し,画像特徴量解析処理ステップS3では,そのn次元の特徴量を主成分分析等の多変量統計分析処理により解析して2次元の新たな特徴量を算出する。画像空間クラスタリング処理ステップS4では,各検索結果画像を2次元の特徴量を2軸とした距離空間上の点とみなしてm個(m≧2)のクラスタ群にクラスタリングし,画像配置決定処理ステップS5では,そのクラスタリング情報に基づいて検索結果画像の表示位置と表示サイズとを決定する。   First, in search result image set acquisition processing step S1, a plurality of images (search result image sets) are acquired by searching an image database. Next, in image feature amount extraction processing step S2, n-dimensional feature amounts represented by numerical values such as saturation, hue, and luminance are extracted from each search result image acquired in step S1, and image feature amount analysis processing step In S3, the n-dimensional feature value is analyzed by a multivariate statistical analysis process such as principal component analysis to calculate a new two-dimensional feature value. In the image space clustering processing step S4, each search result image is regarded as a point on the distance space having two-dimensional feature amounts as two axes, and is clustered into m (m ≧ 2) cluster groups, and an image arrangement determining processing step In S5, the display position and display size of the search result image are determined based on the clustering information.

画像表示処理ステップS6では,ステップS2〜ステップS5の検索結果情報生成処理により決定された各検索結果画像の表示位置と表示サイズとに従って,各検索結果画像を表示装置の画面に一覧表示する。   In image display processing step S6, each search result image is displayed in a list on the screen of the display device in accordance with the display position and display size of each search result image determined by the search result information generation processing in steps S2 to S5.

図2は,本発明の原理構成例を示す図である。図2の例は,画像データベースの中からキーワードなどの任意に与えられた条件を満足する画像を検索し,検索した複数の画像を縮小して表示装置に表示する画像検索システムの例である。   FIG. 2 is a diagram showing an example of the principle configuration of the present invention. The example of FIG. 2 is an example of an image search system that searches an image database for an image satisfying an arbitrarily given condition such as a keyword, and reduces a plurality of searched images and displays them on a display device.

画像検索システムは,画像データベースを検索することにより複数の画像(検索結果画像集合)を取得する検索結果画像集合取得部10と,取得した検索結果画像集合から表示に用いる検索結果情報(検索結果画像,表示位置,表示サイズ等の情報)を生成する検索結果情報生成部20と,生成された検索結果情報をもとに各検索結果画像を表示する表示装置30からなる。   The image search system includes a search result image set acquisition unit 10 that acquires a plurality of images (search result image set) by searching an image database, and search result information (search result image) used for display from the acquired search result image set. , Display position, display size, etc.) and a display device 30 for displaying each search result image based on the generated search result information.

検索結果情報生成部20は,検索結果画像集合に属する各画像データから彩度,色相,輝度などの数値で表されるn次元の特徴量を抽出する画像特徴量抽出部21と,n次元の特徴量を主成分分析等の多変量統計分析処理により解析して2次元の新たな特徴量を算出する画像特徴量解析部22と,各検索結果画像を2次元の特徴量を2軸とした距離空間上の点とみなしm個のクラスタ群にクラスタリングする画像空間クラスタリング部23と,クラスタの情報に基づいて各検索結果画像の表示位置と表示サイズとを決定する画像配置決定部24とからなる。   The search result information generation unit 20 includes an image feature amount extraction unit 21 that extracts n-dimensional feature amounts represented by numerical values such as saturation, hue, and luminance from each image data belonging to the search result image set, and an n-dimensional feature amount extraction unit 21. An image feature quantity analysis unit 22 that calculates a two-dimensional new feature quantity by analyzing the feature quantity by multivariate statistical analysis processing such as principal component analysis, and each search result image has two-dimensional feature quantities as two axes. An image space clustering unit 23 that performs clustering into m cluster groups that are regarded as points on the metric space, and an image arrangement determination unit 24 that determines the display position and display size of each search result image based on the cluster information. .

以上の各手段による処理機能は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。   The processing functions of the above means can be realized by a computer and a software program, and the program can be recorded on a computer-readable recording medium or provided through a network.

本発明によって,画像データから3次元以上の数値化された属性情報が得られる場合にすべての属性情報を反映させる新たな2つの属性軸を動的に生成するため,検索者が2次元距離空間の「適切な軸」を選択する必要がなくなる。また,画像データ群から生成される2次元の距離空間を公知のクラスタリング手法によって複数のクラスタに分割し,クラスタごとに画面の部分領域を割り当て,その部分領域にクラスタに属する画像データを可能な限り多く充填して縮小表示させるため,検索者が部分空間の「適切なサイズ」を見出す必要がなくなる。したがって,検索者は,検索結果の画像の中から所望の画像を短時間で見つけ出すことができるようになり,効率的に必要な画像を検索することが可能となる。   According to the present invention, when two or more dimensionalized attribute information is obtained from image data, two new attribute axes that reflect all the attribute information are dynamically generated. No need to select the “appropriate axis”. In addition, a two-dimensional metric space generated from the image data group is divided into a plurality of clusters by a known clustering method, a partial area of the screen is assigned to each cluster, and image data belonging to the cluster is assigned to the partial area as much as possible. Since a large amount is displayed in a reduced size, the searcher does not need to find the “appropriate size” of the subspace. Therefore, the searcher can find out a desired image from the search result images in a short time, and can efficiently search for a necessary image.

以下,本発明の実施の形態について,図を用いて説明する。図3は,本発明の実施の形態における画像検索システムの構成例を示す図である。画像検索システムは,検索条件入力装置40,検索条件照合部11,検索結果情報生成部20,表示装置30,画像データベース50から構成される。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 3 is a diagram illustrating a configuration example of the image search system according to the embodiment of the present invention. The image search system includes a search condition input device 40, a search condition collation unit 11, a search result information generation unit 20, a display device 30, and an image database 50.

検索条件入力装置40は,画像システムの利用者からの画像を検索するための条件,例えば,照合のためのキーワード等を入力するための手段であり,利用者から入力された検索条件を検索条件照合部11へ受け渡す。検索条件照合部11は,入力された検索条件に合致する画像集合を画像データベース50の部分集合として抽出し,検索結果情報生成部20へ受け渡す。検索結果情報生成部20は,表示装置30に表示するときの各画像データの表示位置と表示サイズを算出し,それらを画像データとともに表示装置30へ受け渡す。表示装置30は,算出された表示位置と表示サイズに応じて各画像データを表示する。   The search condition input device 40 is a means for inputting a condition for searching for an image from a user of the image system, for example, a keyword for collation, and the search condition input by the user is used as a search condition. The data is transferred to the verification unit 11. The search condition matching unit 11 extracts an image set that matches the input search condition as a subset of the image database 50, and passes it to the search result information generation unit 20. The search result information generation unit 20 calculates the display position and display size of each image data when displayed on the display device 30, and delivers them to the display device 30 together with the image data. The display device 30 displays each image data according to the calculated display position and display size.

検索結果情報生成部20は,画像特徴量抽出部21,画像特徴量解析部22,画像空間クラスタリング部23,画像配置決定部24から構成される。画像特徴量抽出部21は,検索条件照合部11から受け渡された各画像データから,該画像データの属性群の数値を抽出し,画像特徴量解析部22へ受け渡す。   The search result information generation unit 20 includes an image feature amount extraction unit 21, an image feature amount analysis unit 22, an image space clustering unit 23, and an image arrangement determination unit 24. The image feature quantity extraction unit 21 extracts the numerical value of the attribute group of the image data from each image data delivered from the search condition matching unit 11 and delivers it to the image feature quantity analysis unit 22.

画像特徴量解析部22は,各画像データの属性群の数値群に対して主成分分析を行い,新たに2つの属性(それぞれ,属性X,属性Yとする)を算出し,各画像データの属性Xの数値および属性Yの数値を算出し,画像空間クラスタリング部23へ受け渡す。   The image feature amount analysis unit 22 performs principal component analysis on the numerical value group of the attribute group of each image data, calculates two new attributes (respectively attribute X and attribute Y, respectively), and The numerical value of attribute X and the numerical value of attribute Y are calculated and transferred to the image space clustering unit 23.

画像空間クラスタリング部23は,属性X,属性Yによる2次元距離空間を生成し,各画像データの属性Xおよび属性Yの数値を距離空間のX座標値およびY座標値とみなすことによって各画像データを距離空間上の点とみなし,これらの点の集合が各クラスタに均等に割り振られるように,例えばK−平均クラスタリング法によってu×v個のクラスタにクラスタリングし,各クラスタの重心の座標値と各クラスタに属する点(画像)の情報とを画像配置決定部24へ受け渡す。   The image space clustering unit 23 generates a two-dimensional metric space with attributes X and Y, and regards each image data by regarding the numerical values of the attribute X and attribute Y of each image data as the X coordinate value and Y coordinate value of the metric space. Are clustered into u × v clusters by, for example, the K-means clustering method so that a set of these points is evenly allocated to each cluster, and the coordinate value of the centroid of each cluster and Information on points (images) belonging to each cluster is transferred to the image arrangement determination unit 24.

画像配置決定部24は,画面の横をu分割,縦をv分割することにより,画面全体をu×v個の画面領域に分割し,そのu×v個の画面領域にクラスタの重心の座標値を利用して各クラスタを割り当てることにより,各画像データの表示装置30上の表示位置と表示サイズとを算出し,算出した表示位置と表示サイズとを画像データとともに表示装置30へ受け渡す。   The image layout determining unit 24 divides the entire screen into u × v screen areas by dividing the screen by u and v vertically, and coordinates the center of gravity of the cluster in the u × v screen areas. By assigning each cluster using the value, the display position and display size of each image data on the display device 30 are calculated, and the calculated display position and display size are transferred to the display device 30 together with the image data.

以下,本実施の形態について,より具体的に説明する。以下では,画像データから抽出し解析する特徴量は,属性1,属性2,属性3,属性4の4つであるとし,画像空間クラスタリング部23によって分けられるクラスタの数は2×2個であるとし,画像配置決定部24によって分けられる画面領域の数は2×2個であるとする。   Hereinafter, the present embodiment will be described more specifically. In the following, it is assumed that there are four feature quantities extracted from the image data and analyzed: attribute 1, attribute 2, attribute 3, and attribute 4, and the number of clusters divided by the image space clustering unit 23 is 2 × 2. It is assumed that the number of screen areas divided by the image arrangement determination unit 24 is 2 × 2.

検索者は,検索条件入力装置40に用意された入力方法(例えば,キーワード入力など)により,検索条件を入力する。検索条件照合部11は,入力された検索条件に合致する画像集合を画像データベース50の部分集合として抽出し,その抽出した画像集合を検索結果情報生成部20へ受け渡す。   The searcher inputs a search condition by an input method (for example, keyword input) prepared in the search condition input device 40. The search condition matching unit 11 extracts an image set that matches the input search condition as a subset of the image database 50, and delivers the extracted image set to the search result information generation unit 20.

図4は,本実施の形態における画像特徴量解析部22の処理を説明するための図である。ここでは,検索条件照合部11により抽出された画像データの個数が15個であるとし,それらの画像データ名を画像1,画像2,…,画像15とする。   FIG. 4 is a diagram for explaining the processing of the image feature amount analysis unit 22 in the present embodiment. Here, it is assumed that the number of image data extracted by the search condition matching unit 11 is 15, and the names of the image data are image 1, image 2,.

検索結果情報生成部20において,画像特徴量抽出部21は,各画像データの属性1,属性2,属性3,属性4の値を抽出する。この処理により,図4(A)に示すような特徴量の数値群が得られる。図4(A)において,画像aの属性bの数値はCabと表されている。 In the search result information generation unit 20, the image feature amount extraction unit 21 extracts the values of attribute 1, attribute 2, attribute 3, and attribute 4 of each image data. By this processing, a numerical value group of feature values as shown in FIG. 4A is obtained. In FIG. 4A, the numerical value of the attribute b of the image a is represented as C ab .

画像特徴量解析部22は,図4(A)の数値群に対して主成分分析を行い,新たな属性X,属性Yを生成する。さらに,各画像データの属性X,属性Yの値を算出し,図4(B)に示すような数値群を得る。図4(B)において,画像aの属性Xの数値はCaXと表されており,画像aの属性Yの数値はCaYと表されている。 The image feature amount analysis unit 22 performs principal component analysis on the numerical group in FIG. 4A to generate new attributes X and Y. Further, the value of attribute X and attribute Y of each image data is calculated, and a numerical value group as shown in FIG. 4B is obtained. In FIG. 4B, the numerical value of the attribute X of the image a is represented as C aX, and the numerical value of the attribute Y of the image a is represented as C aY .

属性X,属性Yを2次元距離空間の直行する2軸と見立て,各画像データ(画像1〜画像15)の属性X,属性Yの値をそれぞれX座標,Y座標として,各画像データを点とみなすと,図4(B)に示す画像データと属性値との組は,例えば図4(C)に示すようなX−Yグラフと同一視できるものになる。図4(C)において,プロットされた点は,各画像データ(画像1〜画像15)の座標位置を表している。   Assume that attribute X and attribute Y are two orthogonal axes in the two-dimensional metric space, and that the values of attribute X and attribute Y of each image data (image 1 to image 15) are the X coordinate and Y coordinate, respectively, 4B, the set of image data and attribute values shown in FIG. 4B can be identified with an XY graph as shown in FIG. 4C, for example. In FIG. 4C, the plotted points represent the coordinate positions of the respective image data (image 1 to image 15).

図5は,本実施の形態における画像空間クラスタリング部23の処理を説明するための図である。また,図6は,本実施の形態における画像空間クラスタリング処理フローチャートである。なお,図5(A)に示すグラフは,図4(C)に示す図と同じX−Yグラフである。   FIG. 5 is a diagram for explaining the processing of the image space clustering unit 23 in the present embodiment. FIG. 6 is a flowchart of the image space clustering process in the present embodiment. Note that the graph shown in FIG. 5A is the same XY graph as that shown in FIG.

画像空間クラスタリング部23は,まず,図5(A)に示すような2次元距離空間に対してK−平均クラスタリング法を用い,それぞれの領域に属する点が最大限均等になるように,2次元距離空間を4つの領域(クラスタK1 ,K2 ,K3 ,K4 )に分割する(ステップS40)。 First, the image space clustering unit 23 uses the K-means clustering method for the two-dimensional metric space as shown in FIG. The metric space is divided into four regions (clusters K 1 , K 2 , K 3 , K 4 ) (step S40).

この例では,15個の点を4分割する。図5(B)は,図5(A)をK−平均クラスタリング法によりクラスタリングした結果の例である。ここでは,K1 {画像1,画像2,画像3,画像7},K2 {画像4,画像5,画像6,画像8},K3 {画像9,画像11,画像13,画像15},K4 {画像10,画像12,画像14}の4つのクラスタに分割されている。 In this example, 15 points are divided into four. FIG. 5B is an example of the result of clustering FIG. 5A by the K-means clustering method. Here, K 1 {Image 1, Image 2, Image 3, Image 7}, K 2 {Image 4, Image 5, Image 6, Image 8}, K 3 {Image 9, Image 11, Image 13, Image 15} , K 4 {image 10, image 12, image 14}.

次に,画像空間クラスタリング部23は,各クラスタKi (i=1〜4)それぞれの重心座標pi (i=1〜4)を算出する(ステップS41〜S44)。図5(C)は,図5(B)の各クラスタKi ごとに算出された重心座標pi を示している。それぞれのクラスタK1 〜K4 に所属する点(画像)の情報と,重心座標(p1 〜p4 )とを,画像配置決定部24へ受け渡す(ステップS45)。 Next, the image space clustering unit 23 calculates the barycentric coordinates p i (i = 1 to 4) of each cluster K i (i = 1 to 4) (steps S41 to S44). FIG. 5C shows the barycentric coordinates p i calculated for each cluster K i in FIG. 5B. Information on points (images) belonging to the respective clusters K 1 to K 4 and barycentric coordinates (p 1 to p 4 ) are transferred to the image arrangement determining unit 24 (step S45).

図7は,本実施の形態における画像配置決定部24の処理を説明するための図である。また,図8は,本実施の形態における画像配置決定処理フローチャートである。   FIG. 7 is a diagram for explaining the processing of the image arrangement determining unit 24 in the present embodiment. FIG. 8 is a flowchart of image arrangement determination processing in the present embodiment.

画像配置決定部24は,まず,2次元距離空間を各画像データに対応するすべての点とすべての重心とが収まる範囲で,図7(A)に示すような矩形の有限領域に制限する(ステップS50)。図7(A)に示すような有限矩形領域は,自明な座標変換により,表示装置30の表示領域と対応を付けることができる。   First, the image arrangement determining unit 24 limits the two-dimensional metric space to a rectangular finite region as shown in FIG. 7A within a range in which all the points corresponding to each image data and all the centroids are accommodated ( Step S50). A finite rectangular area as shown in FIG. 7A can be associated with the display area of the display device 30 by obvious coordinate conversion.

次に,図7(A)に示すような有限矩形領域を,図7(B)に示すような2×2個(一般には,u×v個)の等積矩形領域に分割する(ステップS51)。図7(B)において,左上端の矩形領域をL1 とし,そこから時計回りに中心へ向かって順にL2 ,L3 ,L4 とする。ここで,各Lj (j=1〜4)の番号付け方法として時計回りを選んだことに特別の意味はなく,1つの矩形領域に対し1つの番号が過不足なく付加されていれば,別の番号付けでも構わない。 Next, the finite rectangular area as shown in FIG. 7A is divided into 2 × 2 (generally u × v) equal-area rectangular areas as shown in FIG. 7B (step S51). ). In FIG. 7B, a rectangular region at the upper left corner is L 1, and from there, L 2 , L 3 , and L 4 are sequentially turned toward the center. Here, there is no special meaning in selecting clockwise as the numbering method for each L j (j = 1 to 4). If one number is added to one rectangular area without excess or deficiency, You can use another numbering.

各領域Lj に対し,番号jの小さい方から順に,クラスタKi (i=1〜4)を1つずつ割り当て,表示装置30の表示領域にKi に属する画像をすべて表示できるように各画像の表示位置と表示サイズを算出し,算出された表示位置と表示サイズとを画像データとともに表示装置30に受け渡す(ステップS52〜S510)。各領域Lj に対してクラスタKi を割り当てる際には,各矩形領域間の相対位置関係と各クラスタ重心間の相対位置関係とができる限り対応しているように割り当てる。 Clusters K i (i = 1 to 4) are assigned to each region L j in order from the smallest number j, so that all images belonging to K i can be displayed in the display region of the display device 30. The display position and display size of the image are calculated, and the calculated display position and display size are transferred to the display device 30 together with the image data (steps S52 to S510). When the cluster K i is allocated to each region L j , the allocation is performed so that the relative positional relationship between the rectangular regions and the relative positional relationship between the cluster centroids correspond as much as possible.

以下,割り当ての手順の一例を述べる。以下で説明する手順は,すでに領域L1 ,L2 ,…,Lj-1 に対してそれぞれKi1,Ki2,…,Kij-1が割り当てられているときに,Lj に対するKi (Kij)を定める手順である。ここで,KijはLj に割り当てられたKi を意味する。 An example of the allocation procedure is described below. The procedure described below, already region L 1, L 2, ..., L j-1 respectively K i1, K i2, ..., when K ij-1 is assigned, K i for L j This is a procedure for determining (K ij ). Here, K ij means K i assigned to L j .

領域L1 ,L2 ,…,Lj-1 に割り当てられていないクラスタKi の重心pi が領域Lj 上に存在するときには(ステップS53),領域L1 ,L2 ,…,Lj-1 に割り当てられていないクラスタKi の重心pi のうち,領域Lj 上のiが最も小さい重心pi を探査する(ステップS54)。 When the center of gravity p i of the cluster K i not assigned to the regions L 1 , L 2 ,..., L j-1 exists on the region L j (step S53), the regions L 1 , L 2 ,. of centroid p i of the cluster K i that is not assigned to -1, i on regions L j is probing the smallest center of gravity p i (step S54).

領域L1 ,L2 ,…,Lj-1 に割り当てられていないクラスタKi の重心pi が領域Lj 上に存在しないときには(ステップS53),L1 ,L2 ,…,Lj-1 に割り当てられていないクラスタKi の重心pi のうち,Lj の中心との距離が最も小さい重心pi を探査する(ステップS55)。 When the center of gravity p i of the cluster K i not assigned to the regions L 1 , L 2 ,..., L j-1 does not exist on the region L j (step S53), L 1 , L 2 ,. of centroid p i of the cluster K i that have not been assigned to 1, the distance between the center of L j is probing the smallest center of gravity p i (step S55).

なお,最初のj=1のときには,領域L1 上に重心pi が存在するかを調べ(ステップS53),存在する場合にはiが最も小さい領域L1 上の重心pi を探査し(ステップS54),存在しない場合にはL1 の中心との距離が最も小さい重心pi を探査する(ステップS55)ものとする。 When j = 1 for the first time, it is checked whether or not the center of gravity p i exists on the region L 1 (step S53). If it exists, the center of gravity p i on the region L 1 where i is smallest is searched ( In step S54), if it does not exist, the center of gravity p i having the smallest distance from the center of L 1 is searched (step S55).

探査により得られたpi を重心とするクラスタKi を領域Lj に割り当てる(ステップS56)。 The cluster K i having the center of gravity p i obtained by the search is assigned to the region L j (step S56).

図7(B)の例では,まず,領域L1 には,重心p1 が存在するので,クラスタK1 が割り当てられる。領域L2 には,重心が存在しないので,領域L2 の中心との距離が最も小さい重心p2 を重心とするクラスタK2 が割り当てられる。領域L3 には,重心p2 と重心p4 とが存在するが,クラスタK2 がすでに領域L2 に割り当てられているので,クラスタK4 が割り当てられる。領域L4 には,重心p3 が存在するので,クラスタK3 が割り当てられる。 In the example of FIG. 7B, first, since the center of gravity p 1 exists in the region L 1 , the cluster K 1 is assigned. In the region L 2, the center of gravity does not exist, the cluster K 2 the distance between the center of the area L 2 is the centroid of the smallest center of gravity p 2 is assigned. In the region L 3 , the center of gravity p 2 and the center of gravity p 4 exist, but since the cluster K 2 has already been assigned to the region L 2 , the cluster K 4 is assigned. Since the center of gravity p 3 exists in the region L 4 , the cluster K 3 is assigned.

以上,割り当ての手順の一例を述べたが,各矩形領域間の相対位置関係と各クラスタ重心間の相対位置関係とをできる限り対応させるように割り当てるのであれば,別の手順を用いてもよい。例えば,{L1 ,L2 ,L3 ,L4 }から{K1 ,K2 ,K3 ,K4 }への全単射関数(すなわち,割り当てのパターン)fすべてについて,
f =Σ(j=1,2,3,4) {Lj とf(Lj )との距離}
を算出し,Df が最小となるfを割り当てとして採用するという手順を用いてもよい。
Although an example of the allocation procedure has been described above, another procedure may be used as long as allocation is performed so that the relative positional relationship between the rectangular areas and the relative positional relationship between the cluster centroids correspond as much as possible. . For example, for all bijective functions (ie, allocation patterns) f from {L 1 , L 2 , L 3 , L 4 } to {K 1 , K 2 , K 3 , K 4 },
D f = Σ (j = 1,2,3,4) {Distance between L j and f (L j )}
May be used, and f that minimizes D f may be adopted as an assignment.

各領域Lj に対する各Ki の割り当てが決定すると,自明な座標変換により,各Lj を表示装置30の表示領域の部分領域に対応付ける。例えば,図7(B)のL1 は,図7(C)の左上領域と対応する。 When the assignment of each K i to each region L j is determined, each L j is associated with a partial region of the display region of the display device 30 by obvious coordinate transformation. For example, L 1 in FIG. 7B corresponds to the upper left region in FIG.

今,クラスタKi が割り当てられた領域Lj が表示装置30の表示領域のうち,始点座標(x0 ,y0 ),縦長H,横長Wの領域に対応しているとし,また,Ki に属する画像データを表す点の個数がc個(それぞれの画像データを,Img1 ,Img2 ,…,Imgc とする)であるとすると,Ki に属する点に対応する画像データImgk (k=1,2,…,c)の表示位置(x座標およびy座標)と表示サイズ(縦長および横長)を,例えば,以下の式で算出し(ステップS57),算出した表示位置と表示サイズとを画像データとともに表示装置30に受け渡す(ステップS58)。 Now, among the regions L j of the cluster K i is allocated in the display area of the display device 30, the start point coordinates (x 0, y 0), and Vertical H, correspond to the region of the oblong W, also, K i the number of points representing the image data is c-number belongs to (the respective image data, Img 1, Img 2, ..., and Img c) When it is, the image data Img k corresponding to points belonging to K i ( The display position (x coordinate and y coordinate) and display size (vertical and horizontal) of k = 1, 2,..., c) are calculated, for example, by the following formula (step S57), and the calculated display position and display size are calculated. Are transferred to the display device 30 together with the image data (step S58).

(Imgk の表示位置のx座標)
=x0 +((W/√s)*rnd(k−1,√s))
(Imgk の表示位置のy座標)
=y0 +((H/√s)*qt(k−1,√s))
(Imgk の表示縦長)=H/√s
(Imgk の表示横長)=W/√s
ここで,sは「ある整数の平方数であり,かつ,c以上であるような最小の整数」を表し,qt(a,b)は「aをbで割ったときの商」を表し,rnd(a,b)は「aをbで割ったときの余り」を表す。また,計算結果が整数でない場合には,小数点以下を切り捨てる。
(X coordinate of the display position of Img k )
= X 0 + ((W / √s) * rnd (k−1, √s))
(Y coordinate of the display position of Img k )
= Y 0 + ((H / √s) * qt (k−1, √s))
(Display length of Img k ) = H / √s
(Img k display landscape) = W / √s
Here, s represents “the smallest integer that is a square of a certain integer and not less than c”, qt (a, b) represents “a quotient obtained by dividing a by b”, rnd (a, b) represents “the remainder when a is divided by b”. If the calculation result is not an integer, the decimal part is rounded down.

このような一連の処理により,図7(C)のような配置情報が表示装置30に受け渡されることとなる。ただし,図7(C)では,各画像の配置状態を強調するために,各画像間に存在しないはずの余白を設けている。   Through such a series of processes, arrangement information as shown in FIG. 7C is delivered to the display device 30. However, in FIG. 7C, a margin that should not exist between the images is provided in order to emphasize the arrangement state of the images.

表示装置30は,画像配置決定部24から受け渡された画像データと,その表示位置,表示サイズの指定に従って,必要に応じて各画像の拡大縮小処理を行い,各画像を表示領域の該当位置に表示する。   The display device 30 performs enlargement / reduction processing of each image according to the designation of the image data delivered from the image arrangement determination unit 24, its display position, and display size, and each image is displayed at a corresponding position in the display area. To display.

以上,本発明の実施の形態を説明したが,図4(C)の2次元距離空間に対して画像空間クラスタリング処理を行わず,そのまま2次元距離空間を有限矩形領域に限定して表示装置30の表示領域に対応付け,2次元距離空間上の各点(画像)の位置に合わせて画像の表示位置と表示サイズとを決定し,表示装置30に画像を表示するようにしてもよい。これにより,表示装置30の2次元距離空間上の点に対応する位置に画像を表示することができる。   As described above, the embodiment of the present invention has been described. However, the image space clustering process is not performed on the two-dimensional metric space of FIG. 4C, and the two-dimensional metric space is limited to a finite rectangular area as it is. The display position and the display size of the image may be determined according to the position of each point (image) in the two-dimensional distance space, and the image may be displayed on the display device 30. Thereby, an image can be displayed at a position corresponding to a point on the two-dimensional distance space of the display device 30.

以上のような画像検索システムを実際に構築し,評価実験を行った。実験用画像の選択における恣意性を廃するため,6種類のキーワードによる画像検索をgoo(http://www.goo.ne.jp/) の画像検索サービスを用いて行い,それぞれ検索ヒット率上位500個の画像群を実験用画像として用いた。6種類のキーワードは,「金魚」,「ペンギン」,「キティ」,「ミッキーマウス」,「安部なつみ」,「タイ料理」であり,あらかじめ被験者に「検索してみたいもの」として挙げさせた。   The above image retrieval system was actually constructed and evaluated. In order to eliminate the arbitraryness in the selection of experimental images, image search using six types of keywords is performed using the image search service of goo (http://www.goo.ne.jp/). A group of 500 images was used as an experimental image. The six types of keywords were “goldfish”, “penguin”, “kitty”, “Mickey Mouse”, “Natsumi Abe”, and “Thai food”, and the subjects were previously listed as “what they want to search”.

各画像群において,クラスタの数は3×3個とし,各クラスタに属する点の個数を25個として前述の画像検索処理を行い,本発明による一覧表示結果を用意した。また,比較対象として,検索ヒット率の高い画像から順に左上から右下にかけて25×9=225個を格子状に並べて表示したもの(単純配置)を用意した。無作為に選出した画像を被験者ごとに与え,それと同じ画像を各表示結果から検索させ,発見までの時間を計測して比較した。   In each image group, the number of clusters is 3 × 3, the number of points belonging to each cluster is 25, the above-described image search process is performed, and a list display result according to the present invention is prepared. In addition, as a comparison target, an image in which 25 × 9 = 225 pieces are arranged in a grid from the upper left to the lower right in order from the image with the highest search hit rate (simple arrangement) is prepared. Randomly selected images were given to each subject, and the same images were retrieved from each display result, and the time until discovery was measured and compared.

図9は,本実施例における評価実験の結果を示す図である。図9において,各数値は1枚の画像を探し出すのに要した時間(単位:秒)の平均値である。5名(被験者A〜E)中4名(被験者A,C〜E)が本発明による一覧表示の方が速く検索できた。単純配置の方が速かった1名(被験者B)に関しても1秒以下の差であるので,本発明による一覧表示の有効性が現れたと見てよい。   FIG. 9 is a diagram showing the results of an evaluation experiment in this example. In FIG. 9, each numerical value is an average value of time (unit: second) required to search for one image. Of 5 persons (subjects A to E), 4 persons (subjects A and C to E) were able to search faster by the list display according to the present invention. It can be considered that the effectiveness of the list display according to the present invention has appeared because the difference in one second (subject B) who is faster in simple placement is also less than 1 second.

本発明の原理を説明するためのフローチャートである。It is a flowchart for demonstrating the principle of this invention. 本発明の原理構成例を示す図である。It is a figure which shows the principle structural example of this invention. 本発明の実施の形態における画像検索システムの構成例を示す図である。It is a figure which shows the structural example of the image search system in embodiment of this invention. 本実施の形態における画像特徴量解析部の処理を説明するための図である。It is a figure for demonstrating the process of the image feature-value analysis part in this Embodiment. 本実施の形態における画像空間クラスタリング部の処理を説明するための図である。It is a figure for demonstrating the process of the image space clustering part in this Embodiment. 本実施の形態における画像空間クラスタリング処理フローチャートである。It is an image space clustering process flowchart in this Embodiment. 本実施の形態における画像配置決定部の処理を説明するための図である。It is a figure for demonstrating the process of the image arrangement | positioning determination part in this Embodiment. 本実施の形態における画像配置決定処理フローチャートである。It is an image arrangement | positioning determination flowchart in this Embodiment. 本実施例における評価実験の結果を示す図である。It is a figure which shows the result of the evaluation experiment in a present Example.

符号の説明Explanation of symbols

10 検索結果画像集合取得部
11 検索条件照合部
20 検索結果情報生成部
21 画像特徴量抽出部
22 画像特徴量解析部
23 画像空間クラスタリング部
24 画像配置決定部
30 表示装置
40 検索条件入力装置
50 画像データベース
DESCRIPTION OF SYMBOLS 10 Search result image set acquisition part 11 Search condition collation part 20 Search result information generation part 21 Image feature-value extraction part 22 Image feature-value analysis part 23 Image space clustering part 24 Image arrangement | positioning determination part 30 Display apparatus 40 Search condition input device 50 Image The database

Claims (4)

数値で表されるn次元(n≧3)の属性情報を持つ画像を蓄積する画像データベースの中から,任意に与えられた条件を満足する画像を検索し,検索した複数の画像を縮小して表示装置に表示する検索画像表示方法であって,
検索した複数の画像の各々からn次元の属性情報を抽出する過程と,
抽出したn次元の属性情報から,多変量統計分析によって2次元の新たな属性を算出する過程と,
前記2次元の新たな属性をそれぞれx軸,y軸とする2次元距離空間を生成する過程と,
各検索した画像を,その画像が持つ前記新たな属性の属性値に対応した前記2次元距離空間上の位置に縮小して配置したものを表示装置に表示する過程とを有する
ことを特徴とする検索画像表示方法。
Search an image database that stores images with n-dimensional (n ≧ 3) attribute information expressed numerically, satisfying any given condition, and reduce the searched images A search image display method for displaying on a display device, comprising:
Extracting n-dimensional attribute information from each of a plurality of searched images;
A process of calculating a new two-dimensional attribute from the extracted n-dimensional attribute information by multivariate statistical analysis;
Generating a two-dimensional metric space with the two-dimensional new attributes as x-axis and y-axis, respectively;
A step of displaying each retrieved image on a display device by reducing and arranging the searched image at a position in the two-dimensional distance space corresponding to the attribute value of the new attribute of the image. Search image display method.
数値で表されるn次元(n≧3)の属性情報を持つ画像を蓄積する画像データベースの中から,任意に与えられた条件を満足する画像を検索し,検索した複数の画像を縮小して表示装置に表示する検索画像表示方法であって,
検索した複数の画像の各々からn次元の属性情報を抽出する過程と,
抽出した複数の画像のn次元の属性情報から,多変量統計分析によって2次元の新たな属性を算出する過程と,
前記2次元の新たな属性をそれぞれx軸,y軸とする2次元距離空間を生成する過程と,
前記各画像の持つ前記新たな属性の属性値をもとに,前記各画像を前記2次元距離空間上の点とみなし,多変量統計分析を用いてクラスタリングを行うことにより,検索した複数の画像の画像集合をm個(m≧2)の部分集合に分割する過程と,
前記2次元距離空間をm個の部分領域に分割する過程と,
各前記部分集合の重心座標および重心間の相対位置関係をもとに,各前記部分領域と各前記部分集合とを1対1に対応付ける過程と,
各前記部分領域に対して,対応する前記部分集合に含まれる画像のうち特定個数の画像を縮小して配置したものを表示装置に表示する過程とを有する
ことを特徴とする検索画像表示方法。
Search an image database that stores images with n-dimensional (n ≧ 3) attribute information expressed numerically, satisfying any given condition, and reduce the searched images A search image display method for displaying on a display device, comprising:
Extracting n-dimensional attribute information from each of a plurality of searched images;
A process of calculating a new two-dimensional attribute by multivariate statistical analysis from the extracted n-dimensional attribute information of a plurality of images,
Generating a two-dimensional metric space with the two-dimensional new attributes as x-axis and y-axis, respectively;
Based on the attribute value of the new attribute of each image, each image is regarded as a point on the two-dimensional metric space, and clustering is performed using multivariate statistical analysis. Dividing a set of images into m (m ≧ 2) subsets;
Dividing the two-dimensional metric space into m partial regions;
Based on the centroid coordinates of each of the subsets and the relative positional relationship between the centroids, the process of associating the partial areas with the subsets on a one-to-one basis;
A method for displaying a search image, comprising: displaying, on a display device, a reduced number of images included in a corresponding subset of the partial areas, and displaying a reduced number of the images.
数値で表されるn次元(n≧3)の属性情報を持つ画像を蓄積する画像データベースの中から,任意に与えられた条件を満足する画像を検索し,検索した複数の画像を縮小して表示装置に表示する検索画像表示方法を,コンピュータに実行させるための検索画像表示プログラムであって,
検索した複数の画像の各々からn次元の属性情報を抽出する処理と,
抽出したn次元の属性情報から,多変量統計分析によって2次元の新たな属性を算出する処理と,
前記2次元の新たな属性をそれぞれx軸,y軸とする2次元距離空間を生成する処理と,
各検索した画像を,その画像が持つ前記新たな属性の属性値に対応した前記2次元距離空間上の位置に縮小して配置したものを表示装置に表示する処理とを,
コンピュータに実行させるための検索画像表示プログラム。
Search an image database that stores images with n-dimensional (n ≧ 3) attribute information expressed numerically, satisfying any given condition, and reduce the searched images A search image display program for causing a computer to execute a search image display method to be displayed on a display device,
A process of extracting n-dimensional attribute information from each of a plurality of retrieved images;
A process of calculating a new two-dimensional attribute by multivariate statistical analysis from the extracted n-dimensional attribute information;
A process of generating a two-dimensional metric space with the two-dimensional new attributes as x-axis and y-axis,
Processing for displaying each searched image on the display device by reducing and arranging the searched image at a position in the two-dimensional distance space corresponding to the attribute value of the new attribute of the image;
A search image display program to be executed by a computer.
数値で表されるn次元(n≧3)の属性情報を持つ画像を蓄積する画像データベースの中から,任意に与えられた条件を満足する画像を検索し,検索した複数の画像を縮小して表示装置に表示する検索画像表示方法を,コンピュータに実行させるための検索画像表示プログラムであって,
検索した複数の画像の各々からn次元の属性情報を抽出する処理と,
抽出した複数の画像のn次元の属性情報から,多変量統計分析によって2次元の新たな属性を算出する処理と,
前記2次元の新たな属性をそれぞれx軸,y軸とする2次元距離空間を生成する処理と,
前記各画像の持つ前記新たな属性の属性値をもとに,前記各画像を前記2次元距離空間上の点とみなし,多変量統計分析を用いてクラスタリングを行うことにより,検索した複数の画像の画像集合をm個(m≧2)の部分集合に分割する処理と,
前記2次元距離空間をm個の部分領域に分割する処理と,
各前記部分集合の重心座標および重心間の相対位置関係をもとに,各前記部分領域と各前記部分集合とを1対1に対応付ける処理と,
各前記部分領域に対して,対応する前記部分集合に含まれる画像のうち特定個数の画像を縮小して配置したものを表示装置に表示する処理とを,
コンピュータに実行させるための検索画像表示プログラム。
Search an image database that stores images with n-dimensional (n ≧ 3) attribute information expressed numerically, satisfying any given condition, and reduce the searched images A search image display program for causing a computer to execute a search image display method to be displayed on a display device,
A process of extracting n-dimensional attribute information from each of a plurality of retrieved images;
A process of calculating a new two-dimensional attribute by multivariate statistical analysis from the extracted n-dimensional attribute information of a plurality of images;
Processing for generating a two-dimensional metric space with the two-dimensional new attributes as x-axis and y-axis, respectively;
Based on the attribute value of the new attribute of each image, each image is regarded as a point on the two-dimensional metric space, and clustering is performed using multivariate statistical analysis. Dividing the image set into m subsets (m ≧ 2);
A process of dividing the two-dimensional metric space into m partial areas;
A process of associating each of the partial areas with each of the subsets on a one-to-one basis based on the centroid coordinates of each of the subsets and the relative positional relationship between the centroids;
For each of the partial areas, processing for displaying on the display device a reduced number of images included in the corresponding subset.
A search image display program to be executed by a computer.
JP2004045835A 2004-02-23 2004-02-23 Retrieval image display method and retrieval image display program Pending JP2005235041A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004045835A JP2005235041A (en) 2004-02-23 2004-02-23 Retrieval image display method and retrieval image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004045835A JP2005235041A (en) 2004-02-23 2004-02-23 Retrieval image display method and retrieval image display program

Publications (1)

Publication Number Publication Date
JP2005235041A true JP2005235041A (en) 2005-09-02

Family

ID=35017922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004045835A Pending JP2005235041A (en) 2004-02-23 2004-02-23 Retrieval image display method and retrieval image display program

Country Status (1)

Country Link
JP (1) JP2005235041A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007088893A1 (en) * 2006-02-01 2007-08-09 Matsushita Electric Industrial Co., Ltd. Information sorting device and information retrieval device
WO2008044524A1 (en) * 2006-10-10 2008-04-17 Nikon Corporation Image classification program, image classification apparatus, and electronic camera
JP2009171282A (en) * 2008-01-17 2009-07-30 Nikon Corp Electronic camera
JP2011138546A (en) * 2011-03-25 2011-07-14 Fujitsu Ltd Candidate display program
JP2012003357A (en) * 2010-06-15 2012-01-05 Yahoo Japan Corp Feature information creation device, method and program
JP2012063954A (en) * 2010-09-15 2012-03-29 Ricoh Co Ltd Information display device, information display system, information display method and program
US8411113B1 (en) 2011-10-12 2013-04-02 Google Inc. Layered digital image data reordering and related digital image rendering engine
US8525888B2 (en) 2008-01-17 2013-09-03 Nikon Corporation Electronic camera with image sensor and rangefinding unit
JP2015166978A (en) * 2014-03-04 2015-09-24 日本放送協会 Image search device and image search program
JP2020021278A (en) * 2018-07-31 2020-02-06 株式会社日立製作所 Analyzing method and computer

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2007088893A1 (en) * 2006-02-01 2009-06-25 パナソニック株式会社 Information classification device and information retrieval device
JP4808736B2 (en) * 2006-02-01 2011-11-02 パナソニック株式会社 Information classification device and information retrieval device
WO2007088893A1 (en) * 2006-02-01 2007-08-09 Matsushita Electric Industrial Co., Ltd. Information sorting device and information retrieval device
JP2012164345A (en) * 2006-10-10 2012-08-30 Nikon Corp Image classification program, image sorting device, and electronic camera
WO2008044524A1 (en) * 2006-10-10 2008-04-17 Nikon Corporation Image classification program, image classification apparatus, and electronic camera
US9036922B2 (en) 2006-10-10 2015-05-19 Nikon Corporation Image classification program, image classification device, and electronic camera
JPWO2008044524A1 (en) * 2006-10-10 2010-02-12 株式会社ニコン Image classification program, image classification apparatus, and electronic camera
JP2014013574A (en) * 2006-10-10 2014-01-23 Nikon Corp Image classification program, image classification device and electronic camera
US8525888B2 (en) 2008-01-17 2013-09-03 Nikon Corporation Electronic camera with image sensor and rangefinding unit
JP2009171282A (en) * 2008-01-17 2009-07-30 Nikon Corp Electronic camera
JP2012003357A (en) * 2010-06-15 2012-01-05 Yahoo Japan Corp Feature information creation device, method and program
JP2012063954A (en) * 2010-09-15 2012-03-29 Ricoh Co Ltd Information display device, information display system, information display method and program
JP2011138546A (en) * 2011-03-25 2011-07-14 Fujitsu Ltd Candidate display program
US8411113B1 (en) 2011-10-12 2013-04-02 Google Inc. Layered digital image data reordering and related digital image rendering engine
WO2013055505A1 (en) * 2011-10-12 2013-04-18 Google Inc. Layered digital image data reordering and related digital image rendering engine
AU2012321223B2 (en) * 2011-10-12 2018-03-15 Google Llc Layered digital image data reordering and related digital image rendering engine
JP2015166978A (en) * 2014-03-04 2015-09-24 日本放送協会 Image search device and image search program
JP2020021278A (en) * 2018-07-31 2020-02-06 株式会社日立製作所 Analyzing method and computer

Similar Documents

Publication Publication Date Title
CN109643399B (en) Interactive performance visualization of multi-class classifiers
JP5229744B2 (en) Image classification device and image classification program
JP4579404B2 (en) Image processing method and apparatus
US20040024758A1 (en) Image classification method, image feature space displaying method, program, and recording medium
JPWO2016001998A1 (en) Similarity calculation system, similarity calculation method, and program
US20190379795A1 (en) Image processing device, image processing method, image processing program, and recording medium storing program
US11429985B2 (en) Information processing device calculating statistical information
JP2000311246A (en) Similar image display method and recording medium storing similar image display processing program
JP2002288687A (en) Device and method for calculating feature amount
JP2005235041A (en) Retrieval image display method and retrieval image display program
US10769441B2 (en) Cluster based photo navigation
EP1246124B1 (en) Image space display method and apparatus
JP5337673B2 (en) Image search system
CN107209770B (en) System and method for analyzing events and machine-readable storage medium
CN110781378B (en) Data graphical processing method and device, computer equipment and storage medium
US10839571B2 (en) Displaying large data sets in a heat map
US11127158B2 (en) Image indexing and retrieval using local image patches for object three-dimensional pose estimation
US8606494B2 (en) Map generation apparatus, map generation method and computer readable medium
JP2009265814A (en) Information presentation device, information presentation method, and information presentment program
JP2003067401A (en) Knowledge discovery-supporting device and method therefor
JPWO2004093006A1 (en) Knowledge discovery apparatus, knowledge discovery program, and knowledge discovery method
Pinho et al. Voromap: A voronoi-based tool for visual exploration of multi-dimensional data
JP2009169533A (en) Image arrangement data generation device and image arrangement data generation method
JP2020095498A (en) Image classifying apparatus and method
JP6348916B2 (en) Data processing method, data processing apparatus, and data processing program