JP5964078B2 - Character recognition device, character recognition method and program - Google Patents
Character recognition device, character recognition method and program Download PDFInfo
- Publication number
- JP5964078B2 JP5964078B2 JP2012042085A JP2012042085A JP5964078B2 JP 5964078 B2 JP5964078 B2 JP 5964078B2 JP 2012042085 A JP2012042085 A JP 2012042085A JP 2012042085 A JP2012042085 A JP 2012042085A JP 5964078 B2 JP5964078 B2 JP 5964078B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- image
- area
- character string
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Character Input (AREA)
Description
本発明は文字認識装置、文字認識方法およびプログラムに関する。 The present invention relates to a character recognition device, a character recognition method, and a program.
視覚障害者は、主に点字や音声といった情報によって周囲から情報を取得している。しかし、商品の容器や張り紙など、生活において重要な情報を含む文字情報には、これらの情報が備わっていないことが多い。 A visually impaired person obtains information from surroundings mainly by information such as Braille or voice. However, text information including important information in daily life, such as product containers and stickers, often lacks such information.
点字や音声の情報を備えない文字情報から、音声情報を作成するシステムとして、例えば特許文献1や非特許文献1に記載の装置がある。特許文献1に記載のシステムは、装置への入力情報とする画像の中で、ある特性をもつ色に囲まれた領域を切り出し、その領域に存在する文字を抽出する。そして抽出した文字を文字コードに変換して音声合成部で読み上げるものである。 As a system for creating speech information from character information that does not include Braille or speech information, there are devices described in Patent Literature 1 and Non-Patent Literature 1, for example. The system described in Patent Document 1 cuts out an area surrounded by a color having a certain characteristic from an image used as input information to the apparatus, and extracts characters existing in the area. The extracted character is converted into a character code and read out by the speech synthesizer.
非特許文献1に記載の装置は、入力画像上の文字を指先でなぞり、なぞった部分にある文字を認識して読み上げるものである。 The apparatus described in Non-Patent Document 1 traces characters on an input image with a fingertip, recognizes characters in the traced portion, and reads them out.
しかしながら、特許文献1では、当該装置用に予めマークが施された資料でなければ、文字を抽出することができず、一般に流通する商品や張り紙のように、予めこのようなマークをつけることが難しいものでは、文字情報は認識できない。 However, in Patent Document 1, characters can not be extracted unless the material is pre-marked for the device, and such a mark can be pre-marked like a generally distributed product or a sticker. Character information cannot be recognized if it is difficult.
また、非特許文献1に記載の文字認識装置では、2値化した原画像全体に膨張処理を施して繋がった領域を文字領域として認識する。しかし、原画像全体に膨張処理を施してしまうと文字でない背景領域のノイズが大きくなるため、文字領域として誤って認識されてしまい、精度が落ちる恐れがある。 In the character recognition device described in Non-Patent Document 1, an area connected by performing dilation processing on the entire binarized original image is recognized as a character area. However, if dilation processing is performed on the entire original image, noise in the background area that is not a character increases, so that it may be mistakenly recognized as a character area and accuracy may be reduced.
本発明の目的は、上記問題に鑑み、指先でなぞった部分の文字をより高い精度で認識する、汎用的な文字認識装置、文字認識方法およびプログラムを提供することにある。 In view of the above problems, an object of the present invention is to provide a general-purpose character recognition device, a character recognition method, and a program for recognizing a character traced with a fingertip with higher accuracy.
本発明によれば、
2値化された画像から、1つの文字と推定される領域である文字候補領域を認識する文字候補認識手段と、
前記文字候補認識手段が認識した前記文字候補領域毎に、文字と推定される色を有する領域を膨張させる膨張処理を施し、前記膨張処理を施した前記文字候補領域同士で繋がった領域を文字列領域として認識する文字列領域認識手段と、
前記文字列領域に基づき、前記画像から文字列を抽出する文字列抽出手段を有する文字認識装置が提供される。
According to the present invention,
Character candidate recognition means for recognizing a character candidate area that is an area estimated as one character from the binarized image;
For each of the character candidate areas recognized by the character candidate recognition means, an expansion process for expanding an area having a color estimated to be a character is performed, and an area connected between the character candidate areas subjected to the expansion process is a character string. A character string area recognition means for recognizing as an area;
There is provided a character recognition device having character string extraction means for extracting a character string from the image based on the character string region.
本発明によれば、
コンピュータが、
2値化された画像から、1つの文字と推定される領域である文字候補領域を認識し、
前記文字候補領域毎に、文字と推定される色を有する領域を膨張させる膨張処理を施し、前記膨張処理を施した前記文字候補領域同士で繋がった領域を文字列領域として認識し、
前記文字列領域に基づき、前記画像から文字列を抽出する文字認識方法が提供される。
According to the present invention,
Computer
Recognizing a character candidate area, which is an area estimated as one character, from a binarized image;
For each of the character candidate areas, an expansion process is performed to expand an area having a color estimated to be a character, and an area connected between the character candidate areas subjected to the expansion process is recognized as a character string area.
A character recognition method for extracting a character string from the image based on the character string region is provided.
本発明によれば、
コンピュータを、
2値化された画像から、1つの文字と推定される領域である文字候補領域を認識する手段、
前記文字候補領域毎に、文字と推定される色を有する領域を膨張させる膨張処理を施し、前記膨張処理を施した前記文字候補領域同士で繋がった領域を文字列領域として認識する手段、
前記文字列領域に基づき、前記画像から文字列を抽出する手段として機能させるためのプログラムが提供される。
According to the present invention,
Computer
Means for recognizing a character candidate area which is an area presumed to be one character from the binarized image;
Means for expanding an area having a color estimated to be a character for each character candidate area, and recognizing an area connected between the character candidate areas subjected to the expansion process as a character string area;
A program for causing a character string to be extracted from the image based on the character string area is provided.
本発明によれば、指先でなぞった部分の文字をより高い精度で認識することができる、汎用的な文字認識装置、文字認識方法およびプログラムが提供される。 ADVANTAGE OF THE INVENTION According to this invention, the general purpose character recognition apparatus, the character recognition method, and program which can recognize the character of the part traced with the fingertip with higher precision are provided.
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same reference numerals are given to the same components, and the description will be omitted as appropriate.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る文字認識装置10の構成を示すブロック図である。文字認識装置10は、文字候補認識部102と、文字列領域認識部104と、文字列抽出部106を有する。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a
文字候補認識部102は、1つの文字と推定される領域である文字候補領域を認識する。
The character
文字列領域認識部104は、文字候補認識部102が認識した文字候補領域毎に、文字と推定される色を有する領域を膨張させる膨張処理を施し、膨張処理を施した文字候補領域同士で繋がった領域を、文字列領域112として認識する。
The character string
文字列抽出部106は、文字列領域112に基づき、画像から文字を抽出する。
The character
なお、各図に示した文字認識装置10の各構成要素は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。文字認識装置10の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶メディア、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置には様々な変形例がある。
Note that each component of the
本実施形態における処理の流れを、図2〜9を用いて説明する。 The processing flow in this embodiment will be described with reference to FIGS.
まず、文字候補認識部102は、2値化された画像(以下、2値化画像とする。)を取得する(S102)。そして、文字認識手段102は、2値化画像から文字候補領域の認識処理を行う(S104)。
First, the character
まず、文字候補認識部102は、図3に示すように、画像の中の指標108に基づき文字候補領域を特定するための矩形110を2値化画像上に生成する。ここで、矩形110と画像上の文字との関係は、例えば、図4(a)に示すように、文字候補領域が矩形110内に収まる場合と、図4(b)、(c)に示すように、文字候補領域が矩形110内に収まらない場合とが考えられる。文字候補認識部102は、図4(a)のような場合は、矩形110をそのまま文字候補領域としてよいが、図4(b)、(c)のような場合は、図5に示すように矩形110を拡大して文字候補領域を特定する。以下で矩形110を拡大する処理の流れについて説明する。
First, as shown in FIG. 3, the character
文字候補認識部102は、図5に示すように矩形110の外周を走査し、矩形110の外周と接する画素が文字と推定される色であるか否かを確認する。文字と推定される色は、2値化画像のどちらの色が文字と推定される色かを示す情報を、図示しない記憶部で予め記憶しておくことなどで判断できる。文字と推定される色の画素が存在した場合、文字候補認識部102は、矩形110を一定量拡大する。ここで、文字候補認識部102は、外周の縦方向を走査していた場合は横方向の幅を拡大し、外周の横方向を走査していた場合は縦方向の幅を拡大する。例えば、図5のA地点では、文字候補認識部102は、矩形110の横幅を左方向に一定量拡大する。文字候補認識部102は、文字と推定される色の画素が矩形110の外周に存在しなくなるまでこの処理を繰り返す。そして、拡大した矩形110'内の領域を文字候補領域として認識する。なお、矩形110の総拡大量には制限が設けてあり、文字候補認識部102は、制限した量まで拡大した場合はそれ以上矩形110を拡大しないよう制御する。これにより、矩形110が制限なく拡大しないよう制御する。また、文字候補認識部102は、指標108が矩形内に含まれること防ぐため、指標108の示す座標値より下の領域へ矩形110を拡大しないよう制御する。
As shown in FIG. 5, the character
文字候補認識部102は、図示しない記憶部で記憶する、指標108が通過した位置の座標に基づき、上述の処理を繰り返し実行して複数の文字候補領域を特定する。最終的に、文字候補認識部102は、例えば図6に示すように、複数の文字候補領域を特定する。文字候補認識部102は、特定したすべての文字候補領域を文字列領域認識部104へ送信する。図7は、文字列領域認識部104へ送信される情報の例を示す図である。
The character
文字列領域認識部104は、文字候補認識部102より受信した情報に基づき、文字列領域112を認識する(S106)。まず、文字列領域認識部104は、認識した各文字候補領域において、文字と推定される色の領域を膨張させる膨張処理を施す。そして、文字列領域認識部104は、各文字候補領域同士でいくつか形成される連結領域の中から、ノイズを除去して文字列領域112を特定する。文字列領域認識部104は、連結領域と対応する文字候補領域の形状に基づき、当該連結領域がノイズか否かを判別する。文字列領域認識部104は、当該連結領域と対応する文字候補領域の上下左右の対称性、2値化した色の密度比、2値化した色で形成される形状の複雑さや大きさなどの情報に基づき、ノイズを判別する。このようにして、連結領域の中から例えば図8に示すように、膨張処理によって繋がった各文字候補領域からノイズを除去し、文字列領域112を認識する。文字列領域認識部104は、文字列を抽出するための情報として、例えば文字列領域112の座標値や膨張処理をかけた図8に示す画像(マスク情報)などを、文字列抽出部106へ送信する。
The character string
なお、元となる2値化画像が傾いていると、文字候補領域は傾いた状態で連結される可能性があるため、文字列領域認識手段104は、ノイズを除去する前に、連結領域の慣性主軸を計算して傾き角度を求め、アフィン変換などで傾きを補正してもよい。傾きを補正することで、文字列領域認識手段104が文字列とノイズを判別する精度が向上する。
If the original binarized image is tilted, the character candidate regions may be connected in a tilted state. Therefore, the character string
文字列抽出部106は、文字列領域認識部104から受信した文字列領域112に基づき、2値化された画像から文字列を抽出する(S108)。例えば、文字列領域112の座標値を受信した場合、文字列抽出部106は、その座標値に該当する領域を文字列として抽出する。あるいは、マスク情報を受信した場合、2値化された画像とマスク情報の論理積により、該当する領域を文字列として抽出する。図9は、文字列抽出部106が抽出する文字列の一例を示す図である。
The character
以上、本実施形態において、指標の通過した座標値に基づいて1つの文字と推定される文字候補領域を認識し、各文字候補領域に膨張処理を施し、連結した領域の中から文字列領域112を認識する構成を取る。本構成により、背景のノイズを抑えて文字列を精度良く抽出することができる。
As described above, in the present embodiment, the character candidate area estimated as one character is recognized based on the coordinate value passed by the index, the character candidate area is expanded, and the
なお、本実施形態において、例えば指先そのものを指標とすることもできるし、指先に特定波長の光を反射する物質をつけ、その物資を指標とすることもできる。 In this embodiment, for example, the fingertip itself can be used as an index, or a material that reflects light of a specific wavelength can be attached to the fingertip, and the material can be used as an index.
(第2の実施形態)
本実施形態は、第1の実施形態で認識した文字情報を音声として読み上げる構成を取る。
(Second Embodiment)
This embodiment has a configuration in which the character information recognized in the first embodiment is read out as speech.
本実施形態では、第1の実施形態の文字認識装置10に、図示しない画像入力部および音声合成部をさらに有する。画像入力部は、カメラなどの入力装置からカラー画像を取得する。音声合成部は、文字候補認識部102、文字列領域認識部104、文字列抽出部106を用いて、商品パッケージの表面などから抽出した文字列をテキスト化し、音声として読み上げる。
In the present embodiment, the
画像入力部は、例えば小型カメラなどから、処理対象とするカラー画像を原画像として取得する。そして、画像入力部は、原画像を「文字と推定される色」と「文字と推定される色以外の色」とで構成される2値化画像に変換する。図10は、文字と推定される色を決定する流れを示す図である。画像入力部は、原画像に平滑化処理を施した画像のヒストグラムを生成し、極大値、極小値などを基準に、ヒストグラムの切り分け位置を決定する。そして、切り分け位置に基づいた色空間を作成する。画像入力部は、指標108の座標値に基づき、矩形110を生成し、矩形110内に存在する色を先の色空間に投影する。そして、画像入力部は、色空間内で最も投票数が多いマスに該当する色を、「文字と推定される色」の候補とする。そして、画像入力部は、候補とした「文字と推定される色」で2値化を行い、矩形110内の「文字と推定される色」の密度や、「文字と推定される色」の領域の個数などを判定基準とし、矩形110の「文字と推定される色」を決定する。最も投票数が多い色が判定基準を満たさない場合、画像入力部は、次に投票数が多いマスに該当する色で同様の判定を行う。そして、画像入力部は、「文字と推定される色」と「文字と推定される色以外の色」とで2値化した画像を作成して、文字候補認識手段102へ送信する。
The image input unit acquires a color image to be processed as an original image from, for example, a small camera. Then, the image input unit converts the original image into a binary image composed of “a color estimated as a character” and “a color other than a color estimated as a character”. FIG. 10 is a diagram illustrating a flow of determining a color estimated as a character. The image input unit generates a histogram of an image obtained by performing a smoothing process on the original image, and determines a histogram separation position on the basis of a maximum value, a minimum value, or the like. Then, a color space based on the cut position is created. The image input unit generates a
文字候補認識手段102が2値化画像を受信してから文字列を抽出するまでの処理の流れは、第1の実施形態と同様のため省略する。文字抽出部106は、抽出した文字列を音声合成部へ送信する。
Since the process flow from when the character
音声合成部は、文字抽出部106から受信した文字列をOCR(Optical Character Reader)などでテキスト化し、既存の読み上げソフトなどを用いて音声情報として読みあげる。
The voice synthesis unit converts the character string received from the
以上、本実施形態において、さらに画像入力部と音声合成部を有する。本構成により、画像入力部で取得した画像内の文字情報を、第1の実施形態のとおり認識して、音声合成部で音声情報として提供することが可能となる。本構成により、例えば商品パッケージ上の商品名を読み上げるなど、視覚障害者の生活を支援する装置を提供することができる。 As described above, the present embodiment further includes the image input unit and the voice synthesis unit. With this configuration, the character information in the image acquired by the image input unit can be recognized as in the first embodiment, and can be provided as voice information by the voice synthesis unit. With this configuration, it is possible to provide a device that supports the life of the visually impaired, for example, reading a product name on a product package.
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。 As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable.
10 文字認識装置
102 文字候補認識部
104 文字列領域認識部
106 文字列抽出部
108 指標
110、110' 矩形
112 文字列領域
DESCRIPTION OF
Claims (12)
前記文字候補認識手段が認識した前記文字候補領域毎に、文字と推定される色を有する領域を膨張させる膨張処理を施し、前記膨張処理を施した前記文字候補領域同士で繋がった領域を文字列領域として認識する文字列領域認識手段と、
前記文字列領域に基づき、前記画像から文字列を抽出する文字列抽出手段を有する文字認識装置。 Character candidate recognition means for detecting a position of an index in the binarized image and recognizing a character candidate area that is an area estimated as one character based on the position of the index ;
For each of the character candidate areas recognized by the character candidate recognition means, an expansion process for expanding an area having a color estimated to be a character is performed, and an area connected between the character candidate areas subjected to the expansion process is a character string. A character string area recognition means for recognizing as an area;
A character recognition device comprising character string extraction means for extracting a character string from the image based on the character string region.
前記文字列抽出手段は、
前記画像全体における2次元座標値を保持しており、前記画像全体における前記2次元座標値と前記文字列領域の前記2次元座標値とを比較して、前記画像から前記文字列を抽出する文字認識装置。 The character recognition device according to claim 1,
The character string extracting means includes
A character that holds a two-dimensional coordinate value in the entire image, compares the two-dimensional coordinate value in the entire image with the two-dimensional coordinate value in the character string region, and extracts the character string from the image Recognition device.
前記文字列抽出手段は、
前記膨張処理を施した画像をマスク情報として別途保持し、前記画像と前記マスク情報の論理積から、前記文字列を抽出する文字認識装置。 The character recognition device according to claim 1,
The character string extracting means includes
A character recognition apparatus that separately holds an image subjected to the expansion processing as mask information, and extracts the character string from a logical product of the image and the mask information.
前記文字候補認識手段は、
前記画像内で移動する前記指標の位置に基づいて基準領域を生成し、前記生成した基準領域を用いて前記画像から前記文字候補領域を認識する文字認識装置。 In the character recognition device according to any one of claims 1 to 3,
The character candidate recognition means includes:
It generates a reference area based on the position of the indicator which moves within the image, recognizing a character recognition apparatus the character candidate region from the image by using the reference region described above generated.
2値化された画像内の指標の位置を検出し、前記指標の位置に基づいて、1つの文字と推定される領域である文字候補領域を認識し、
前記文字候補領域毎に、文字と推定される色を有する領域を膨張させる膨張処理を施し、前記膨張処理を施した前記文字候補領域同士で繋がった領域を文字列領域として認識し、
前記文字列領域に基づき、前記画像から文字列を抽出する文字認識方法。 Computer
Detecting the position of the index in the binarized image , and recognizing a character candidate area which is an area estimated as one character based on the position of the index ;
For each of the character candidate areas, an expansion process is performed to expand an area having a color estimated to be a character, and an area connected between the character candidate areas subjected to the expansion process is recognized as a character string area.
A character recognition method for extracting a character string from the image based on the character string region.
前記コンピュータが、
前記画像全体における2次元座標値を保持しており、前記画像全体における前記2次元座標値と前記文字列領域の前記2次元座標値とを比較して、前記画像から前記文字列を抽出する文字認識方法。 The character recognition method according to claim 5,
The computer is
A character that holds a two-dimensional coordinate value in the entire image, compares the two-dimensional coordinate value in the entire image with the two-dimensional coordinate value in the character string region, and extracts the character string from the image Recognition method.
前記コンピュータが、
前記膨張処理を施した画像をマスク情報として別途保持し、前記画像と前記マスク情報の論理積から、前記文字列を抽出する文字認識方法。 The character recognition method according to claim 5,
The computer is
A character recognition method for separately holding an image subjected to the expansion process as mask information and extracting the character string from a logical product of the image and the mask information.
前記コンピュータが、
前記画像内で移動する前記指標の位置に基づいて基準領域を生成し、前記生成した基準領域を用いて前記画像から前記文字候補領域を認識する文字認識方法。 In the character recognition method according to any one of claims 5 to 7,
The computer is
Wherein generating the reference region based on the position of the indicator, a character recognition method for recognizing the character candidate region from the image by using the reference area the generated moving within the image.
2値化された画像内の指標の位置を検出し、前記指標の位置に基づいて、1つの文字と推定される領域である文字候補領域を認識する手段、
前記文字候補領域毎に、文字と推定される色を有する領域を膨張させる膨張処理を施し、前記膨張処理を施した前記文字候補領域同士で繋がった領域を文字列領域として認識する手段、
前記文字列領域に基づき、前記画像から文字列を抽出する手段として機能させるためのプログラム。 Computer
Means for detecting a position of an index in the binarized image and recognizing a character candidate area which is an area estimated as one character based on the position of the index ;
Means for expanding an area having a color estimated to be a character for each character candidate area, and recognizing an area connected between the character candidate areas subjected to the expansion process as a character string area;
A program for functioning as means for extracting a character string from the image based on the character string region.
前記コンピュータを、
前記画像全体における2次元座標値を保持する手段、
前記画像全体における前記2次元座標値と前記文字列領域の前記2次元座標値とを比較して、前記画像から前記文字列を抽出する手段としてさらに機能させるためのプログラム。 The program according to claim 9,
The computer,
Means for holding a two-dimensional coordinate value in the entire image;
A program for further functioning as means for extracting the character string from the image by comparing the two-dimensional coordinate value of the entire image with the two-dimensional coordinate value of the character string region.
前記コンピュータを、
前記膨張処理を施した画像をマスク情報として別途保持する手段、
前記画像と前記マスク情報の論理積から、前記文字列を抽出する手段としてさらに機能させるためのプログラム。 The program according to claim 9,
The computer,
Means for separately holding the image subjected to the expansion processing as mask information;
A program for further functioning as means for extracting the character string from the logical product of the image and the mask information.
前記コンピュータを、
前記画像内で移動する前記指標の位置に基づいて基準領域を生成し、前記生成した基準領域を用いて前記画像から前記文字候補領域を認識する手段としてさらに機能させるためのプログラム。 The program according to any one of claims 9 to 11, wherein the computer is
Wherein based on the position of the index to generate a reference area, a program for further functions as a means for recognizing the character candidate region from the image by using the reference area the generated moving within the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012042085A JP5964078B2 (en) | 2012-02-28 | 2012-02-28 | Character recognition device, character recognition method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012042085A JP5964078B2 (en) | 2012-02-28 | 2012-02-28 | Character recognition device, character recognition method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013178659A JP2013178659A (en) | 2013-09-09 |
JP5964078B2 true JP5964078B2 (en) | 2016-08-03 |
Family
ID=49270235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012042085A Expired - Fee Related JP5964078B2 (en) | 2012-02-28 | 2012-02-28 | Character recognition device, character recognition method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5964078B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6318794B2 (en) | 2014-04-08 | 2018-05-09 | 富士通株式会社 | Information processing apparatus and information processing program |
JP6969258B2 (en) * | 2017-09-26 | 2021-11-24 | カシオ計算機株式会社 | Image pickup device, printing system, image processing method and program |
CN108875694A (en) * | 2018-07-04 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | Speech output method and device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002185782A (en) * | 2000-12-14 | 2002-06-28 | Pfu Ltd | Character extracting device, character extracting method and recording medium |
JP4240859B2 (en) * | 2001-09-05 | 2009-03-18 | 株式会社日立製作所 | Portable terminal device and communication system |
JP2006119942A (en) * | 2004-10-22 | 2006-05-11 | Hitachi Ltd | Character string area segmenting device |
JP4861845B2 (en) * | 2007-02-05 | 2012-01-25 | 富士通株式会社 | Telop character extraction program, recording medium, method and apparatus |
-
2012
- 2012-02-28 JP JP2012042085A patent/JP5964078B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013178659A (en) | 2013-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5084718B2 (en) | Combination detection of position coding pattern and barcode | |
KR101015663B1 (en) | Method for recognizing character and apparatus therefor | |
JP6904182B2 (en) | Image viewpoint conversion device and method | |
US9262699B2 (en) | Method of handling complex variants of words through prefix-tree based decoding for Devanagiri OCR | |
US20100158375A1 (en) | Signal processing apparatus, signal processing method, computer-readable medium and computer data signal | |
JP2010250425A (en) | Underline removal apparatus | |
WO2014014685A1 (en) | Character recognition of devanagari by redundant decoding of normal characters|and conjunct characters | |
JP6739937B2 (en) | Information processing apparatus, control method of information processing apparatus, and program | |
JP5964078B2 (en) | Character recognition device, character recognition method and program | |
JP2008011484A (en) | Apparatus and method for extracting character and graphic string, program for executing the method, recording medium with the program stored therein | |
US10977527B2 (en) | Method and apparatus for detecting door image by using machine learning algorithm | |
JP2019036146A (en) | Image analysis device and image analysis program | |
KR101498546B1 (en) | System and method for restoring digital documents | |
JP6624120B2 (en) | Character recognition device, character recognition method, character recognition program, and computer-readable recording medium storing character recognition program | |
JP5794154B2 (en) | Image processing program, image processing method, and image processing apparatus | |
JP6157068B2 (en) | Information processing apparatus and control method thereof | |
JP2010061409A (en) | Image processing program and image processing system | |
JP2009182530A (en) | Business processing execution support device | |
JP6639257B2 (en) | Information processing apparatus and control method therefor | |
JP6303742B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5830996B2 (en) | Image processing apparatus and program | |
JP2010092426A (en) | Image processing device, image processing method, and program | |
JP2012113433A (en) | Character recognition device, character recognition method, and program | |
JP2008134940A (en) | Object detection device, object detection method, object detection program and recording medium recording the program | |
JP2006235817A (en) | Character-recognizing device, character-recognizing method and recording medium for character recognition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5964078 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |