[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2004280776A - 画像内のオブジェクトの形状を決定する方法 - Google Patents

画像内のオブジェクトの形状を決定する方法 Download PDF

Info

Publication number
JP2004280776A
JP2004280776A JP2003345949A JP2003345949A JP2004280776A JP 2004280776 A JP2004280776 A JP 2004280776A JP 2003345949 A JP2003345949 A JP 2003345949A JP 2003345949 A JP2003345949 A JP 2003345949A JP 2004280776 A JP2004280776 A JP 2004280776A
Authority
JP
Japan
Prior art keywords
image
camera
visual hull
shape
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003345949A
Other languages
English (en)
Inventor
Paul A Beardsley
ポール・エイ・ベアズリィー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2004280776A publication Critical patent/JP2004280776A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】本方法は、画像からオブジェクトの形状を決定する。
【解決手段】オブジェクトをビジュアルハル内に完全に包含できるように、オブジェクトよりも大きなビジュアルハルが構築される。オブジェクトの画像は、カメラによって取得される。ビジュアルハルは、カメラの位置および姿勢に従って画像に投影される。画像内のシードピクセルが選択される。このシードピクセルは、投影されたビジュアルハル上に位置し、領域が、各シードピクセルの回りに成長される。各領域は、シードピクセルに類似した近傍ピクセルを含む。次に、ビジュアルハルのサイズが、成長した領域に従って縮小され、オブジェクトの2次元形状が決定される。異なった視点からの複数の画像を用いると、3次元形状を決定することができる。
【選択図】図2

Description

本発明は、総括的には、コンピュータビジョンに関し、より具体的には、画像からのオブジェクトの分割に関する。
コンピュータグラフィックスおよびコンピュータビジョンの分野では、仮想現実のウォークスルー、アニメーション、ソリッドモデルリング、視覚化、マルチメディア、ならびにオブジェクト検出およびオブジェクト認識に使用することができる正確な3次元(3D)モデルを構築する必要がある。
3次元ディジタイザは、現実世界のオブジェクトからモデルを生成するのによく用いられる。システム全体のコストだけでなく、解像度、再現性、精度、信頼性、速度、および使い易さの検討は、あらゆるデジタル化システムの構成の中心になる。多くの場合、デジタル化システムの設計には、品質と性能との間の一連のトレードオフが伴う。
従来の3Dディジタイザは、システム性能を評価するために幾何学的品質(geometric quality)の測定に焦点を合わせていた。このような測定は、客観的なものではあるが、高品質のレンディションという全体的な目標に間接的にしか関係しない。ほとんどの3Dディジタイザシステムでは、モデルのレンダリングの品質は、大部分、オブジェクトについて取得された画像の個数と組み合わされた距離精度の結果である。
従来技術のディジタイザには、接触式ディジタイザ(contact digitizer)、アクティブ構造化光距離画像システム(active structured-light range-imaging system)、およびパッシブステレオ深度抽出(passive stereo depth-extraction)が含まれる。調べるには、Beslの「Active Optical Range Imaging Sensors」Advances in Machine Vision, Springer-Verlag, pp. 1-63, 1989を参照されたい。
レーザ三角測量および飛行時間計測式ポイントディジタイザ(time-of-flight point digitizer)は、よく知られた他のアクティブデジタル化アプローチである。レーザ測距システムは、走査されて別々に取得された距離画像を整列するために、個々の位置合わせステップを必要とすることが多い。アクティブディジタイザは、デジタル化されるオブジェクトに光を照射するので、テクスチャの情報および形状の情報の双方を同時に取り込むことは難しい。これは、距離画像をテクスチャと共に位置合わせする問題を提起する。
他のシステムでは、複数の狭帯域の照明、例えば赤のレーザ、緑のレーザ、および青のレーザが、照準線に沿って表面の色彩推定値を取得するために用いられる。しかしながら、これは、現実的な照明環境でオブジェクトを取り込むことには役に立たない。
パッシブディジタイザは、単一のカメラまたはステレオカメラをベースにすることができる。パッシブディジタイザは、オブジェクトのテクスチャが不十分でない場合には、形状およびテクスチャの双方を取得するために元画像を用いることができるという利点を有する。
イメージベースレンダリングシステムを用いることもできる。これについては、Nishino, K.、Y. Sato、およびK. Ikeuchi著の「Eigen-Texture Method: Appearance Compression based on 3D Model」Proc. of Computer Vision and Pattern Recognition, 1:618-624, 1999、ならびに、Pulli, K.、M. Cohen、T. Duchamp、H. Hoppe、L. Shapiro、およびW. Stuetzle著の「View-based Rendering: Visualizing Real Objects from Scanned Range and Color Data」Proceedings of the 8th Eurographics Workshop on Rendering, pp. 23-34, 1997を参照されたい。これらのシステムでは、画像および幾何学的配列は、明示的な一貫性の保証なしに別々に取得される。
イメージベースビジョンシステムでは、実行される2つの基本タスクが存在する。第1のタスクは、固有パラメータが既知であると仮定して、カメラの位置を決定することである。固有パラメータを較正する方法は、よく知られている。固定されたマルチカメラシステムを較正する方法は、2001年8月6日に出願された「Hand-Held 3D Vision System」という発明の名称の米国特許出願第09/923,884号において、Beardsleyにより記述されている。この出願は、参照により本明細書に援用される。
このビジョンシステムの第2のタスクは、画像を、既知のカメラ位置と共に用いて、正確な形状情報を抽出することである。通常、オブジェクトの形状は、オブジェクトを画像化するピクセルから求められる。したがって、画像のこれらピクセルを特定することが必要になってくる。これは、オブジェクト分割(object segmentation)と呼ばれる。
最もうまくいくオブジェクト分割方法は、オブジェクトが存在しない背景画像を利用し、その後に、背景差分を求めることである。通常、前景画像のピクセル輝度が、背景画像の対応するピクセルから減算され、差分画像が生成される。背景画像は、そのシーン内に前景画像が存在しないことがわかっている時に前もって取得しておくことができる。差分画像において低輝度値を有するいずれのピクセルも、背景の一部であるとみなされ、高輝度値を有するピクセルは、オブジェクトの一部と推定される。背景差分方法を調べるには、Toyama等著の「Wallflower: Principles and Practice of Background Maintenance」Proceedings of the International Conference on Computer Vision, pp. 255-261, 1999を参照されたい。
通常、従来技術の分割方法は、制御されたカメラを、制御された背景と共に利用する。例えば、カメラは、既知の角度位置および既知の背景で、ターンテーブル上のオブジェクトに向けられる。背景は、既知の色彩であるか、または既知のパターン/色彩を示すアクティブディスプレイであり得る。これらのタイプのシステムは、操作するのに面倒であり、かつ、高い費用を要する。
したがって、制御されていない環境において、安価なハンドヘルドカメラで分割を実行することが望まれる。
本発明は、画像からオブジェクトの形状を決定する方法を提供する。オブジェクトをビジュアルハル(visual hull)内に完全に包含できるように、オブジェクトよりも大きなビジュアルハルが構築される。オブジェクトの画像は、カメラによって取得される。ビジュアルハルは、カメラの位置および姿勢に従って画像に投影される。
画像内のシードピクセルが、選択される。このシードピクセルは、投影されたビジュアルハル上に位置し、領域が、各シードピクセルの回りに成長される。各領域は、シードピクセルに類似した近傍ピクセルを含む。次に、ビジュアルハルのサイズが、成長した領域に従って縮小され、オブジェクトの2次元形状が決定される。異なった視点からの複数の画像を用いると、3次元形状を決定することができる。
システム構成
図1および図2は、本発明者らの発明に従ってハンドヘルドカメラ120により取得されたシーンの画像からオブジェクト101を分割して、出力デバイス140上にレンダリングするのに適したオブジェクトの3Dモデル102を生成するシステム100および方法200をそれぞれ示している。カメラ120には、形状カメラ121およびオプションとしての位置カメラ122が含まれる。シーンの一部には、既知の背景130が含まれる。
形状カメラ121は、オブジェクト101の形状を決定するためにのみ用いられる。したがって、正確な形状データを得るために、視野123は、狭い方が好ましい。位置カメラ122は、形状カメラの位置(姿勢を含む)を決定するために用いることができる。したがって、視野124は、広い方が好ましい。形状カメラの位置および姿勢を決定するための多くの手法が、従来から知られていることが理解されるべきである。位置カメラを用いることは、従来技術の手法に対して新規な拡張を提供するものである。
カメラの視野123および視野124が用いられる場合に、これらの視野は、従来のステレオカメラのように、重なり合うようにする必要はない。これらの視野は、切り離すことができ、かつ、オブジェクトは、背景130の前に配置される必要はない。実際には、オブジェクトの画像および背景の画像は、完全に切り離すことができる。カメラ120は、互いに固定して連結され、かつ構成される。これについては、上記Beardsleyを参照されたい。換言すると、位置カメラと形状カメラとの空間的な関係は、予め定められている。
システム100は、本発明による方法200を実施する従来のプロセッサ160も含む。このプロセッサ160は、カメラ120に結合され、メモリおよびI/Oデバイスを有する。方法200は、オブジェクトについての初期近似ビジュアルハル(VH(visual hull))103を定義する。簡単にするために、ビジュアルハル103の初期形状は、例えば立方体または半球として、メモリにパラメータとして定義することができる。すなわち、ビジュアルハルは、比較的シンプルにすることができる。オブジェクト101をビジュアルハル103内に完全に包含可能であることが、唯一要求されることである。
システム動作
動作中、ユーザは、上面、前面、背面、側面などの異なる方向からオブジェクト101を走査する。走査は、画像125および126を取得することにより行われる。形状カメラ121は、オブジェクト101の全体的な方向に向けられ、位置カメラは、背景130の全体的な方向に向けられる。形状カメラは、既知の背景130のいずれも視野に入れる必要はなく、位置カメラは、オブジェクト101を視野に入れる必要は一切ないことに留意されたい。上述したように、位置の決定は、他の手法を用いて実行することができる。したがって、従来技術のスタジオタイプのシステムと比較すると、取得可能なオブジェクトのビューの個数は、比較的制約を受けない。
形状画像125は、図2に示すように処理される。位置画像126、または他の公知の手段は、互いに予め定められた空間的関係を有する形状カメラ121の位置および姿勢211を決定する(210)ために用いられる。この情報は、形状画像125にビジュアルハル103を投影する(220)ために用いられる。符号221を参照されたい。
次に、投影されたビジュアルハル103上にある形状画像125のピクセル231が、シードポイント(seed point)として選択される(230)。それぞれのシードポイントに対して、領域成長(region growing)250が適用される。領域成長は、よく知られている。
シードポイントから開始して、近傍のピクセルは、ある予め定められた類似判断基準を満たすならば、領域内に受け入れられる。このプロセスが、新しく受け入れられたポイントに対して再帰的に続けられる。ピクセルを領域内に受け入れるための好ましい類似判断基準は、勾配に基づくもの(gradient-based)である。第1に、シードピクセルの勾配(gradient)の大きさが検査され、この勾配が、予め定められた閾値より小さい場合にのみ、領域成長が進行する。第2に、近傍のピクセルの勾配の大きさが、上記予め定められた閾値より小さい場合には、その近傍のピクセルは、領域に加えられる。このプロセスが、すべてのシードピクセルに対して再帰的に続けられる。
オブジェクトの表面ピクセルは、閾値よりも大きな勾配の大きさを有するので、領域成長は、画像内のオブジェクトの表面を横切らないという仮定が成り立つ。
領域成長が、すべてのシードポイントに対して完了すると、受け入れられたピクセルは、オブジェクトの外部にあり、背景の一部であると仮定することができる。その理由は、そのシードポイントが、オブジェクトの外部にあり、成長した領域は、画像の勾配を含まないからである。最後に、ビジュアルハル103のサイズが、成長した領域に従って縮小され、オブジェクト101の形状に近づく。
これらのステップは、ビジュアルハルの形状が安定するまで、画像のすべてのシードポイントに対して繰り返される。この時点で、ビジュアルハル103は、オブジェクト101の形状にほぼ一致し、この最終的なビジュアルハル103が、オブジェクト分割用に使用可能となる。
基本的な前提は、オブジェクトの表面が、画像の勾配と関連しており、その結果、領域成長が、オブジェクト自体の内部には決して進行しないということである。これを確実にするために、画像の勾配検出用に安全側に低い閾値が用いられる。目標は、常に、オブジェクトの初期シルエットを過大評価し、決して過小評価しないことである。テクスチャが強い背景に対しては、領域成長は、ほとんど効果を有しないことがある。しかしながら、何千もの画像に対する走査戦略において、このビジュアルハルは、最終的には、オブジェクトの表面に一致することになる。
変形として、オブジェクトおよび背景130の双方の一部を含む任意の画像に背景差分を適用することにより、初期ビジュアルハルのより良い推定を行うことができる。この粗い推定は、次に、オブジェクトの形状を過大評価するために拡大することができる。
本発明について、好ましい実施の形態を例にして記述してきたが、本発明の精神および範囲内において、他のさまざまな適用および変更を行い得ることが理解されるであろう。したがって、添付した特許請求の範囲の目的は、本発明の真の精神および範囲内に含まれるすべての変形および変更を網羅することである。
本発明による、ハンドヘルドカメラにより取得された画像からオブジェクトを分割するシステムの概略図である。 本発明による、ハンドヘルドカメラにより取得された画像からオブジェクトを分割する方法のフローチャートである。

Claims (11)

  1. 画像内のオブジェクトの形状を決定する方法であって、
    オブジェクトをビジュアルハル内に完全に包含できるように、前記オブジェクト用の前記ビジュアルハルを構築することと、
    カメラにより前記オブジェクトの画像を取得することと、
    前記カメラの位置および姿勢に従って前記画像に前記ビジュアルハルを投影することと、
    前記投影されたビジュアルハル上に位置するピクセルをシードピクセルとして選択することと、
    各領域が前記シードピクセルに類似する近傍ピクセルを含む、各シードピクセルの回りの領域を成長させることと、
    前記オブジェクトの2次元形状を決定するために、前記成長した領域に従うサイズに前記ビジュアルハルを縮小することと
    を含む方法。
  2. 前記オブジェクトの3次元形状を決定するために、複数の視点からの複数の形状画像についての取得、投影、選択、成長および縮小を行うことをさらに含む
    請求項1に記載の方法。
  3. 縮小されたサイズのビジュアルハルに従って前記形状画像から前記オブジェクトを分割することをさらに含む
    請求項1に記載の方法。
  4. 前記カメラは、狭い視野を有する
    請求項1に記載の方法。
  5. 前記ビジュアルハルの初期形状は、パラメータにより定義される
    請求項1に記載の方法。
  6. 初期ビジュアルハルは、立方体である
    請求項5に記載の方法。
  7. 初期ビジュアルハルは、球である
    請求項5に記載の方法。
  8. 類似の判断基準は、前記ピクセルの勾配の大きさに基づくものである
    請求項1に記載の方法。
  9. 前記ビジュアルハルの初期形状を定義するために、画像差分を適用することをさらに含む
    請求項1に記載の方法。
  10. 前記カメラの位置および姿勢を決定するために、前記カメラに対して固定された別のカメラにより既知の背景の位置画像を取得することをさらに含む
    請求項1に記載の方法。
  11. 前記カメラと前記他方のカメラとの視野は、切り離されている
    請求項10に記載の方法。
JP2003345949A 2002-11-14 2003-10-03 画像内のオブジェクトの形状を決定する方法 Pending JP2004280776A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/294,050 US7280685B2 (en) 2002-11-14 2002-11-14 Object segmentation from images acquired by handheld cameras

Publications (1)

Publication Number Publication Date
JP2004280776A true JP2004280776A (ja) 2004-10-07

Family

ID=32296886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003345949A Pending JP2004280776A (ja) 2002-11-14 2003-10-03 画像内のオブジェクトの形状を決定する方法

Country Status (2)

Country Link
US (1) US7280685B2 (ja)
JP (1) JP2004280776A (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7545949B2 (en) * 2004-06-09 2009-06-09 Cognex Technology And Investment Corporation Method for setting parameters of a vision detector using production line information
US9092841B2 (en) 2004-06-09 2015-07-28 Cognex Technology And Investment Llc Method and apparatus for visual detection and inspection of objects
US20050088515A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Camera ring for three-dimensional (3D) surface imaging
US8127247B2 (en) 2004-06-09 2012-02-28 Cognex Corporation Human-machine-interface and method for manipulating data in a machine vision system
US8243986B2 (en) * 2004-06-09 2012-08-14 Cognex Technology And Investment Corporation Method and apparatus for automatic visual event detection
US20050276445A1 (en) * 2004-06-09 2005-12-15 Silver William M Method and apparatus for automatic visual detection, recording, and retrieval of events
US8891852B2 (en) * 2004-06-09 2014-11-18 Cognex Technology And Investment Corporation Method and apparatus for configuring and testing a machine vision detector
US7720315B2 (en) 2004-11-12 2010-05-18 Cognex Technology And Investment Corporation System and method for displaying and using non-numeric graphic elements to control and monitor a vision system
US7636449B2 (en) 2004-11-12 2009-12-22 Cognex Technology And Investment Corporation System and method for assigning analysis parameters to vision detector using a graphical interface
US9292187B2 (en) 2004-11-12 2016-03-22 Cognex Corporation System, method and graphical user interface for displaying and controlling vision system operating parameters
KR20120089452A (ko) * 2009-08-04 2012-08-10 아이큐 비젼 테크놀로지즈 리미티드 물체 추출 시스템 및 방법
US9651499B2 (en) 2011-12-20 2017-05-16 Cognex Corporation Configurable image trigger for a vision system and method for using the same
US10620826B2 (en) * 2014-08-28 2020-04-14 Qualcomm Incorporated Object selection based on region of interest fusion
CN108957572B (zh) * 2018-05-18 2020-02-07 广东工业大学 一种太赫兹成像方法、装置、设备及可读存储介质
WO2020111139A1 (ja) * 2018-11-29 2020-06-04 Necソリューションイノベータ株式会社 座標算出装置、座標算出方法、及びコンピュータ読み取り可能な記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5620471A (en) * 1995-06-16 1997-04-15 Pacesetter, Inc. System and method for discriminating between atrial and ventricular arrhythmias and for applying cardiac therapy therefor
US6259827B1 (en) * 1996-03-21 2001-07-10 Cognex Corporation Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images
US6587104B1 (en) * 1999-09-30 2003-07-01 Microsoft Corporation Progressive hulls
US6792140B2 (en) * 2001-04-26 2004-09-14 Mitsubish Electric Research Laboratories, Inc. Image-based 3D digitizer

Also Published As

Publication number Publication date
US20040095484A1 (en) 2004-05-20
US7280685B2 (en) 2007-10-09

Similar Documents

Publication Publication Date Title
US6792140B2 (en) Image-based 3D digitizer
US6781618B2 (en) Hand-held 3D vision system
US8471848B2 (en) System and method for tracking three dimensional objects
Kutulakos et al. A theory of shape by space carving
US7046840B2 (en) 3-D reconstruction engine
US6999073B1 (en) Method and system for generating fully-textured 3D
US20130335535A1 (en) Digital 3d camera using periodic illumination
Brostow et al. Video normals from colored lights
KR20190034092A (ko) 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
US20100328308A1 (en) Three Dimensional Mesh Modeling
WO2000004506A1 (en) Method and system for generating fully-textured 3-d models
Cao et al. Sparse photometric 3D face reconstruction guided by morphable models
JP2008537190A (ja) 赤外線パターンを照射することによる対象物の三次元像の生成
US7280685B2 (en) Object segmentation from images acquired by handheld cameras
CN110148217A (zh) 一种实时三维重建方法、装置及设备
JP2010109783A (ja) 電子カメラ
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
JP2001067463A (ja) 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体
CN107194985A (zh) 一种面向大场景的三维可视化方法及装置
CN109064533B (zh) 一种3d漫游方法及系统
JP2004220312A (ja) 多視点カメラシステム
JP5059503B2 (ja) 画像合成装置、画像合成方法及び画像合成プログラム
JPH05135155A (ja) 連続シルエツト画像による3次元モデル構成装置
Grammatikopoulos et al. Automatic multi-image photo-texturing of 3d surface models obtained with laser scanning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091124