[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20180003400A - 의료 영상 처리 장치 및 방법 - Google Patents

의료 영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR20180003400A
KR20180003400A KR1020160174768A KR20160174768A KR20180003400A KR 20180003400 A KR20180003400 A KR 20180003400A KR 1020160174768 A KR1020160174768 A KR 1020160174768A KR 20160174768 A KR20160174768 A KR 20160174768A KR 20180003400 A KR20180003400 A KR 20180003400A
Authority
KR
South Korea
Prior art keywords
image
par
motion information
motion
phase
Prior art date
Application number
KR1020160174768A
Other languages
English (en)
Inventor
이덕운
나종범
김승언
이경용
최지영
장용진
Original Assignee
삼성전자주식회사
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 한국과학기술원 filed Critical 삼성전자주식회사
Priority to US15/640,344 priority Critical patent/US10565744B2/en
Publication of KR20180003400A publication Critical patent/KR20180003400A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/541Control of apparatus or devices for radiation diagnosis involving acquisition triggered by a physiological signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • G06T5/003
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • Pulmonology (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

일 실시예에 따르면, 제1 위상 구간에서 로 데이터(raw data)를 획득하고, 상기 제1 위상 구간 내의 서로 마주보는 2개의 위상 구간에서 각각 획득된 2개의 PAR(partial angle reconstruction) 영상을 포함하는 적어도 하나의 PAR 영상 쌍을 이용하여 제1 움직임 정보를 생성하고, 상기 제1 움직임 정보를 이용하여 상기 제1 위상 구간 내의 서로 다른 위상에서 획득된 복수의 PAR 영상을 합산하여 합산 영상을 생성하고, 상기 합산 영상으로부터 움직임 아티팩트를 나타내는 이미지 메트릭을 산출하였을 때, 상기 이미지 메트릭이 최소가 되도록, 상기 제1 움직임 정보를 업데이트하여, 제2 움직임 정보를 생성하고, 상기 제2 움직임 정보를 상기 로 데이터에 적용하여 재구성 영상을 생성하는 처리부를 포함하는 의료 영상 처리 장치가 제공된다.

Description

의료 영상 처리 장치 및 방법{Apparatus and method for processing medical image}
개시된 실시예들은 의료 영상 처리 장치, 의료 영상 처리 방법, 및 상기 의료 영상 처리 방법을 수행하는 컴퓨터 프로그램 코드를 저장하는 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
X-ray CT(computed tomography) 영상 재구성은, 인체 외부에서 X-ray를 여러 방향으로 투과시켜 인체 각 조직의 X-ray 감쇄 정도 차이를 나타내는 로 데이터(raw data)를 얻고, 로 데이터를 이용하여 인체내부 영상을 재구성하는 것이다. X-ray CT 영상 재구성은, PET(positron emission tomography), MRI(magnetic resonance imaging), SPECT(single photon emission computed tomography) 등의 다른 인체 내부 영상 획득 시스템에 비해 빠른 시간 내에 고해상도의 영상을 얻을 수 있는 장점을 가진다. 그러나 X-ray CT 시스템을 이용하여 움직이는 대상체를 촬영하는 경우, 움직임 아티팩트(motion artifact)가 발생하여 화질이 저하되는 문제가 있다.
개시된 실시예들은, 인접한 시간의 움직임 관계를 보다 정확하게 나타내는 의료 영상 처리 장치 및 방법을 제공하기 위한 것이다.
또한, 개시된 실시예들은, 스캔 시간을 단축시키고 피치(pitch)를 증가시켜, 한 사이클 내의 움직임 아티팩트(inter cyclic motion artifact)가 저감된 3D 영상을 획득할 수 있는 의료 영상 처리 장치 및 방법을 제공하기 위한 것이다.
일 실시예의 일 측면에 따르면, 제1 위상 구간에서 로 데이터(raw data)를 획득하고, 상기 제1 위상 구간 내의 서로 마주보는 2개의 위상 구간에서 각각 획득된 2개의 PAR(partial angle reconstruction) 영상을 포함하는 적어도 하나의 PAR 영상 쌍을 이용하여 제1 움직임 정보를 생성하고, 상기 제1 움직임 정보를 이용하여 상기 제1 위상 구간 내의 서로 다른 위상에서 획득된 복수의 PAR 영상을 합산하여 합산 영상을 생성하고, 상기 합산 영상으로부터 움직임 아티팩트를 나타내는 이미지 메트릭을 산출하였을 때, 상기 이미지 메트릭이 최소가 되도록, 상기 제1 움직임 정보를 업데이트하여, 제2 움직임 정보를 생성하고, 상기 제2 움직임 정보를 상기 로 데이터에 적용하여 재구성 영상을 생성하는 처리부를 포함하는 의료 영상 처리 장치가 제공된다.
상기 처리부는, 상기 제1 움직임 정보를 생성할 때, 180도 위상 차를 갖는 상기 적어도 하나의 PAR 영상 쌍을 이용하여 상기 제1 움직임 정보를 생성할 수 있다.
상기 처리부는, 공간적으로 인접한 콘트롤 포인트 사이의 움직임 정보의 차이가 작아지도록 상기 제1 움직임 정보를 업데이트할 수 있다.
상기 처리부는, 기준 위상에서 움직임 정보가 영(0)이 되도록 상기 제1 움직임 정보를 업데이트할 수 있다.
상기 처리부는, 상기 재구성 영상을 생성할 때, 상기 제2 움직임 정보에 기초하여 상기 로 데이터의 레이(ray)를 와핑(warping)할 수 있다.
상기 제1 위상 구간은, 180도보다 큰 위상 구간일 수 있다.
상기 서로 마주보는 2개의 위상 구간은 0보다 크고 180도보다 작은 위상 구간일 수 있다.
상기 처리부는, 동일한 위상에 속한 복수의 PAR 영상을 소스가 프로젝션 하는 위치에 기초하여 합산하여 PAR 스택을 생성하고, 상기 제1 움직임 정보를 생성할 때, 상기 서로 마주보는 2개의 위상 구간의 PAR 스택 쌍을 이용하여 상기 제1 움직임 정보를 생성할 수 있다.
상기 처리부는, 상기 합산 영상을 생성할 때, 상기 서로 다른 위상에서 획득된 복수의 PAR 영상에 상기 제1 움직임 정보를 적용하여 움직임을 보상하고, 움직임 보상된 상기 복수의 PAR 영상을 합산하여 상기 합산 영상을 생성할 수 있다.
일 실시예의 다른 측면에 따르면,
제1 위상 구간에서 로 데이터(raw data)를 획득하는 단계;
상기 제1 위상 구간 내의 서로 마주보는 2개의 위상 구간에서 각각 획득된 2개의 PAR(partial angle reconstruction) 영상을 이용하여 제1 움직임 정보를 생성하는 단계;
상기 제1 위상 구간 내의 서로 다른 위상에서 획득된 복수의 PAR 영상을 합산하여 합산 영상을 생성하고, 상기 합산 영상으로부터 움직임 아티팩트를 나타내는 이미지 메트릭(metric)을 산출하였을 때, 상기 이미지 메트릭이 최소가 되도록, 상기 제1 움직임 정보를 업데이트하여, 제2 움직임 정보를 생성하는 단계; 및
상기 제2 움직임 정보를 상기 로 데이터에 적용하여 재구성 영상을 생성하는 단계를 포함하는 의료 영상 처리 방법이 제공된다.
일 실시예의 또 다른 측면에 따르면,
프로세서에 의해 판독되어 실행되었을 때, 의료 영상 처리 방법을 수행하는 컴퓨터 프로그램 코드들을 저장하는 컴퓨터 판독가능 기록매체에 있어서, 상기 의료 영상 처리 방법은,
제1 위상 구간에서 로 데이터(raw data)를 획득하는 단계;
상기 제1 위상 구간 내의 서로 마주보는 2개의 위상 구간에서 각각 획득된 2개의 PAR(partial angle reconstruction) 영상을 이용하여 제1 움직임 정보를 생성하는 단계;
상기 제1 위상 구간 내의 서로 다른 위상에서 획득된 복수의 PAR 영상을 합산하여 합산 영상을 생성하고, 상기 합산 영상으로부터 움직임 아티팩트를 나타내는 이미지 메트릭을 산출하였을 때, 상기 이미지 메트릭이 최소가 되도록, 상기 제1 움직임 정보를 업데이트하여, 제2 움직임 정보를 생성하는 단계; 및
상기 제2 움직임 정보를 상기 로 데이터에 적용하여 재구성 영상을 생성하는 단계를 포함하는, 컴퓨터 판독가능 기록매체가 제공된다.
개시된 실시예들에 따르면, 인접한 시간의 움직임 관계를 보다 정확하게 나타내는 의료 영상 처리 장치 및 방법을 제공할 수 있는 효과가 있다.
또한, 개시된 실시예들에 따르면, 스캔 시간을 단축시키고 피치(pitch)를 증가시켜, 사이클 간 움직임 아티팩트(inter cyclic motion artifact)가 저감된 3D 영상을 획득할 수 있는 의료 영상 처리 장치 및 방법을 제공할 수 있는 효과가 있다.
도 1은 개시된 일 실시예에 따른 CT 시스템(100)의 구조를 나타낸 도면이다.
도 2는 일 실시예에 따른 의료 영상 장치(100a) 및 외부 장치들을 나타낸 도면이다.
도 3은 일 실시예에 따른 의료 영상 처리 방법을 나타낸 흐름도이다.
도 4는 일 실시예에 따라, 제1 MVF를 생성하는 과정을 나타낸 도면이다.
도 5는 개시된 실시예에 따라 움직임 정보를 획득하기 위한 방법을 설명하기 위한 도면이다.
도 6은 일 실시예에 따라 PAR 영상으로부터 MVF를 산출하는 과정을 나타낸 도면이다.
도 7은 일 실시예에 따라 움직임 보상된 재구성 영상을 생성하는 과정을 나타낸 도면이다.
도 8은 일 실시예에 따른 PAR 시퀀스를 나타낸 도면이다.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 영상은 컴퓨터 단층 촬영(CT, Computed Tomography) 장치, 자기 공명 영상(MRI, Magnetic Resonance Imaging) 장치, 초음파 촬영 장치, 또는 엑스레이 촬영 장치 등의 의료 영상 장치에 의해 획득된 의료 영상을 포함할 수 있다.
본 명세서에서 '대상체(object)'는 촬영의 대상이 되는 것으로서, 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등; organ) 또는 팬텀(phantom) 등을 포함할 수 있다.
본 명세서에서 'CT 시스템' 또는 'CT 장치'는 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 X선을 조사하고, X선을 검출하여 대상체를 촬영하는 시스템 또는 장치를 의미한다.
본 명세서에서 'CT 영상'은 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 조사된 X선을 검출하여 대상체를 촬영함으로써 획득된 로 데이터(raw data)로부터 구성된 영상을 의미한다.
본 개시의 실시예들에 따르면, 움직임 아티팩트가 저감된 3D CT 영상을 얻을 수 있다. 먼저 획득한 사이노그램을 사용하여 연속된 PAR 영상을 만든다. 각 PAR 영상 쌍의 에러를 최소화하는 것으로 초기 모션 추정을 수행한다. 그 후, 생성된 PAR 스택에 대해서 IP maximization을 수행하여 보정 항(refining term)을 추정한 뒤, 업데이트된 MVF를 사용하여 움직임 보상 영상 재구성을 수행한다.
도 1은 개시된 일 실시예에 따른 CT 시스템(100)의 구조를 나타낸 도면이다.
개시된 일 실시예에 따른 CT 시스템(100)은 갠트리(110), 테이블(105), 제어부(130), 저장부(140), 영상 처리부(150), 입력부(160), 디스플레이부(170), 및 통신부(180)를 포함할 수 있다.
갠트리(110)는 회전 프레임(111), 엑스레이 생성부(112), 엑스레이 검출부(113), 회전 구동부(114), 및 리드아웃부(115)를 포함할 수 있다.
회전 프레임(111)은 회전 구동부(114)로부터 구동 신호를 수신하여, 회전축(RA)을 중심으로 회전할 수 있다.
산란 방지 그리드(116)는 대상체와 엑스레이 검출부(113) 사이에 배치되어, 주 방사선은 대부분 투과시키고, 산란 방사선은 감쇠시킬 수 있다. 대상체는 테이블(105) 상에 배치되고, 테이블(105)은 CT 촬영을 수행하는 동안 이동되거나, 기울어지거나(tilting), 회전(rotating)할 수 있다.
엑스레이 생성부(112)는 고전압 생성부(HVG, high voltage generator)로부터 전압, 전류를 인가 받아 X선을 생성하고 방출한다.
엑스레이 생성부(112)는 엑스레이 생성부(112) 및 엑스레이 검출부(113)가 각각 한 개씩 구비되는 단일 소스 방식, 각각 두 개씩 구비되는 듀얼 소스 방식 등으로 구현될 수 있다.
엑스레이 검출부(113)는 대상체를 통과한 방사선을 검출한다. 엑스레이 검출부(113)는 예를 들면, 신틸레이터(Scintillator), 포톤 카운팅 디텍터(photon counting detector) 등을 이용하여 방사선을 검출할 수 있다.
엑스레이 생성부(112)와 엑스레이 검출부(113)의 구동 방식은 대상체에 대한 스캔 방식에 따라 달라질 수 있다. 상기 스캔 방식은 엑스레이 검출부(113)의 이동 경로에 따라 축상(axial) 스캔 방식, 나선형(helical) 스캔 방식 등을 포함한다. 또한 상기 스캔 방식은 X선이 조사되는 시간 구간에 따라 프로스펙티브(prospective) 모드, 레트로스펙티브(retrospective) 모드 등을 포함한다.
제어부(130)는 CT 시스템(100)의 각각의 구성요소들의 동작을 제어할 수 있다. 제어부(130)는 소정의 기능을 수행하기 위한 프로그램 코드 또는 데이터를 저장하는 메모리, 프로그램 코드 및 데이터를 처리하는 프로세서를 포함할 수 있다. 제어부(130)는 하나 이상의 메모리 및 하나 이상의 프로세서의 다양한 조합으로 구현 가능하다. 프로세서는 CT 시스템(100)의 동작 상태에 따라 프로그램 모듈을 생성하고 삭제할 수 있으며, 프로그램 모듈의 동작들을 처리할 수 있다.
리드아웃부(115)는 엑스레이 검출부(113)에서 생성된 검출 신호를 입력 받아, 영상 처리부(150)로 출력한다. 리드아웃부(115)는 데이터 획득 회로(Data Acquisition System, 115-1) 및 데이터 송신부(115-2)를 포함할 수 있다. DAS(115-1)는 적어도 하나의 증폭 회로를 이용하여, 엑스레이 검출부(113)로부터 출력된 신호를 증폭하여, 데이터 송신부(115-2)로 출력한다. 데이터 송신부(115-2)는 멀티플렉서(MUX) 등의 회로를 이용하여, DAS(115-1)에서 증폭된 신호를 영상 처리부(150)로 출력한다. 슬라이스 두께(slice thickness)나 슬라이스 개수에 따라 엑스레이 검출부(113)로부터 수집된 일부 데이터만이 영상 처리부(150)로 제공되거나, 영상 처리부(150)가 일부 데이터만을 선택할 수 있다.
영상 처리부(150)는 리드아웃부(115)로부터 획득된 신호(예컨대, 가공 전 순수(pure) 데이터)로부터 단층 데이터를 획득한다. 영상 처리부(150)는 획득된 신호에 대한 전처리, 단층 데이터로의 변환 처리, 상기 단층 데이터에 대한 후처리 등을 수행할 수 있다. 영상 처리부(150)는 본 개시에서 예시된 처리들 중 일부 또는 전부를 수행하며, 실시예에 따라 영상 처리부(150)에서 수행되는 처리의 종류 및 순서는 달라질 수 있다.
영상 처리부(150)는 리드아웃부(115)로부터 획득된 신호에 대해, 채널들 사이의 감도 불균일 정정 처리, 신호 세기의 급격한 감소 정정 처리, X선 흡수재로 인한 신호의 유실 정정 처리 등의 전처리를 수행할 수 있다.
영상 처리부(150)는 실시예들에 따라, 단층 영상으로의 재구성 처리 중 일부 또는 전부를 수행하여 상기 단층 데이터를 생성한다. 실시예에 따라, 상기 단층 데이터는 역투영(back-projection)된 데이터, 또는 단층 영상 등의 형태를 가질 수 있다. 실시예들에 따라, 단층 데이터에 대한 추가적인 처리가 서버, 의료 장치, 휴대용 장치 등의 외부 장치에 의해 수행될 수 있다.
로 데이터는 대상체를 통과한 X선 세기에 상응하는 데이터 값의 집합으로서, 프로젝션 데이터(projection data) 또는 사이노그램(sinogram)을 포함할 수 있다. 역투영된 데이터는, X선이 방사된 각도 정보를 이용하여 상기 로 데이터를 역투영한 데이터이다. 단층 영상은 상기 로 데이터를 역투영하는 단계를 포함하는 재구성 영상기법들을 적용하여 획득된 영상이다.
저장부(140)는 제어 관련 데이터, 영상 데이터 등을 저장하는 저장매체로서, 휘발성 또는 비휘발성 저장매체를 포함할 수 있다.
입력부(160)는 사용자로부터 제어 신호, 데이터 등을 수신한다. 디스플레이부(170)는 CT 시스템(100)의 동작 상태를 나타내는 정보, 의료 정보, 의료 영상 데이터 등을 표시할 수 있다.
CT 시스템(100)은 통신부(180)를 포함하며, 통신부(180)를 통해 외부 장치(예를 들면, 서버, 의료 장치, 휴대 장치(스마트폰, 태블릿 PC, 웨어러블 기기 등))와 연결할 수 있다.
통신부(180)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
통신부(180)가 외부 장치로부터 제어 신호 및 데이터를 수신하고, 수신된 제어 신호를 제어부(130)에 전달하여 제어부(130)로 하여금 수신된 제어 신호에 따라 CT 시스템(100)을 제어하도록 하는 것도 가능하다.
또는, 제어부(130)가 통신부(180)를 통해 외부 장치에 제어 신호를 송신함으로써, 외부 장치를 제어부의 제어 신호에 따라 제어하는 것도 가능하다.
예를 들어 외부 장치는 통신부를 통해 수신된 제어부의 제어 신호에 따라 외부 장치의 데이터를 처리할 수 있다.
외부 장치에는 CT 시스템(100)을 제어할 수 있는 프로그램이 설치될 수 있는바, 이 프로그램은 제어부(130)의 동작의 일부 또는 전부를 수행하는 명령어를 포함할 수 있다.
프로그램은 외부 장치에 미리 설치될 수도 있고, 외부 장치의 사용자가 어플리케이션을 제공하는 서버로부터 프로그램을 다운로드하여 설치하는 것도 가능하다. 어플리케이션을 제공하는 서버에는 해당 프로그램이 저장된 기록매체가 포함될 수 있다.
개시된 실시예들에 따른 CT 시스템(100)은 실시예에 따라 CT 촬영 시, 조영제를 이용하거나 이용하지 않을 수 있으며, 타 기기와 연계된 장치의 형태로 구현되는 것도 가능하다.
개시된 실시예들에 따른 의료 영상 장치는, 대상체를 촬영한 로 데이터를 획득하여, 로 데이터로부터 재구성된 CT 영상을 생성하는 장치이다. 일 실시예에 따른 의료 영상 장치는 도 1의 CT 시스템(100)과 같이 구현될 수 있다.
X-ray CT로 움직이는 대상체, 예를 들면 빠르게 수축과 이완을 반복하는 심장을 촬영하는 경우, 심전도계 신호(ECG, electrocardiogram)와 동조를 통해 움직임 아티팩트가 저감된 CT 영상을 획득할 수 있다. 예를 들어, X-ray CT는 관상동맥 협착 평가, 관상동맥 우회로 수술 후 이식혈관 평가, 및 관상동맥 스텐트(stent) 시술 후의 재협착 평가에 사용될 수 있고, 응급실에서 급성 흉통의 감별에도 유용하게 사용될 수 있으며, 관상동맥 고위험군 환자에서 관상동맥 협착증의 선별검사로도 사용될 수 있다.
그러나 X-ray CT의 시간 분해능이 심장을 촬영 하기에는 여전히 부족하기 때문에 박동이 매우 빠른 경우나 부정맥 환자 등의 경우, 심장 영상 촬영 시 심장 움직임에 의한 영상 블러(blur) 혹은 움직임 아티팩트를 유발하고, 이로 인해 관상동맥의 모양 및 굵기를 제대로 판별할 수 없게 되어 오진을 일으킬 수 있다.
시간 분해능을 높이기 위한 하드웨어적 접근으로, 갠트리의 물리적 회전 속도를 높이는 방식, 듀얼 소스(dual-source)를 이용하는 방식 등이 이용될 수 있다. 듀얼 소스 시스템은 단일 소스 시스템에 비해 두 배에 해당하는 시간 분해능을 가질 수 있다. 하지만, 하드웨어적으로 회전 속도를 빠르게 하거나 시스템에 추가적인 설비를 설치하는 등의 방법은 개선의 물리적 한계가 존재하며 하드웨어 복잡도 상승으로 비용이 증가하는 단점이 있다.
다른 방식으로서, 영상에서 움직임 정보를 추출하거나 사이노그램 등의 로 데이터로부터 움직임 정보를 추출하여 움직임을 보상할 수 있다. 본 개시의 실시예들은, PAR 영상들로부터 추출된 움직임 정보를 추출하여, 영상 재구성 과정에 움직임 모델을 포함시켜 영상 화질저하를 개선한다.
개시된 실시예들은, 부분 각도 재구성(PAR; partial angle reconstruction) 영상 기반의 4D 심장 움직임 추정 및 보상 방법에서, 복수의 켤레 PAR 영상 쌍의 차이가 작아지도록 움직임을 추정하여 보상한다. 켤레 PAR 영상 쌍은, 서로 켤레각 관계를 갖는 각도 구간에서 획득된 로 데이터, 예를 들면 180도의 위상 차를 갖는 두 각도 구간에서 각각 획득된 로 데이터로부터 재구성된 PAR 영상 쌍을 의미한다. 나아가 개시된 실시예들은, 정보 포텐셜(information potential, IP)에 기반하여 움직임 모델을 추가로 보정하여, 인접한 시간의 움직임 관계를 보다 정확하게 나타낼 수 있는 단층 영상의 재구성 방법 및 장치를 개시한다.
또한, 개시된 실시예들은 대상체를 스캔하는 피치를 증가시켜 짧은 시간에 영상을 획득할 수 있도록 한다. 움직이는 대상체, 예를 들면, 심장을 촬영하기 위하여 로우 피치 나선형 스캔(low pitch helical scan)을 하거나, 스텝 앤 슛(step and shoot) 방법을 사용할 수 있다. 그런데 로우 피치 스캔 또는 스텝 앤 슛 등의 방법에 의하면, 움직이는 대상체의 움직임 주기 등을 고려하기 위해, 스캔 시간 및 선량(dose)이 과도하게 커지는 단점이 있고, 멀티 사이클에 걸쳐 촬영을 하기 때문에 필연적으로 사이클간 움직임이 발생할 수 있다는 단점이 있다. 개시된 실시예들에 따르면, 스탠다드 피치의 나선형 스캔(standard pitch helical scan)의 상황에서 움직임 아티팩트가 저감된 3D영상을 획득할 수 있는 장치 및 방법이 제공된다. 개시된 실시예들에 따른 의료 영상 처리 장치는, 갠트리의 피치를 증가시킴으로써 짧은 시간에 로 데이터 및 재구성 영상을 획득할 수 있다. 또한, 개시된 실시예들에 따르면, 대상체 전체, 예를 들면, 심장을 로우 피치로 스캔하여 영상화 할 때 발생하는 사이클간 움직임 아티팩트의 발생을 막을 수 있는 효과가 있다. 또한 개시된 실시예들에 따르면, 스탠다드 피치 나선형 스캔 환경에서 영상 전체 영역에 대해서 움직임을 추정하여 보상할 수 있다.
나아가, 개시된 실시예들은 하이 피치를 이용하는 경우, 단일 사이클의 로 데이터 만으로도 영상 재구성이 가능하기 때문에, 사이클간 심장의 움직임 위상이 맞지 않는 경우에도 심장의 움직임을 보상할 수 있고, 사이클간 동일 호흡 상태 유지 등에 신경 쓸 필요가 없는 장점이 있다.
X-ray CT의 시간 분해능을 높이기 위한 접근으로 앞에서 설명한 ECG동조화 영상 재구성 방법이 있고, 이와 더불어 기본적인 하드웨어의 성능을 높이거나 소스의 개수를 추가하는 등의 방법이 있다. 하지만, 하드웨어의 개선은 물리적 한계가 존재하고 복잡도의 상승으로 비용의 증가 등의 단점이 존재하기 때문에, 개시된 실시예들은 알고리즘적으로 움직임 아티팩트를 감소시키는 장치 및 방법을 제공한다.
또한 본 개시의 일 실시예에 따르면, 영상에서 움직임 아티팩트의 정도를 측정하는 메트릭(metric)을 정의한 뒤, 움직임 보상 재구성 영상의 움직임 아티팩트가 작아지도록 최적화 방법에 기반하여 움직임 모델을 추정할 수 있다. 본 실시예는, 관상동맥, 심근, 판막 등 심장 내 움직임이 있는 관심 영역에 대해 움직임 모델을 추정하는데 유용하다.
움직임 보상의 일례로서, 사이노그램 등의 로 데이터를 이용하여 움직임을 추정 및 움직임 보상하는 것도 가능하다. 사이노그램은 한 순간에 획득한 투영(projection) 영상의 집합이기 때문에 일반적으로 재구성 영상보다 좋은 시간 분해능을 가진다. 따라서, 사이노그램에서 물체의 움직임을 추출한다면 움직임 아티팩트 등의 영향이 재구성 영상에 비해 상당히 줄어든 상태에서 움직임을 추정할 수 있다. 하지만, 사이노그램을 이용하는 알고리즘은 한쪽 방향으로 물체가 투영된 영상에 기반하여 움직임을 추정하기 때문에, 레이(ray)가 투영되는 방향의 움직임 정보는 선 적분 모델에서 전부 누적되면서 보이지 않게 되어 정확한 움직임 정보를 추정하기 힘들다. 듀얼 소스 시스템을 사용하여 추정한다면 약 90도만큼 떨어진 위치에서 두 개의 소스로부터 동시에 두 개의 투영 영상을 획득하기 때문에 두 영상에서 서로 보이지 않는 부분을 보완해줄 수 있다. 하지만, 일반적인 단일 소스 시스템에서는 레이 투영 방향이 레이 투영 방향의 수직 방향에 비해 추정된 움직임 정보의 정확도가 상대적으로 떨어질 수 있고, 모든 사이노그램으로부터 움직임 정보를 추출하는 최적화 기법을 사용하기 때문에 계산량이 많다는 단점이 있다.
개시된 실시예들에 따르면, 로우 피치 나선형 스캔 상황에서 심장의 4D 움직임을 추정 및 보상하는 방법 및 장치가 제공되고, 스탠다드 피치 나선형 스캔 상황에서 전체 심장의 움직임 아티팩트가 저감된 단일 3D 영상을 재구성하는 방법 및 장치가 제공된다.
도 2는 일 실시예에 따른 의료 영상 장치(100a) 및 외부 장치들을 나타낸 도면이다.
일 실시예에 따른 의료 영상 장치(100a)는 적어도 하나의 처리부(210)를 포함한다.
일 실시예에 따르면, 처리부(210)는 스캐너(220)로부터 대상체를 촬영하여 획득한 로 데이터를 획득할 수 있다. 스캐너(220)는 엑스레이 생성부(112), 엑스레이 검출부(113), 및 리드아웃부(115)를 포함할 수 있다. 스캐너(220)는 의료 영상 처리 장치(100a)의 처리부(210)와 별개의 제어부(130)에 의해 제어되거나, 의료 영상 처리 장치(100a)의 처리부(210)에 의해 제어되어 대상체를 스캔하고, 로 데이터를 획득할 수 있다. 일 실시예에 따르면, 스캐너(220)는 의료 영상 처리 장치(100a) 내에 구비된다. 다른 실시예에 따르면, 스캐너(220)는 의료 영상 처리 장치(100a)와 별개 장치로 구비되고, 유선 또는 무선의 I/O 디바이스 또는 통신 디바이스를 통해 처리부(210)로 로 데이터를 전송할 수 있다.
다른 실시예에 따르면, 처리부(210)는 네트워크(240)를 통해 연결된 외부 장치(230)로부터 로 데이터를 획득할 수 있다. 외부 장치(230)는 예를 들면, 의료 영상 데이터를 저장하는 서버, 다른 의료 영상 장치, 사용자 단말, 외부 저장 장치 등일 수 있다. 네트워크(230)는 다양한 종류의 유무선 네트워크를 포함하며, 예를 들면, 유무선 근거리 통신망(LAN), 이동 통신망, 인터넷 등을 포함한다.
로 데이터는 예를 들면, 위상 정보를 포함하는 사이노그램 또는 프로젝션 데이터이다.
도 3은 일 실시예에 따른 의료 영상 처리 방법을 나타낸 흐름도이다. 도 3의 흐름도를 참조하여, 처리부(210)의 동작을 설명한다. 본 개시의 의료 영상 처리 방법은 적어도 하나의 메모리와 적어도 하나의 처리부를 구비하는 다양한 전자 장치에 의해 수행될 수 있다. 본 개시에서는 도 2에 도시된 의료 영상 장치(100a)에 의해 의료 영상 처리 방법이 수행되는 실시예를 중심으로 설명한다.
처리부(210)는 대상체를 스캔하여 획득된 로 데이터를 획득한다(S302). 로 데이터는 의료 영상 처리 장치(100a)의 스캐너로부터 획득되거나, 외부 장치로부터 수신되는 등 다양한 방식으로 획득될 수 있다. 처리부(210)는 제1 위상 구간의 로 데이터를 획득한다. 제1 위상 구간은 180도보다 큰 위상 구간으로서, 예를 들면, 360도, 720도 등으로 설정될 수 있다.
다음으로, 처리부(210)는 로 데이터로부터 적어도 하나의 PAR(partial angle reconstruction) 영상 쌍을 재구성하고, 재구성된 2개의 PAR 영상을 이용하여 제1 움직임 정보를 생성한다(S304). 제1 움직임 정보는 예를 들면, MVF(motion vector field)로 나타낼 수 있다. 본 명세서에서는 움직임 정보를 MVF로 나타내는 실시예를 중심으로 설명하지만, 움직임 정보는 실시예에 따라 MVF 형태 이외의 다양한 형태로 나타내 낼 수 있다. PAR 영상 쌍은 0보다 크고 180도보다 작은 각도 구간의 로 데이터를 이용하여 재구성된 2개의 PAR 영상으로서, 서로 마주보는 2개의 각도 구간에 각각 대응하는 2개의 PAR 영상을 포함한다. 서로 마주보는 2개의 각도 구간은 예를 들면, 180도의 위상차를 갖는 각도 구간일 수 있다. 처리부(210)는 한 쌍의 PAR 영상을 이용하여 제1 MVF를 생성할 수 있으며, 복수의 PAR 영상 쌍을 이용하여 제1 MVF를 생성할 수도 있다.
또한, 처리부(210)는 제1 MVF를 적용하여 재구성한 서로 다른 위상의 복수의 PAR 영상을 합산하여 합산 영상을 생성한다(S306). 일 실시예에 따르면, 처리부(210)는 로 데이터로부터 180도보다 큰 위상 구간을 커버하는 복수의 PAR 영상들을 포함하는 PAR 시퀀스(sequence)을 생성하고, PAR 시퀀스에 포함된 PAR 영상들을 이용하여, 제1 MVF를 생성하고, 합산 영상을 생성한다. 예를 들면, PAR 시퀀스는 360도의 위상 구간을 커버하거나, 360도 이상의 위상 구간을 커버할 수 있다.
다음으로, 처리부(210)는 합산 영상을 이용하여, 움직임 아티펙트를 나타내는 이미지 메트릭을 산출한다(S307). 예를 들면, 처리부(210)는 합산 영상의 히스토그램에 기초하여, 이미지 메트릭을 산출할 수 있다. 이미지 메트릭은 로 데이터의 움직임 아티팩트를 정량적으로 나타낸 값이다. 처리부(210)는 이미지 메트릭이 감소하도록, 제1 MVF를 업데이트하고, 업데이트된 제1 MVF로 합산 영상 및 이미지 메트릭을 산출하는 과정을 반복적으로(iteratively) 수행할 수 있다.
다음으로, 처리부(210)는 제1 MVF가 수렴하면, 업데이트된 제1 MVF를 제2 MVF로 결정한다(S308). 여기서 제1 MVF가 수렴한다는 것은, 이미지 메트릭이 수렴한다는 것을 의미한다.
제2 MVF가 결정되면, 처리부(210)는 제2 움직임 정보, 즉, 제2 MVF를 사이노그램 또는 프로젝션 데이터 등의 로 데이터에 적용하여, 재구성 영상을 생성한다(S310). 예를 들면, 처리부(210)는 제2 MVF에 기초하여 재구성 과정에서 사이노그램의 레이(ray)를 와핑(warping)하여, 움직임 보상된 재구성 영상을 생성할 수 있다.
일 실시예에 따르면, 제1 MVF와 제2 MVF는 3차원 MVF이다. 또한, 일 실시예에 따르면, 제1 MVF와 제2 MVF는 위상에 따른 모션 벡터 성분을 가질 수 있다.
본 개시의 일 실시예에 따라, 로우 피치 나선형 스캔에 대한 4D 움직임 추정 및 보상 알고리즘을 설명한다.
도 4는 일 실시예에 따라, 제1 MVF를 생성하는 과정을 나타낸 도면이다.
일 실시예에 따른 4D 심장 움직임 추정 및 보상 알고리즘에 따르면, 처리부(210)는 움직임 추정하기에 앞서, 획득한 사이노그램과 ECG 신호를 참고하여 PAR 스택을 생성한다. 처리부(210)는 켤레 PAR 스택 사이의 에러를 최소화하는 것으로 초기 모션 추정(initial motion estimation)을 수행한다. 그 후, 처리부(210)는 제1 MVF에 기반하여 연속된 시점의 PAR 스택을 다 더했을 때, 온전한 영상이 되도록 보정 항(refining term)을 추정한다. 마지막으로, 처리부(210)는 제1 MVF를 업데이트하여 추정된 제2 MVF를 사용하여 움직임 보상 영상 재구성을 수행한다.
우선, PAR 영상의 생성 과정에 대해 설명한다.
처리부(210)는 움직임 추정을 위하여 짧은 스캔 구간의 프로젝션 데이터를 사용하여 도 4과 같이 PAR 시퀀스(sequence)를 생성한다. 예를 들면, 엑스레이 생성부(112)가 도 4의 401 내지 413 각도 구간을 순차적으로 지나가면서 회전하며 X 선을 대상체(410)에 조사하고, 엑스레이 검출부(113)에서 검출된 X 선으로부터 로 데이터가 생성된다. 일 실시예에 따르면, 스캔을 수행하는 각도 범위는 180도보다 크다. 예를 들면, 스캔을 수행하는 각도 범위는 360도 또는 그 이상일 수 있다. 처리부(210)는 로 데이터로부터 401 내지 413 각도 구간에 각각 대응하는 421 내지 433 PAR 영상을 생성한다. 401 내지 413 PAR 영상 중, 서로 180도의 위상차를 갖는 PAR 영상들은 켤레 PAR 영상 쌍이 된다. 예를 들면, 421 PAR 영상과 427 PAR 영상이 켤레 PAR 영상 쌍을 이루고, 422 PAR 영상과 428 PAR 영상이 켤레 PAR 영상 쌍을 이룰 수 있다.
본 실시예에 따르면, 데이터 획득 조건이 로우 피치 나선형 스캔이기 때문에 동일한 위상에 대하여 여러 장의 PAR 영상이 생성된다. 처리부(210)는 계산의 효율 측면에서 동일한 위상에 속한 여러 장의 PAR 영상을 소스(예를 들면, 엑스레이 생성부(112))가 프로젝션하는 위치에 맞게 쌓아 하나의 영상으로, PAR 스택을 만든다. 각 PAR 스택은 해당하는 위상에서의 피사체의 움직임 정보를 높은 시 분해능으로 반영하는 반면, 피사체의 일부 구조만을 보여준다. 때문에, PAR 스택을 사용하여 인접한 위상과 직접 비교를 통한 움직임 추정은 어렵지만, PAR 스택과 180도에 대응되는 위상만큼 차이 나는 PAR 스택과는 직접 비교를 통해 움직임을 추정할 수 있다.
도 5는 개시된 실시예에 따라 움직임 정보를 획득하기 위한 방법을 설명하기 위한 도면이다.
개시된 실시예에 따르면, 처리부(210)는 서로 마주보는 각도 구간인 켤레각(conjugate angle)에 대한 제1 PAR 영상 및 제2 PAR 영상을 포함하는 적어도 하나의 PAR 영상 쌍을 이용하여 움직임 정보, 즉, MVF를 획득한다. 일 실시예에 따르면, 상기 제1 PAR 영상 및 제2 PAR 영상은 엑스레이 생성부(112)의 회전 경로 상에서 180도의 각도 차를 갖는 영상이다. 또한 제1 PAR 영상 및 제2 PAR 영상은 상기 대상체의 오차 범위 내의 동일 z축 위치에 대응되는 슬라이스에 대한 단층 영상 일 수 있다. 제1 MVF를 생성하기 위해 이용되는 PAR 영상 쌍의 개수는 실시예에 따라 달라질 수 있다.
도 5를 참조하면, 제1 각도 구간(520) 및 제2 각도 구간(522)은 서로 마주보는 각도인 켤레각(conjugate angle)의 관계를 가질 수 있다. 켤레각 관계에 있는 두 각도 구간의 각도 차이는 180도가 된다. 예를 들면, 도 4의 401 각도 구간이 제1 각도 구간(520)이 되고, 407 각도 구간이 제2 각도 구간(522)이 될 수 있다. 또한, 도 4의 402 각도 구간이 제1 각도 구간(520)이 되고, 408 각도 구간이 제2 각도 구간(522)이 될 수 있다. 엑스레이 생성부(112)는 소정의 속도로 대상체 주변을 회전하면서 이동하므로, 제1 각도 구간(520)과 제2 각도 구간(522)에 대해 각각 재구성된 제1 PAR 영상 및 제2 PAR 영상은, 180도의 각도 차이에 의해 시간차를 갖는다.
제1 각도 구간(520) 및 제2 각도 구간(522)이 서로 켤레각의 관계를 가지면, 제1 각도 구간(520) 및 제2 각도 구간(522)에서의 뷰(view)가 동일하므로, 제1 각도 구간(520)에서 대상체(505)를 촬영할 때 감지되는 대상체(505)의 표면(surface)과 제2 각도 구간(522)에서 대상체(505)를 촬영할 때 감지되는 대상체(505)의 표면(surface)은 동일하다. 따라서 상기 제1 각도 구간(522)에 대한 제1 PAR 영상과 제2 각도 구간(522)에 대한 제2 PAR 영상은 동일한 대상체(505)의 표면의 서로 다른 시간에서의 상태를 표현하므로, 제1 PAR 영상과 제2 PAR 영상을 비교하여 180도 각도 차이(510)에 의한 시간차 동안에 발생한 대상체의 움직임 정보를 얻을 수 있다.
개시된 실시예에 따르면, 제1 각도 구간(520) 및 제2 각도 구간(522)은 0도보다 크고 180도 미만의 값을 가지며, 처리부(210)는 부분 각도 재구성(PAR: partial angle reconstruction) 기법을 이용하여, 제1 각도 구간(520) 및 제2 각도 구간(522)에 대해 획득된 로 데이터로부터 제1 PAR 영상 및 제2 PAR 영상을 재구성한다. 부분 각도 재구성 기법에 의하여 재구성된 PAR 영상은 전술한 불완전한 영상(incomplete image) 또는 부분 영상(partial image)이 될 수 있다. 본 실시예에 따르면, 절반 재구성 또는 전체 재구성에 비하여, 상대적으로 작은 각도 구간을 이용하여 영상을 재구성함으로써, 시간 해상도(temporal resolution)를 증가시키고 움직임 아티팩트를 최소화할 수 있다. 본 개시의 실시예에서는 부분 각도 영상인 제1 PAR 영상 및 제2 PAR 영상을 이용하여 대상체의 움직임 량을 측정함으로써, 더욱 정확하게 대상체의 움직임 량을 측정할 수 있다.
도 6은 일 실시예에 따라 PAR 영상으로부터 MVF를 산출하는 과정을 나타낸 도면이다.
일 실시예에 따르면, PAR영상을 사용하여 움직임을 추정하기 앞서, 영상의 특성이 움직임 추정에 적합하게 바뀌도록 밴드 패스 필터링(band-pass filtering, BPF)을 수행한다. 도 6에서 보이는 것과 같이, PAR 영상에서는 높은 대조비를 가지는 대상체 근처에서 투영되는 방향으로 쉐이딩(shading)이 나타나고, 이 쉐이딩이 근처의 다른 대상체의 세기(intensity)에 영향을 주게 되어 움직임 추정의 정확도를 떨어뜨린다. 쉐이딩은 기본적으로 저주파 성분이고 움직임 추정에서 사용되는 특징은 특정 고주파 성분이기 때문에, 본 실시예는 PAR 영상에 BPF를 수행함으로써 움직임 추정 정확도를 상승 시킨다. 밴드 패스 필터는 예를 들면 처리부(210)에 의해 구현될 수 있다.
또한, 본 개시의 일 실시예는, 움직임 추정의 강인성(robustness)을 향상 시키기 위해 멀티 해상도(multi-resolution) 기법을 사용하였다. 즉, 원본 PAR 스택을 블러 및 다운 샘플링하여 낮은 해상도의 영상을 만들어 움직임 추정을 한다. 이 때 추정된 움직임 벡터를 상위 해상도에서의 움직임을 추정할 때 초기값으로 사용하면, 움직임 추정의 정확도를 높이는데 도움이 된다.
처리부(210)는 멀티 해상도의 제1 PAR 영상(602, 604, 606) 및 멀티 해상도의 제2 PAR 영상(612, 614, 616)를 비교하여, 기준 각도(0도)로부터 테스트 각도(180도)로의 MVF(620)를 생성할 수 있다.
다음으로, 모션 추정 과정에 대해 설명한다. 우선 초기 모션 추정에 대해 설명한다.
일 실시예에 따르면, 처리부(210)는 모션 모델로서, 시간 흐름에 따른 심장의 움직임을 표현하기 위하여 B-spline 기반 4D freeform deformation(FFD) 모델을 사용한다. 4D FFD 모델은, 4D 영상 시퀀스에 대하여, 특정 기준 시점 r의 기준 영상으로부터 각 시점의 영상과의 대응 관계를 나타낸다. 4D FFD 모델의 변환 함수(Transform function)는 수학식 1과 같다.
Figure pat00001
수학식 1에서 β는 1D cubic B-spline 을 나타내고, B는 3D tensor product of 1D cubic B-spline을 나타낸다.
Figure pat00002
i시점의 PAR 영상의 중심 뷰 각도(center view angle)에 해당한다.
Figure pat00003
는 시간 도메인(temporal domain)에서의 콘트롤 포인트(control point) 간의 포인트 간의 간격을 나타내고,
Figure pat00004
는 공간 도메인(spatial domain)에서의 콘트롤 포인트간의 간격을 나타낸다.
Figure pat00005
t시점에 j위치의 콘트롤 포인트의 변위 벡터(displacement vector)를 나타낸다.
Figure pat00006
는 기준 시점 r에서 각 시점으로 움직임 관계를 나타내기 위한 4D 콘트롤 포인트 세트의 변위 벡터 세트를 나타낸다. 콘트롤 포인트는 모션을 추정하고자 하는 특정 샘플 포인트를 의미한다. 처리부(210)는 이들 특정 샘플 포인트에서 추정된 모션 벡터를 보간 함으로써, 임의의 복셀(x)에서의 모션 벡터를 추정하게 된다.
다음으로, 처리부(210)는 각 켤레각 PAR 스택 사이의 차이를 산출한다.
일 실시예에 따르면, 처리부(210)는 각 켤레각 PAR 스택 사이의 차이가 작아지도록 4D의 움직임 모델의 파라미터를 정한다. 예를 들면, 처리부(210)는 401 PAR 영상과 407 PAR 영상의 차이가 작아지도록 4D 움직임 모델의 파라미터를 정의하고, 402 PAR 영상과 408 PAR 영상의 차이가 작아지도록 4D 움직임 모델의 파라미터를 정의한다. 움직임 추정에서 사용되는 두 PAR 스택은 동일한 모달리티이기 때문에, SSD(sum of squared differences)에 기반하여 다음의 비유사도(dissimilarity metric), D(
Figure pat00007
)를 정의하였다.
Figure pat00008
여기서
Figure pat00009
Figure pat00010
의 스캔 범위 동안의 PAR 스택의 개수를 나타내고, r은 기준 위상의 인덱스를 나타내며, Pii번째 PAR영상을 나타낸다. Pi(x)는 i번째 PAR 영상이고, Pr(x)는 기준 위상의 PAR 영상을 의미한다. 처리부(210)는 모든 켤레 쌍의 PAR 스택들 간의 에러를 최소화 한다.
한편, 4D FFD 움직임 모델의 자유도(degree of freedom)가 높기 때문에 움직임 파라미터를 추정하는 문제는 해를 정하기 어려우므로(ill-posed), 개시된 일 실시예는, 정규화(regularization)로서 수학식 3과 같이 시공간적으로 인접한 콘트롤 포인트 간의 파라미터 값의 큰 차이를 감소시키는(penalize) 항목(term)을 사용하였다.
Figure pat00011
수학식 3에서 K j j번째 콘트롤 포인트의 공간상의 이웃 인덱스의 집합을 나타내고, Ktt시점의 콘트롤 포인트의 시간상의 이웃 인덱스의 집합을 나타낸다.
일 실시예에 따르면, 처리부(210)는 기준 위상에서 MVF가 0이 되도록 제1 MVF를 업데이트한다. 4D B-spline 보간(interpolation) 특성 상 기준 위상에서 MVF가 0이 되지 않을 수 있기 때문에, 개시된 일 실시예는 이를 보정하기 위한 두 번째 정규화 항목을 수학식 4와 같이 정의할 수 있다.
Figure pat00012
일 실시예에 따른 처리부(210)는 앞에서 정의한 데이터 항목(예를 들면, 수학식 2)과 두 개의 정규화 항목(예를 들면, 수학식 3 및 수학식 4)을 사용하여 최종 비용 함수(cost function)를 수학식 5 같이 정의하고 이를 최소화하는 움직임 모델 파라미터를 찾는다.
Figure pat00013
여기서
Figure pat00014
Figure pat00015
는 정규화 파라미터이다.
앞에서 정의한 비용 함수를 최소화하는 움직임 파라미터를 찾기 위하여 개시된 일 실시예는 가우스-뉴턴(Gauss-Newton) 방법을 사용 하였다.
일 실시예에 따르면, 처리부(210)는 보다 정확한 움직임 모델을 얻기 위해, 제1 MVF에 대한 추가 업데이트를 수행한다.
제1 MVF는 켤레 PAR 스택을 사용하여 추정하기 때문에 연속된 시간 흐름에 따른 움직임 관계를 정확하게 나타내지 못한다. 일 실시예에 따르면, 연속된 시간 흐름에 따른 움직임 관계를 보다 정확하게 나타내기 위해, 앞서 추정한 제1 MVF에 수학식 6과 같이 보정 항(refining term)을 추가함으로써 새로운 심장 움직임 모델을 정의한다.
Figure pat00016
수학식 6에서 β C(t)은 수학식 7과 같이 정의될 수 있다.
Figure pat00017
여기서 Φ는 콘트롤 포인트의 변위 벡터(displacement vector)의,
Figure pat00018
, 집합이고, β Cβ를 180도 주기로 반복시킨 것으로 콘트롤 포인트를 180도마다 재사용하여 MVF를 만들게 한다.
다음으로, 처리부(210)는 에너지 함수를 이용하여 제1 MVF의 추가 업데이트를 수행한다.
일 실시예에 따른 처리부(210)는 보정 항(Refining term)을 추정하기 위하여 정보 포텐셜(IP)을 사용한다. IP는 일 실시예에 따른 이미지 메트릭이다. IP는 Renyi's quadratic entropy에 Parzen's windowing 기법을 적용함으로써 유도 되고, 일반적인 Shannon's entropy처럼 영상 내에 존재하는 움직임 아티팩트를 정량화 할 수 있다. IP는 수학식 8과 같이 정의가 된다.
Figure pat00019
여기서
Figure pat00020
Figure pat00021
의 표준편차를 가지는 가우시안(Gaussian) 분포를 나타내고 N은 IMC의 전체 voxel 수이다. IP는 shannon's entropy에 비해 수식적으로 단순한 형태를 가지고, bin size나 interval 등의 파라미터를 정할 필요가 없기 때문에 최적화 과정에서 이를 다루기 쉽다.
앞에서 설명한 것과 마찬가지로, 4D FFD 모델은 자유도가 높기 때문에 파라미터를 추정하는 문제가 ill-posed이다. 일 실시예에 따르면, 이러한 문제를 해결하기 위해 처리부(210)는 정규화 항으로서 공간적으로 인접한 콘트롤 포인트 간의 차이가 커지지 않도록 수학식 9를 사용할 수 있다.
Figure pat00022
한편, 본 실시예에서는 현재 추정한 MVF가 제1 MVF에서 크게 달라지는 것을 막고, 큰 MVF 변화로 인한 형태(shape) 변화를 막는 정규화 항을 사용하였다. 수학식 10과 같은 정규화 항은 보정 항을 0으로 만드는 것으로 나타낼 수 있다.
Figure pat00023
움직임 모델 추정을 위한 에너지 함수는, IP에서 두 정규화 항을 빼는 형태로 정의될 수 있다.
Figure pat00024
처리부(210)는 앞서 정의한 에너지 함수를 최대화하도록 개선 MVF를 구하여 제1 MVF와 결합하여 제2 MVF를 계산한다.
도 7은 일 실시예에 따라 움직임 보상된 재구성 영상을 생성하는 과정을 나타낸 도면이다.
개시된 일 실시예는, 추정한 4D 움직임 모델로 움직임 보상 영상을 얻기 위해, WFBP(Weighted Filtered Back Projection) 방법을 기본으로 Schafer's method를 참고하여 움직임 보상을 구현하였다. WFBP 방법은 Fan-beam으로 획득된 프로젝션 데이터를 parallel-beam으로 리비닝(rebinning)하고, cone angle 별로 웨이트를 다르게 적용하여 백프로젝션하는 방법이다. Schafer's method는 어떤 대상체에 모션이 있고, 모션 벡터가 주어졌을 때, 해당 object를 복원하기 위해 백프로젝션 과정에서 모션 벡터를 반영(ray를 와핑)하여 백프로젝션하는 방법이다. 처리부(210)는 목표 시점에서 각 뷰의 시점으로의 MVF를 생성한 뒤, 해당 뷰를 역투영(back-projection)할 때 MVF로 와핑(warping)함으로써 움직임 보상을 수행한다. 즉, 처리부(210)는 영상의 재구성 과정에서, 사이노그램의 레이(ray)를 와핑하여 움직임 보상을 수행한다. 처리부(210)는 4D 움직임 모델을 얻기 위해, 도 7에서와 같이 각 뷰 마다 4D B-spline 보간을 수행할 수 있다.
다음으로 본 개시의 다른 실시예에 따라, 스탠다드 피치 나선형 스캔에 대한 3D 움직임 추정 및 보상 알고리즘을 설명한다.
본 실시예에 따르면, 스탠다드 피치 나선형 스캔 환경에서 심장 전체에 대해 움직임 아티팩트가 저감된 3D 영상을 얻는다. 먼저 획득한 사이노그램을 사용하여 연속된 PAR 영상을 만든다. 그 후, 중간 주파수를 추출한 뒤 각 PAR 영상 쌍의 에러를 최소화하는 것으로 초기 모션 추정을 수행한다. 초기 MVF인 제1 MVF를 사용하여 모든 PAR영상들을 가상의 기준 시점으로 와핑함으로써, 180도 차이 나는 영상들끼리 동일한 가상의 위상에 모이도록 한다. 그 후, 생성된 PAR 스택에 대해서 로우 피치 나선형 스캔에 대한 실시예에서 설명한 IP 최대화를 수행하여 보정 항을 추정한 뒤, 추정한 MVF를 사용하여 움직임 보상 영상 재구성을 수행한다.
도 8는 일 실시예에 따른 PAR 시퀀스를 나타낸 도면이다.
일 실시예에 다르면, 처리부(210)는 움직임 추정을 위하여 짧은 스캔보다 작은 스캔 구간의 프로젝션 데이터를 사용하여 도 10과 같이 PAR sequence를 생성한다. 데이터 획득 조건이 스탠다드 피치 나선형 스캔(standard pitch helical scan)이기 때문에 z축으로 모두 커버하는 목표 위상이라는 것이 존재하지 못하고, 하나의 위상에 대해서는 하나의 PAR 영상만이 존재한다. 일 실시예에 따르면, 처리부(210)는 서로 마주보는 각도 구간에 대응하는 PAR 영상의 쌍으로부터 MVF를 산출할 수 있다. 예를 들면, 180도 차이 나는 PAR 영상들은, 겹치는 영역에 대응하여, 동일한 패턴의 제한된 뷰 각도 아티팩트(limited view angle artifacts)를 가지기 때문에, 움직임 추정에 사용할 수 있다.
다음으로, 초기 모션 추정에 대해 설명한다. 일 실시예에 따르면, 초기 모션 모델(initial motion model)을 추정하기 위해서, 시간 흐름에 따른 심장의 움직임을 B-spline 기반 4D freeform deformation (FFD) 모델에 기반하여 나타낸다. 변환 함수는 수학식 12와 같다.
Figure pat00025
여기서 ai(z)는 z 슬라이스와 교차하는 소스 위치에 대응하는 위상에서, z 슬라이스 위치의 MVF를 0으로 만드는 가중치 함수(weight function)이다. 이는 z 슬라이스마다 기준 위상이 다르게 정의되도록 하며, 각 z 슬라이스 입장에서는 마치 켤레 PAR 영상을 사용하여 움직임을 추정하고 자신의 시간적 위치를 기준으로 하여 보상을 하는 것과 같은 효과를 가지도록 만든다.
움직임 추정과 관련하여 앞서 설명한 바와 같이 켤레 PAR 영상 간 매칭 정확도를 높이기 위해 BPF를 적용한다. 그 후 각 켤레 PAR 영상 쌍 간에 SSD가 작아지도록 움직임 모델 파라미터를 추정한다.
Figure pat00026
여기서
Figure pat00027
는 180도 동안의 PAR 영상 개수를 나타낸다. 또한 움직임 모델 파라미터를 추정하는 것은 ill-posed 문제이기 때문에 수학식 14와 같이, 시간 공간적으로 인접한 움직임 모델 파라미터 간의 값의 차이가 지나치게 커지는 것을 막는 정규화를 사용 하였다.
Figure pat00028
위의 두 수식에 대한 최적화 과정은 Gauss-Newton 방법과 최적화 변환(optimization transfer) 방법에 기반하여 앞서 설명한 바와 같이 동일하게 진행된다.
다음으로 초기 모션 추정 결과에 기반하여 IP 최대화(IP maximization)를 수행하기 앞서, PAR 영상을 스택 함으로써 처리 효율을 높일 수 있다. 본 실시예에 따르면, 앞서 동일한 위상 별로 모아서 처리 하였던 것과는 달리, 180 * n + 의 각도를 중심 뷰 각도로 가지는 PAR 영상들에 대해 제1 MVF로 와핑하여 스택한다. 스탠다드 피치 나선형 스캔 환경에서는 하나의 사이클 만을 활용하기 때문에 동일한 위상의 영상을 모을 수 없고, 그 대신 제1 MVF의 정보를 활용하여 180도 차이 나는 영상들을 와핑함으로써 가상으로 동일한 위상으로 만들어 스택을 한다.
스탠다드 피치 나선형 스캔의 실시예에서도, 앞서 설명한 바와 같이, 초기 모션 추정의 결과를 개선하기 위하여 수학식 15와 같이 보정 항(refining term)을 정의한다.
Figure pat00029
다음으로, 처리부(210)는 에너지 함수를 이용하여, 움직임 보상 영상의 영상 품질을 정량화할 수 있는 수학식 16과 같은 local IP에 기반하여 움직임 추정을 수행한다.
Figure pat00030
여기서, 합산 영상 IMC는 MVF를 PAR 스택에 적용하고 와핑하여 모두 더함으로써 생성한다. 이 때 최초로 적용되는 MVF는 제1MVF이고, 이후에는 반복(iteration)하면서 업데이트(개선)되는 MVF를 적용하여 합산 영상 IMC를 반복적으로 구한다. 또한, 합산 영상 IMC로부터 이미지 메트릭 H(Φ)를 반복적으로 산출하여, 이미지 메트릭 H(Φ)가 작아지도록 제1 MVF를 업데이트한다. 수학식 16에 따른 이미지 메트릭 H(Φ)은, 합산 영상 IMC의 히스토그램 분포에 기초하여 움직임 아티팩트를 정량적으로 나타낸 값이다. 최종 움직임 보상 영상은, 반복적으로 업데이트되어 생성된 최종 MVF인 제2 MVF를 로 데이터(프로젝션 데이터 또는 사이노그램)에 적용하여 획득된다.
4D B-spline FFD 모델은 ill-posed이기 때문에 공간적으로 인접한 움직임 모델 파라미터의 값이 비슷해지도록 수학식 17과 같은 정규화 항을 사용한다.
Figure pat00031
또한, 일 실시예에 따른 처리부(210)는 IP maximization을 사용하기 때문에, 형태 보존(shape preserving)으로 수학식 18과 같이 임의 시점의 이상적인 영상을 현재 MVF로 와핑하였을 때 초기 모션 보상 영상과 비슷해져야 한다는 정규화를 추가로 사용하였다.
Figure pat00032
IP와 두 정규화를 사용하여 수학식 19와 같은 에너지 함수를 정의할 수 있다.
Figure pat00033
IP와 첫 번째 정규화는 로우 피치 나선형 스캔에서와 동일한 방법으로 Gauss-Newton 방법으로 최적값을 구한다.
로우 피치 나선형 스캔에서 설명한 것과 동일하게, 본 실시예에서는 WFBP 재구성 알고리즘에 기반하여 Schafer's method를 사용함으로써 움직임 보상 재구성을 구현하였다. 단, 로우 피치 나선형 스캔 알고리즘에서는 합산 방식이었던 것에 반해, 스탠다드 피치 나선형 스캔 알고리즘에서는 움직임 모델이 다음과 같이 케스케이드(cascading) 방식으로 적용 되어야 한다.
케스케이드 방식에서는, 최종 영상의 좌표로부터 고려하여 추정을 시작해야 한다. 먼저 정확한 모션 추정을 거쳐 최종 영상이 얻어지기 때문에 수학식 20과 같이 개선(refining) 움직임 모델을 고려한다.
Figure pat00034
여기서 x MC는 최종 움직임 보상된 영상의 좌표를 나타낸다. 그 후, 획득된 데이터로부터 움직임 보상 PAR 스택을 생성하는 다음의 좌표 변환을 수학식 21과 같이 고려한다.
Figure pat00035
본 실시예에서 최종적으로 움직임 보상을 하기 위하여 생성하는 움직임 보상량은 수학식 22와 같다.
Figure pat00036
처리부(210)는 산출된 움직임 보상량을 이용하여 움직임 보상을 앞서 설명한 바와 같이 와핑 방식 또는 미리 계산된 MVF 세트를 이용한 bi-linear interpolation을 통해 진행한다.
본 개시에서는 X-ray CT를 이용하여 심장 영상 획득 시 발생하는 움직임에 의한 화질 저하를 보상하는 실시예들을 개시하였다. 본 개시는 심장에 대한 실시예를 중심으로 설명하였지만, 본원 특허의 권리범위는 대상체가 심장인 경우로 한정되지 않으며, 대상체는 다양한 신체 기관 또는 부분일 수 있다.
본 개시의 실시예들은, PAR 영상 기반 4D ME/MC 알고리즘에 기반하여, 새로운 움직임 추정 방법인 IP maximization 방법을 도입함으로써 개선된 화질의 영상을 얻을 수 있는 4D ME/MC 알고리즘을 제공하였다. IP maximization 방법은, 엔트로피 기반의 이미지 메트릭을 최적화하는 모션을 구해서 이를 영상 재구성에 적용하는 MAM optimization 방법과 달리, 영상 전 영역에 대하여 움직임 추정 및 보상이 가능하다는 장점과, ROI 추출을 위한 추가적인 처리를 하지 않아도 된다는 장점을 가진다. 또한 IP maximization 방법은, 수식적으로 Shannon entropy에 비해 IP가 단순하기 때문에 최적화 과정에서 다루기 더욱 쉽다는 장점을 가진다.
또한 본 개시의 실시예들은, 스탠다드 피치 나선형 스캔 환경에서 움직임을 추정 및 보상하는 알고리즘을 제안 하였다. 본 개시의 실시예들은, 필터링된 PAR 영상을 사용하여 180도 차이 나는 켤레 PAR 영상끼리 에러가 작아지도록 초기 움직임 추정을 하고, 그 결과에 기반하여 IP maximization함으로써 최종 움직임 추정 결과를 획득한다. 앞서 설명한 바와 같이, 본 개시의 실시예들에 따르면, 영상 전체 영역에 대해서 움직임을 추정하여 보상할 수 있고, 추가적 처리를 필요로 하지 않는다. 또한, 본 개시의 실시예들은, 단일 사이클의 데이터만을 사용하기 때문에 사이클 사이의 심장의 움직임이 맞지 않거나 사이클 간 동일 호흡상태 유지 등을 신경 쓸 필요가 없다. 개시된 실시예들은 기존에 존재하지 않던 접근 방법으로 심장 진단을 위한 영상획득에 새로운 장을 열 수 있을 것으로 기대된다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는 컴퓨터로 읽을 수 있는 기록매체의 형태로 구현될 수 있다. 상기 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 상기 명령어는 프로세서에 의해 실행되었을 때, 개시된 실시예들의 소정의 동작들을 수행할 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.

Claims (19)

  1. 제1 위상 구간에서 로 데이터(raw data)를 획득하고, 상기 제1 위상 구간 내의 서로 마주보는 2개의 위상 구간에서 각각 획득된 2개의 PAR(partial angle reconstruction) 영상을 포함하는 적어도 하나의 PAR 영상 쌍을 이용하여 제1 움직임 정보를 생성하고, 상기 제1 움직임 정보를 이용하여 상기 제1 위상 구간 내의 서로 다른 위상에서 획득된 복수의 PAR 영상을 합산하여 합산 영상을 생성하고, 상기 합산 영상으로부터 움직임 아티팩트를 나타내는 이미지 메트릭을 산출하였을 때, 상기 이미지 메트릭이 최소가 되도록, 상기 제1 움직임 정보를 업데이트하여, 제2 움직임 정보를 생성하고, 상기 제2 움직임 정보를 상기 로 데이터에 적용하여 재구성 영상을 생성하는 처리부를 포함하는 의료 영상 처리 장치.
  2. 제1항에 있어서,
    상기 적어도 하나의 PAR 영상 쌍 각각은, 180도의 위상 차를 갖는 2개의 PAR 영상을 포함하는, 의료 영상 처리 장치.
  3. 제1항에 있어서,
    상기 처리부는, 공간적으로 인접한 콘트롤 포인트 사이의 움직임 정보의 차이가 작아지도록 상기 제1 움직임 정보를 업데이트하는, 의료 영상 처리 장치.
  4. 제1항에 있어서,
    상기 처리부는, 기준 위상에서 움직임 정보가 영(0)이 되도록 상기 제1 움직임 정보를 업데이트하는, 의료 영상 처리 장치.
  5. 제1항에 있어서,
    상기 처리부는, 상기 재구성 영상을 생성할 때, 상기 제2 움직임 정보에 기초하여 상기 로 데이터의 레이(ray)를 와핑(warping)하는, 의료 영상 처리 장치.
  6. 제1항에 있어서,
    상기 제1 위상 구간은, 180도보다 큰 위상 구간인, 의료 영상 처리 장치.
  7. 제1항에 있어서,
    상기 서로 마주보는 2개의 위상 구간은 0보다 크고 180도보다 작은 위상 구간인, 의료 영상 처리 장치.
  8. 제1항에 있어서,
    상기 처리부는, 동일한 위상에 속한 복수의 PAR 영상을 소스가 프로젝션 하는 위치에 기초하여 합산하여 PAR 스택을 생성하고, 상기 제1 움직임 정보를 생성할 때, 상기 서로 마주보는 2개의 위상 구간의 PAR 스택 쌍을 이용하여 상기 제1 움직임 정보를 생성하는, 의료 영상 처리 장치.
  9. 제1항에 있어서,
    상기 처리부는, 상기 합산 영상을 생성할 때, 상기 서로 다른 위상에서 획득된 복수의 PAR 영상에 상기 제1 움직임 정보를 적용하여 움직임을 보상하고, 움직임 보상된 상기 복수의 PAR 영상을 합산하여 상기 합산 영상을 생성하는, 의료 영상 처리 장치.
  10. 제1 위상 구간에서 로 데이터(raw data)를 획득하는 단계;
    상기 제1 위상 구간 내의 서로 마주보는 2개의 위상 구간에서 각각 획득된 2개의 PAR(partial angle reconstruction) 영상을 포함하는 적어도 하나의 PAR 영상 쌍을 이용하여 제1 움직임 정보를 생성하는 단계;
    상기 제1 위상 구간 내의 서로 다른 위상에서 획득된 복수의 PAR 영상을 합산하여 합산 영상을 생성하고, 상기 합산 영상으로부터 움직임 아티팩트를 나타내는 이미지 메트릭(metric)을 산출하였을 때, 상기 이미지 메트릭이 최소가 되도록, 상기 제1 움직임 정보를 업데이트하여, 제2 움직임 정보를 생성하는 단계; 및
    상기 제2 움직임 정보를 상기 로 데이터에 적용하여 재구성 영상을 생성하는 단계를 포함하는 의료 영상 처리 방법.
  11. 제10항에 있어서,
    상기 적어도 하나의 PAR 영상 쌍 각각은, 180도의 위상 차를 갖는 2개의 PAR 영상을 포함하는, 의료 영상 처리 방법.
  12. 제10항에 있어서,
    공간적으로 인접한 콘트롤 포인트 사이의 움직임 정보의 차이가 작아지도록 상기 제1 움직임 정보를 업데이트하는 단계를 더 포함하는 의료 영상 처리 방법.
  13. 제10항에 있어서,
    기준 위상에서 움직임 정보가 영(0)이 되도록 상기 제1 움직임 정보를 업데이트하는 단계를 더 포함하는 의료 영상 처리 방법.
  14. 제10항에 있어서,
    상기 재구성 영상을 생성하는 단계는, 상기 제2 움직임 정보에 기초하여 상기 로 데이터의 레이(ray)를 와핑(warping)하는 단계를 포함하는, 의료 영상 처리 방법.
  15. 제10항에 있어서,
    상기 제1 위상 구간은, 180도보다 큰 위상 구간인, 의료 영상 처리 방법.
  16. 제10항에 있어서,
    상기 서로 마주보는 2개의 위상 구간은 0보다 크고 180도보다 작은 위상 구간인, 의료 영상 처리 방법.
  17. 제10항에 있어서,
    상기 의료 영상 처리 방법은, 동일한 위상에 속한 복수의 PAR 영상을 소스가 프로젝션 하는 위치에 기초하여 합산하여 PAR 스택을 생성하는 단계를 더 포함하고,
    상기 제1 움직임 정보를 생성하는 단계는, 상기 서로 마주보는 2개의 위상 구간의 PAR 스택 쌍을 이용하여 상기 제1 움직임 정보를 생성하는 단계를 포함하는, 의료 영상 처리 방법.
  18. 제10항에 있어서,
    상기 합산 영상을 생성할 때, 상기 서로 다른 위상에서 획득된 복수의 PAR 영상에 상기 제1 움직임 정보를 적용하여 움직임을 보상하고, 움직임 보상된 상기 복수의 PAR 영상을 합산하여 상기 합산 영상을 생성하는, 의료 영상 처리 방법.
  19. 프로세서에 의해 판독되어 실행되었을 때, 의료 영상 처리 방법을 수행하는 컴퓨터 프로그램 코드들을 저장하는 컴퓨터 판독가능 기록매체에 있어서, 상기 의료 영상 처리 방법은,
    제1 위상 구간에서 로 데이터(raw data)를 획득하는 단계;
    상기 제1 위상 구간 내의 서로 마주보는 2개의 위상 구간에서 각각 획득된 2개의 PAR(partial angle reconstruction) 영상을 포함하는 적어도 하나의 PAR 영상 쌍을 이용하여 제1 움직임 정보를 생성하는 단계;
    상기 제1 위상 구간 내의 서로 다른 위상에서 획득된 복수의 PAR 영상을 합산하여 합산 영상을 생성하고, 상기 합산 영상으로부터 움직임 아티팩트를 나타내는 이미지 메트릭을 산출하였을 때, 상기 이미지 메트릭이 최소가 되도록, 상기 제1 움직임 정보를 업데이트하여, 제2 움직임 정보를 생성하는 단계; 및
    상기 제2 움직임 정보를 상기 로 데이터에 적용하여 재구성 영상을 생성하는 단계를 포함하는, 컴퓨터 판독가능 기록매체.
KR1020160174768A 2016-06-30 2016-12-20 의료 영상 처리 장치 및 방법 KR20180003400A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/640,344 US10565744B2 (en) 2016-06-30 2017-06-30 Method and apparatus for processing a medical image to reduce motion artifacts

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160082978 2016-06-30
KR1020160082978 2016-06-30

Publications (1)

Publication Number Publication Date
KR20180003400A true KR20180003400A (ko) 2018-01-09

Family

ID=61000742

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160174768A KR20180003400A (ko) 2016-06-30 2016-12-20 의료 영상 처리 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20180003400A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853742A (zh) * 2019-11-12 2020-02-28 上海联影医疗科技有限公司 一种图像重建方法、系统、装置及存储介质
US11763498B2 (en) 2019-11-12 2023-09-19 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for image reconstruction

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853742A (zh) * 2019-11-12 2020-02-28 上海联影医疗科技有限公司 一种图像重建方法、系统、装置及存储介质
US11763498B2 (en) 2019-11-12 2023-09-19 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for image reconstruction

Similar Documents

Publication Publication Date Title
US10748293B2 (en) Tomography apparatus and method for reconstructing tomography image thereof
US9576391B2 (en) Tomography apparatus and method of reconstructing a tomography image by the tomography apparatus
US10565744B2 (en) Method and apparatus for processing a medical image to reduce motion artifacts
EP3107457B1 (en) Tomography apparatus and method of reconstructing a tomography image by the tomography apparatus
RU2655091C2 (ru) Томографический аппарат и способ реконструкции его томографического изображения
KR101725891B1 (ko) 단층 영상 장치 및 그에 따른 단층 영상 복원 방법
EP3143935B1 (en) Tomography apparatus and method of reconstructing tomography images
JP4855931B2 (ja) 動き補償再構成技法
CN110751702B (zh) 图像重建方法、系统、装置及存储介质
Isola et al. Fully automatic nonrigid registration‐based local motion estimation for motion‐corrected iterative cardiac CT reconstruction
CN103390284B (zh) 在扩展的测量场中的ct图像重建
CN110298447B (zh) 用于处理机器学习方法的参数的方法以及重建方法
CN102013089A (zh) 用于噪声减少的迭代ct图像滤波器
CN103027705B (zh) 产生运动补偿的ct 图像数据组的方法和系统
EP3084726B1 (en) Moving structure motion compensation in imaging
JP2016152916A (ja) X線コンピュータ断層撮像装置及び医用画像処理装置
CN106462987B (zh) 基于投影数据集的用于体积的改进图像重构
AU2019271915A1 (en) Method and system for motion correction in CT imaging
Rohkohl et al. Interventional 4D motion estimation and reconstruction of cardiac vasculature without motion periodicity assumption
Li et al. 3D coronary artery reconstruction by 2D motion compensation based on mutual information
Van Stevendaal et al. A motion‐compensated scheme for helical cone‐beam reconstruction in cardiac CT angiography
Kim et al. Cardiac motion correction for helical CT scan with an ordinary pitch
CN109493393A (zh) 减少计算机断层扫描图像数据中的多个移动伪像
Kim et al. Cardiac image reconstruction via nonlinear motion correction based on partial angle reconstructed images
KR20180003400A (ko) 의료 영상 처리 장치 및 방법