PDF문서2. 07_행성 탐사선의 착륙지 근접 비행 영상처리기술 동향.pdf

닫기

background image

항공우주산업기술동향 16권 1호 (2018) pp. 90~100

http://library.kari.re.kr

에서 보실 수 있습니다.

기술동향

행성  탐사선의  착륙지  근접  비행  영상처리기술  동향

이훈희*

1)

, 류동영*, 주광혁*

Trend  of  Image  Processing  Technology  for  Entry  and 

Descent  of  Planetary  Spacecraft

Lee, Hoon-hee*, Rew, Dong-Young*, Ju, Gwang-Hyeok*

ABSTRACT

Many  countries  are  sending  probes  to  planets,  moons,  asteroids  and  comets.  Each  probe  has 

various challenges such as flying near the surface as well as sample analysis or sample return after 
landing. Especially, there are bad conditions such as shortage of information about landing place and 
communication  delay  between  the  probe  and  a  ground  control  station  on  earth  in  approach  and 
descent  flight,  and  landing  phases.  In  this  situation,  the  probe  uses  data  collected  from  various 
sensors to lead to a quick, accurate and safe landing. In this paper, we focus on optical cameras, 
which  are  increasingly  utilized  in  sensors,  and  we  will  look  at  practical  applications  and  recent 
technological research examples about image processing and related systems.

초  록

세계 각국은 행성, 달, 소행성, 혜성 등에 탐사선을 보내서 근접 탐사를 비롯한 착륙 후 환경 

조사, 샘플 채취 후 귀환 등 다양한 도전을 진행하고 있다. 특히 착륙 직전의 비행이나 착륙 과
정에서 착륙지에 대한 사전 정보 부족과 지구 관제국과의 교신 지연과 같은 악조건이 존재한다. 
이러한 상황에서 신속하고 정확하며 안전한 착륙으로 유도하기 위하여 다양한 센서로부터 수집
되는 자료를 이용한다. 본 논문에서는 센서 중에 활용도가 높아지고 있는 광학카메라를 중심으
로 영상의 처리 과정, 기동 상의 활용 과정에 대해서 실제 적용 사례와 최근 기술 연구 사례를 
살펴보기로 한다.

Key  Words    :    Planetary Exploration(행성  탐사), Image Processing(영상 처리),  Approach Descent 

and  Landing(근접  하강  착륙),  Optical  Camera(광학  카메라),  Terrain  Relative 
Navigation(지형상대항법), Hazard Relative Navigation(위험상대항법)

* 이훈희, 류동영, 주광혁, 한국항공우주연구원, 기술연구본부 미래융합연구부

lhh@kari.re.kr, dyrew@kari.re.kr, ghju@kari.re.kr   


background image

이훈희 외 / 항공우주산업기술동향 16/1 (2018) pp. 90~100

91

1. 서 론

지구를 떠나 행성으로  향하는 행성 착륙선1)

은  일반적으로  <그림  1,  2>와  같이  행성간  순

항(Cruise),  행성으로의  접근(Approach),  진입

(Entry), 착륙(Landing) 과정을 진행한다. 

그림  1  NASA  인사이트(InSight)  화성  탐사선 

순항(Cruise)  및  접근(Approach)[1]

그림  2  NASA  인사이트(InSight)  화성  탐사선 

진입(Entry)  및  착륙(Landing)[1]

1) 편의상 논문에서 혜성, 행성의 달 등에 착륙하는 탐사선을 포함함.

특히  진입  후부터  착륙까지의  과정을  미국 

NASA는 EDL(Entry, Descent and landing)로 정

의[2]하여 이 과정을 성공적으로 수행하기 위한 

기술  로드맵을  별도로  계획하고  관리하고  있

다. 본 논문의 범위는 순항, 접근 구간을 제외

한 EDL 비행 과정으로 한정한다. 이 과정에서

는 하강속도로 인한 지구안테나의 실시간 추적

이  효과가  없고  전지구위성항법시스템(GNSS  : 

Global  Navigation  Satellite  System)을  이용할 

수  없으며  일반적으로  착륙지에  대한  근접  정

보가  없다.  이러한  상황에서  기본적으로  탑재

된  관성항법시스템(INS  :  Inertial  Navigation 

System)의 누적되는 오차를 보상, 위험물체 구

분  등을  위한  항법정보  제공용  장치가  요구된

다. 

한편  착륙지  근방의  경사도,  큰  암석,  돌의 

분포와  위치  정보는  사전에  주어지는  사례가 

거의  없다.  지구의  달이나  화성의  경우  행성 

탐사용  궤도선이  사전에  운용되어  원거리에서 

얻은 측정 정보를 이용할 수 있으나 정밀한 착

륙을 위해서 이러한 정보조차도 해상도가 낮거

나  데이터가  촘촘하지  않아  극히  제한된  영역

에나  적용할  수  있다.  이를  극복하기  위하여 

착륙선에  장착한  레이더,  레이저,  라이다  등의 

능동센서 및 광학카메라와 갖는 수동센서 영상

(Image)을  다양하게  사용하고  있으나  본  논문

은 주로 수동센서인 광학카메라를 통해 촬영한 

2차원  영상  중심의  항법(OPNAV  :  optical 

navigation)을 위한 사례에 대해서 설명한다. 

이 광학 영상을 처리하여 얻을 수 있는 정보

의 종류는 시선 벡터, 영상 패치의 위치 및 속

도, 영상 패치간 거리 및 속도, 고유한 영상 특

성을  나타내는  랜드마크(Landmark)의  위치  및 

속도, 랜드마크간 거리 및 속도, 지평선과 랜드

마크  사이의  각도,  행성  중심점,  행성  회전축 

등이 있다. 행성 착륙선의 상대 위치, 속도 정

확도 향상을 위한 영상 기반의 지형 상대 항법

(TRN  :  Terrain  Relative  Navigation)[3]은  최근 

행성탐사의 기본 필수 기술이 되고 있다.


background image

92

이훈희 외 / 항공우주산업기술동향 16/1 (2018) pp. 90~100

용 


기본
요소

초기 입력 

조건

출력값

장점

단점

연구
참조









크 레 이

크레이터  데
이터베이스

절대  위
치,  자

태양  고도,  카메라 
자세,  고도의  변화
에  둔감.  감지된  크
레이터  증가시  성능
증가

적합한  태양  고도  이상  조
건,  크레이터가  다수  분포
된 지역 필요. 픽셀에서 크
레이터  형상  추출  시간  부
담.

NEAR[16]
ATON[22]

영 

지역 

음영  데이터
베이스

절 

대 

위 치 , 
자세

크레이터가  희박한 
지역,  태양  고도가 
낮은 지역 가능

음영  경계선을  찾기  위한 
기준값을  찾는데  시간  소
모,  음영  경계선이  시간에 
따라 불규칙함

CDA[27]
BSM[30]

F A S T , 
SIFT,
SURF

특징정보  데
이터베이스

절대  위
치,  자

태양  고도,  카메라 
자세,  고도의  변화
에  둔감,  단순한  지
형에 적합

실제  적용  시  태양  고도가 
낮고  카메라의  자세가  크
게  변동되면  성능  급격  저

SIFT 
Landmark
[26]

인 공 신

망 

추 출 요

인 공 신 경 망 
계수값 

절 

대 

위 치 , 
자세

태양  고도,  카메라 
자세,  고도의  변화
에 거의 무관함.

태양  고도,  카메라  자세, 
고도의  변화에  따른  동일 
지역의  변화가  클  경우  인
공신경망 계수량 증가

ELM[22]
LunarNet[24]


턴 ,

영상
패치
(raw),

가공
패치
(Maplet
[9])

3차원 

영상 

지도 

제작, 

카메라  자세 
및 고도 정보

절 

대 

위치

태양  고도,  카메라 
자세,  고도의  변화
에  거의  무관함.  처
음  근접  탐사하는 
지역에 적합

카메라  자세  및  고도  정보 
제공용  센서  필요,  실시간 
영상  렌더링을  위한  연산 
부담

ROSETTA[7]
N E A R 1 6 ] , 
MUSES-C[7]



3차원 

영상 

지도

절 

대 

위치

태양  고도,  카메라 
자세,  고도의  변화
에  거의  무관함.  실
시간  렌더링이  불필

카메라  자세  및  고도  정보 
제공용  센서  필요,  궤도선
에  의한  영상지도가  이미 
존재,  초기  탑재하는  데이
터양 증가

LVS[17],
DIMES[11], 
DAWN[10],
NFT[31]

2차원 

영상 

지도

절 

대 

평면  위

Raytheon  순
항 미 사 일 
DSMACS







정2)



영상
패치
(raw)

카메라  고도, 
자세 추정치

평균  수
평 

도,  상
대 위치

지형의  종류나  환경 
변화에 거의 무관함.

적합한  태양  고도  이상  조
건 필요함. 연속 영상 간의 
중복 영역 처리 로드

LVS[17],
MUSE S-C [7] 
외 대부분 해

고속  연속영
상  획득,  카
메라 고도

평균  속
도  ,  상
대 위 치
및  자세 
변화율

고속  영상사이의  비
교로  자세  추정치가 
필요 없음. 

적합한  태양  고도  이상  조
건 필요함. 연속 영상 간의 
중복 영역 처리 로드.
연속  영상  사이  시간이  커
지면 성능 저하

SFM[25]

H a r r i s 
corner

고속  연속영
상  획득,  카
메라 고도

평균  속
도,  상
대 위 치 
및  자세 
변화율

고속  영상사이의  비
교로  자세  추정치가 
필요 없음. 

적합한  태양  고도  이상  조
건 필요함. 연속 영상 간의 
중복 영역 처리 로드. 수많
은  Harris  corner  중  유효 
개수 선택 시간 소요

DIMES[11],
V i s N A V [ 1 8 ] 









할 

영 역 의

(Edge)

특별한  초기 
조건 없음

위험 
지역
위치

영상처리시  영상의 
픽셀값만을  고려하
면 됨.

접한한  태양  고도  이상  조
건 필요함. 고도가 너무 작
거나  크면  위험지역이  줄
어드는 현상

Chang’e-3
[5]

표  1.  EDL  과정에서  항법용  광학카메라의  대표적인  영상처리  방식별  특징

2) 상대위치 및 속도추정은 절대위치추정만큼이나 적용빈도가 높음. 2 가지 용도로 모두 적용되는 사례도 많으나 연구참조에는 주용도 위주로 기입


background image

이훈희 외 / 항공우주산업기술동향 16/1 (2018) pp. 90~100

93

2. 항법용 광학카메라 적용 사례

착륙선에  장착된  광학카메라를  이용하여  항

법에 적용한 시초는 1966년부터 발사한 서베이

어(Surveyor) 달착륙선으로 달의 지질학적 조사 

및  아폴로  유인달탐사를  위한  환경  조사를  성

공적으로 수행하였다. 비록 지구로 데이터를 수

신한 후 오프라인으로 처리하기는 하였으나 장

착된  카메라를  이용하여  착륙  전후에  촬영한 

달표면  영상을  통해  위치를  추정하거나  별과 

행성  영상을  통해  자세를  계산한  바  있다.[4] 

이 절에서는 성공한 착륙선이 사용한 영상처리

결과 활용의 대표적인 사례에 관해서 설명한다.

2.1  창어  3호(Chang’e-3)

창어  3호는  중국의  CNSA(China  National 

Space  Administration)가  개발한  달착륙선으로 

2013년에 발사되었으며 12월 14일에 달의 임브

리엄(Imbrium) 바다 북쪽의 작은 크레이터의 가

장자리(rim)에  착륙하였다.  하강  10분  전에 

CNSA에서 착륙 목표 지점을 선정하고 이 정보

를 원격으로 창어에 전송하였다.  

그림  4  저정밀  위험감지용  영상처리,  인용[5]

하강  시  지상으로부터  실시간  원격  통제가 

불가한  상황이므로  탑재된  유도항법제어  장치

가 자율비행을 수행하였다. 즉, 달 상공 15km에

서 목표 지점의 3m 높이까지 계획된 EDL 비행 

후 자유 낙하하였다. 

이 착륙선은 자율적 위험 감지 및 회피 기술

(HDA: Hazard Detection and Avoidance)을 적용

하여 위험물의 위치를 기준으로 상대항법(HRN: 

Hazard  Relative  Navigation)을  실행한  첫  사례

였으며 착륙 오차를 89m3) 까지 줄였다.[5] 하강 

약  5분  전에  항법용  광학  카메라가  켜지고  초

당  12장의  영상을  촬영하여  착륙  과정을  감시

하였다.  하강  후  약  8분  후에  근접  하강  비행

(2.4km ~ 100m)을 하면서 광학 흑백 영상을 실

시간으로  처리하여  넓은  영역  지역에  대한  위

험물 사전 회피를 실행하였다. 

 <그림  3>과  같이  창어는  하강  비행  과정에

서 얻은 전방의 영상(a)에 대해서 히스토그램을 

분석하고  k-means  클러스터링  방법[6]을  이용

하여  영상  분할(이진화)  기준  값을  찾고  음영 

지역의  차이를  통해  위험물체에  대한  인식을 

하고(b) 위험 물체에 대한 에지(edge)를 찾아(c) 

위험  물체  인접  그룹을  울타리처럼  연결한

다.(d)

100m 고도에 이르기 직전에는 수평 속도 및 

자세 변화를 줄이기 위해 고속 영상 처리가 실

행되었다.

그림  5  창어-3  유도항법시스템  기능연결도[5]

3) 현재까지 가장 낮은 오차임. cf. 달착륙 아폴로 11호는 6.6km 임.


background image

94

이훈희 외 / 항공우주산업기술동향 16/1 (2018) pp. 90~100

2.2  로제타(ROSETTA)

로제타는 유럽의 ESA가 제작한 혜성탐사선으

로 2004년에 발사되어 2014년에 로제타에 탑재

된  착륙선인  필레(PHILAE)가  착륙에  성공하였

다.  로제타에  부착된  2  개의  광학  카메라

(NAVCAM)는 1024 x  1024 해상도를 갖고 혜성 

표면의  랜드마크(Landmark)  방향을  얻기  위해 

사용되었다.[7] 

혜성의  불규칙한  표면과  관측  환경의  높은 

변동성으로  인하여  2.3  절의  DIMES와  같이  영

상의 패치를 직접적으로 비교하여 추적하지 않

고 영상을 지구로 전송하여 랜드마크를 기반의 

복합 모델(Maplet[8])을 제작한 후 이를 계속 갱

신하면서 현재 영상의 랜드마크를 찾는데 사용

하였다. 랜드마크을 식별하여 혜성 표면을 따라 

상대항법을 하여 필레 착륙선을 분리하는데 사

용하였다.  지상에서  대부분의  영상처리를  담당

하였는데 이러한 방식은 로제타에 부담을 덜어 

주면서  정확도  높은  영상  처리를  가능하게  하

였다. 데이터 전송 한계로 인하여 1 시간 주기

의  영상  전송이  가능하였기  때문에  기존의  연

속적인 영상을 기반으로 한 영상처리기법을 사

용할  수  없었다.  예를  들어,  소행성의  전체  면

을  촬영하고  1  시간  후에  29°만큼  자체  회전

하여 완전히 다른 형상으로 보일 수 있다. 

그림  6  착륙선의  3차원  궤적  [9]

또한 과학용 카메라(OSIRIS)의 고해상도 영상

을 이용하여 <그림 5, 6>과 같이 역추진에 실패

한  착륙선이  튕기면서  남긴  자국을  촬영하여 

궤적을 찾기 위해 사용한 바 있다. 

그림  7  착륙선의  착지  및  반동  자국[9]

2.3  DAWN

왜행성 베스타(Vesta)와 세레스(Ceres)를 탐사

하기  위한  목적으로  2007년도에  발사한  NASA 

의 DAWN은 2011년에 베스타 궤도에 진입하였

다.  DAWN은  왜행성  착륙  임무가  없어  EDL로 

보기는 어려우나 영상 데이터를 종류별로 구분

하여 사용한 특징이 있다. 이때 DAWN에 장착

된  1024  x  1024  해상도의  광학카메라는  궤도 

결정을 위해 주로 사용되었는데 미지의 베스타

의 극(pole), 모양, 중력 정보를 얻기 위한 용도

로도  사용되어  로제타와  유사하게  이  정보를 

기반으로  DAWN의  궤적을  재구성하였다.  베스

타와의  접근  거리에  따라  영상  데이터  형태를 

베스타 전체, 물체 가장자리, 랜드마크 조각 중

심점  순으로  변경하여  사용하였다.[10]  실시간

으로  수집되는  카메라  영상을  지형수치모델과 

비교하기 위하여 이 모델 생성 시 아래와 같은 

가용 범위를 고려하여 제작하였다.

⦁ 

방사(emission) 각도 : 0°~ 60°

⦁ 

비교 픽셀간 해상도 범위 : 3 ~ 1/3 배

⦁ 

비교 영상간 중첩 부분 비율 : 25% 이상


background image

이훈희 외 / 항공우주산업기술동향 16/1 (2018) pp. 90~100

95

2.4  MER(Mars  Exploration  Rover)

NASA의  2개의  로버를  탑재한  화성착륙선 

MER은  2003년에  발사되어  2004년에  착륙하여 

현재까지도  로버의  탐사활동을  진행하고  있다. 

DIMES(Descent 

Image 

Motion 

Estimation 

Subsystem) 시스템[11, 12]은  주로  하강  비행에

서 화성 표면에 대한 상대 수평 속도를 얻어내

기 위해 사용되었다. 수직 속도의 경우 장착된 

레이더를 이용하여 2400m 상공 이내에 99% 정

도의  정확도로  시간에  따른  수직  고도  정보를 

얻을 수 있었다. <그림 7>은 DIMES의 영상처리 

알고리즘의 순서도이다. 알고리즘은 기본적으로 

자세와 고도 정보를 요구하고 있다. 이 정보를 

이용하여  영상의  기울기나  스케일  차이  등을 

교정하여 영상간의 비교를 한다. 영상 비교 단

위인  특징지역  혹은  특징템플릿은  Harris 

interest  operator[12]  를  이용하여  최적  후보를 

선택하였고  영상비교는  상관도  값(Moravec’s 

pseudo-normalized correlator[13])을 이용하였다.

하강비행시  2개의  고도  구간(2000m~1700m, 

1700m~1400m)을 나누어 특징  템플릿을 추적을 

하여 속도를 추정하였다. 

그림  8  DIMES의  영상처리과정  및  결과[14]

MER의 영상카메라 기반 항법 소프트웨어 및 

하드웨어의 기술 실증에 이어서 큐리오시티 로

버를  탑재하여  2011년에  발사된  MSL(Mars 

Science Laboratory) 착륙선은 예산의 제약으로 

인하여  MER의  DIMES를  큰  변경  없이  사용하

였다.

2.5  하야부사(Hayabusa/MUSES-C)

그림  9  하야부사  자율  착륙  과정[15]

하야부사는  일본의  ISAS(Institute  of  Space 

and  Astronautical  Science)가  개발하여  2003년

도에  발사된  이토카와(Itokawa)  소행성  탐사선

으로 2005년에 도착하여 천체 샘플 채취 및 최

장거리  비행  후  지구로  귀환하였다.  소행성은 

일반적으로  매우  작은  중력을  형성하고  있어 

EDL 과정을 랑데부(Rendezvous) 과정으로도 볼 

수도 있다. <그림 8>은 하야부사가 소행성과 20 

km  거리에서  하강  비행하여  착륙하는  과정을 

나타내고 있다. 

1km 상공까지 카메라의 시야에 소행성의 전

체  모양이  잡혀  <표  1>의  소행성  중심추적  모

드를 통해 추적을 유지하며 하강한다. 이후 영

상  내에  소행성  모양이  완전히  채워지기  때문

에 이때부터는 수직 속도만 제어한다. 

100m 상공에 이르면 정확도 높은 착륙을 위

하여 인공적인 지표면 표적(전방향 반사물체)을 

착륙지 근처에 낙하시키고 탑재하고 있던 플래

시를  점멸하여  이때  촬영한  영상을  인공  표적 

상대 항법에 사용하였다. 플래시라는 장치가 탐

사선의 무게를 증가시켰지만, 영상 내의 특징점


background image

96

이훈희 외 / 항공우주산업기술동향 16/1 (2018) pp. 90~100

을 찾기 위한 계산 부담과 성능의 저하를 현저

하게  줄인  사례이다.  2.4  절의  MER과는  달리 

인공표적을  이용하여  최종  착륙  전의  수평  속

도를 감소시켰다.

2.6  니어  슈메이커(NEAR  Shoemaker)

NASA의  니어는  1996년도에  발사된  에로스

(Eros) 소행성 탐사선으로 2001년도에 성공적으

로 착륙하였다. 소행성은 표면 대부분이 크레이

터로 이루어져 있어 크레이터의 중심점을 랜드

마크로 설정하였다. 항법용 카메라의 영상을 처

리하여 위치와 형상을 알고 있는 3개의 크레이

터(Crater)를 감지한 후 궤도 결정, 행성의 회전

축 계산 등에 활용하였다. 이러한 랜드마크 기

반의  위치  인식을  위한  소프트웨어는  이미 

Mariner 9, Viking 1-2, Voyager 1-2, Galileo 프

로젝트  이후로  15년  동안  구현되어  있는  상태

에서 실제로 운영된 첫 사례라고 한다.[16] 

<그림  9>는  니어의  궤도  결정  혹은  기동을 

위해  영상처리결과인  현재  랜드마크를  비교할 

3 차원 랜드마크 수치 지도라고 할 수 있다.

그림  10  에로스  소행성  표면  랜드마크  표시

[16]

3. 개발 중인 착륙선 영상시스템

3.1  미국  NASA  –  LVS  시스템

그림  11  LVS  저정밀  정합  모드[17]

NASA  JPL은  최근  LVS  (Lander  Vision 

System)[17]라는  행성  착륙선용  영상처리  시스

템을  개발하고  있다.  이  시스템은  Mars  2020 

임무의 EDL (Entry, Descent and Landing) 시스

템에 적용될 예정이다. LVS부터 추정된 탐사선

의  위치는  안전한  착륙지를  선택하기  위한  용

도로 사용된다. LVS 내에 구성되는 과학카메라

는 1024 x 1024 해상도에 5Hz 로 촬영하여 1Hz 

로  처리한다.  하강  비행  시  영상  내  픽셀간의 

랜드마크  정합  결과와  3  차원  지도  상의  위치

를 융합 수행한다. 저정밀 랜드마크 정합 시 위

치 오차를 3 km 까지 줄이고 고정밀 랜드마크 

영상처리

모드

기능  설명

소행성 
중심추적

특정  기준값  이상의  밝기를  갖는  픽셀

을  묶은  후  소행성의  중심  위치와  각  그

룹의  전체  픽셀  수가  계산함. 

인 공 표 적
추적

플래시의  점멸  사이의  순간  영상을  사

용함.  생성된  그룹의  영역  크기가  점멸  지

역에  적은  수의  픽셀로  나타나므로  정교

하게  마커를  추적할  수  있음.

고정된 
윈도우
추적
(상관도)

마커를  인지하지  못하였을  때  사용함. 

연속되는  영상  사이의  상관성을  이용하여 

표면에  대한  상대  속도  계산.

자동 
윈도우 
추적

영상에서  가장자리(edge)를  추출하고 

가장자리  밀도가  높은  지역들을  특징

(feature)  지형으로서  선택하고  추적을  위

한  윈도우를  이  지역  주위로  설정함. 

표  1.  항법카메라  영상처리  모드별  기능[15]


background image

이훈희 외 / 항공우주산업기술동향 16/1 (2018) pp. 90~100

97

정합시  40  m  까지  줄이도록  설계되었다.  랜드

마크  접합과  상태  예측까지  10초  이내에  완료

하도록 설계하였다. 

3700m  이하에서  저정밀  랜드마크  정합모드

를 실행하여 3개의 영상에 대해서 5 개의 랜드

마크를  처리하고  이  랜드마크는  위치  보정에 

사용된다. 이때 위치 오차를 200m까지 줄인다. 

고정밀 랜드마크 정합 모드는 고도 2000m 까지 

실행되며  각  영상에  대해  랜드마크  정합을  수

행하여 오차를 60 m 이하로 줄인다.

LVS 내 랜드마크 정합 및 상태 예측 알고리

즘은 2.4 절의 DIMES와 같이 지형 상대 항법에

서  전형적으로  사용하는  방법과  같지만  연산 

처리  성능이  증가하고  한번에  고속처리할  수 

있는 랜드마크 수가 증가하였다. 

3.2  유럽  ESA/EADS  -  VisNAV

2001  년부터  고안한  VisNAV  (Vision  based 

Navigation)[18]  시스템은  ESA/EADS  가  NPAL 

(Navigation  for  Planetary  Approach  and 

Landing)  프로젝트를  통해  개발되어  2012년부터 

우주실증이 진행중이다. 광학카메라는 10비트 픽

셀 분해능에 메가급 영상을 초당 20개를 처리할 

수 있으며 200개의 특징점을 한번 추적할 수 있

는 우수한 성능을 가지고 있다. 또한 이 시스템

을 랑데부와 도킹(HARVD[19]) 프로젝트, 행성간 

원거리 항법(MSR[20])에 확장 적용하기  위한  연

구가 진행되고 있다. 

그림  12  VisNAV  영상처리용 

FPGA  내부  구조[18]

3.3  독일  DLR-ATON

앞서  언급된  2004년에  발사된  로제타의  필레 

착륙선과, 2014년에 발사되어 현재 비행중인 하

야부사 2호의 마스코트 착륙선(MASCOT[21])  이

후로  독일에서  EDL에  특화된  영상기반항법  기

술에  대한  연구가  시작되었다.  2010년부터  

DLR(German  Aerospace  Center)에서  진행된 

ATON(Autonomous 

Terrain-based 

Optical 

Navigation)[22]  프로젝트는  <그림  12,  13>과  같

이  실내  시험환경과  현장  시험환경을  구성하여 

2017년도에 6번의 비행시험을 통한 시스템 검증

을 실시하였다.

그림  13  영상항법시스템  시험환경-TRON  [22]

그림  14  현장  시험환경  [22]

ATON은  영상  객체  추적에  널리  알려진 

KLT(Kanade-Lucas-Tomasi)을 사용하였다. 이 방

법은  추적할 영상 패치의 크기와 특징점 등에 

따라 실시간 처리 성능에 영향을 준다. 또한 영

상  표면상의  절대  위치를  찾기  위해  이진화된 

음역지역을 이용하며 영상내 크레이터 기반으로 

상대항법이 가능하도록 하였다.


background image

98

이훈희 외 / 항공우주산업기술동향 16/1 (2018) pp. 90~100

3.4  딥러닝  기반  우주항법

2015년부터 우주항법을 위한 딥러닝 기반의 영

상처리기술이 빠른 속도로 성장하고 있다. 실시

간성을 확보해야 하는 EDL 과정에서 딥러닝 기

술이  적용되기에는  시기상조일  수  있으나  현재 

관련  연구  사례는  급격하게  다양화되고  증가하

고  있다.  특히  관련  기술중  영상처리에  특화된 

컨볼루셔널 

인공신경망(CNN: 

Convolutional 

Neural  Network)[23]  기술을  항법기술에  접목할 

경우 절대적인 정확도 증가에 따른 이점도 부각

되지만, 무엇보다도 기존의 광학카메라에서 얻을 

수 있는 2 차원 영상에 대한 고전적인 처리기법

을  3차원  이상으로  쉽게  확장  응용이  가능하는 

점이 중요하다. 

 

⦁ 

CNN 기반 영상처리 적용 이점

∘ 

영상의 차원을 증가시 학습이 용이

∘ 

기존의 전처리(preprocessing) 과정 감소

∘ 

영상 감지 및 인식 정확도 증가

그림  15  크레이터  인식용  CNN[26]

영상내에 분포된 위험물 감지 및 착륙지 포착

을  위한  연구가  진행되고  있으며  <그림  14>와 

같이  크레이터를  인식하기  위한  분류기에  대한 

연구 사례 수도 증가하고 있다. 

딥러닝 기술 적용과 함께 실시간 성능을 증가

시키기  위하여  신경망  층수를  줄이면서  연산부

하를 낮추기 위해 역전파(back propagation)과정

을 생략하는 ELM(Extreme Learning Machine) 이 

제안되었고  후속  연구가  진행되고  있다.[24]  또

한  지상에서  충분한  학습  과정을  통해  얻어진 

CNN 구성을 탐사선에 업로드하여 실시간 튜닝을 

고려할  수  있다.  또한  메모리  사용  효율이  좋고 

시간에  따른  위치를  얻기  위해  RNN(Recurrent 

Neural Networks)[25] 기반의 영상처리 시스템이 

연구되리라  기대된다.  행성  표면의  크레이터나 

계곡과 같은 두드러진 특징에 대해서 영상 감지 

및 인식 연구가 활발하게 이루어지고 있으며 실

제  궤도선로부터의  원격탐측  영상의  부족함을 

해결하기  위한  영상합성  방법  및  활용에  대한 

연구도 진행하고 있다.[26]

3.5  미국  -  NFT

2016년에 발사된 NASA 의 소행성 탐사선 오시

리스-렉스(OSIRIS-REx)는 2018년 말에 도착할 예

정으로 항법용 카메라를 장착하고 있다. 내부 자

동 광학 항법 소프트웨어인 NFT(Natural Feature 

Tracking)[31]는 소행성 표면의 알고 있는 위치를 

추적하여 고정밀 궤도 결정을 하는 데 사용된다. 

4. 결론

본 논문에서는 행성착륙선의 진입-하강-착륙

(EDL) 과정에서 적용한 영상시스템의 대표적인 

사례를  실제  성공적으로  운영한  것과  최근  개

발하고  있는  것을  분류하여  대표적인  사례에 

대해서 주요 특징을 설명하였다.

광학카메라를  EDL  과정에  성공적으로  적용

한 행성착륙선은 공통적으로 행성전체 혹은 행

성표면을  기준으로  상대항법정보를  추출하는데 

성공하였다.  일부  착륙선은  항법영상을  처리하

여 미지의 행성의 회전축이나 인공적인 랜드마

크를 이용한 경우도 있었다. 하지만 여전히 적

절한  태양의  고도  조건,  명암  차이,  지구와의 

교신 시간, 착륙지에 대한 사전 정보량에 따른 

내부 알고리즘 성능의 변동성은 민감하여 장시

간의  반복촬영이나  적절한  시점의  선택  등과 

같은 제약조건이 있었다. 이러한 환경적 요소에 

대한 강건성은 연구를 통해 확보되어야 한다.

제약조건  하에서  EDL  과정에의  광학카메라

는 여전히 행성탐사선의 필수적인 센서로 활용


background image

이훈희 외 / 항공우주산업기술동향 16/1 (2018) pp. 90~100

99

될 만큼 활용빈도가 더욱더 증가하고 있다. 이

런  추세는  수십  년간  이어지는  미래의  광학카

메라  기반  영상처리시스템에  대한  우주선진기

관의  응용연구로  이어지고  있다.  또한  최근의 

딥러닝, 머신러닝 등의 기술에 힘입어 높은 정

확도에  고차원  데이터의  일관  화된  처리를  갖

는  우주항법용  영상처리시스템이  연구되고  우

주실증으로 이어질 것으로 기대한다.

참고문헌

1. https://www.jpl.nasa.gov/news/press_kits/insig

ht/mission/

2. M. Adler, M. Wright, C. Campbell, I. Clark, 

W.  Engelund,  T.  Rivellini,  “ENTRY, 

DESCENT,  AND  LANDING  ROADMAP”, 

NASA, 2010

3. A.  E.  Johnson,  A.  Ansar,  L.  H.  Matthies, 

“A  General  Approach  to  Terrain  Relative 

Navigation  for  Planetary  Landing”,  AIAA 

Aerospace@Infotech Conference, 2007

4. Lunar  and  Planetary  Programs  Division, 

NASA,“SURVEYOR  Program  Results  NASA 

SP-184”, 1969 

5. S.  Li,  X.  Jiang,  “Guidance  Summary  and 

Assessment  of  the  Chang’e-3  Powered 

Descent 

and 

Landing”, 

Journal 

of 

Spacecraft  and  Rockets,  Vol.  53,  No.  2, 

2015, pp.258-277

6. k-means clustering

7. R.  P.  Santayana,  M.  Lauer,  “OPTICAL 

MEASUREMENTS 

FOR 

ROSETTA 

NAVIGATION  NEAR  THE  COMET”,    25th 

International  Symposium  on  Space  Flight 

Dynamics, 2015

8. R.  P.  Santayana,  M.  Lauer,  P,  Munoz,  F. 

Castellini,  “Surface  Characterization  and 

optical  navigation  at  the  Rosetta  flyby  of 

asteroid  Lutetia”  International  Symposium 

of Space Flight Dynamics, 2014.

9. http://m.esa.int/spaceinimages/Images/2014/11

/OSIRIS_spots_Philae_drifting_across_the_com

et

10. N. Mastrodemos, B. Rush, A. Vaughan, W. 

O. Jr., “OPTICAL NAVIGATION FOR THE 

DAWN  MISSION  AT  VESTA”,    23rd, 

International  Symposium  on  Space  Flight 

Dynamics, 2012

11. L.  Matthies,  M.  Maimone,  A.  Johnson,  Y. 

Cheng,  R.  Willson,  C.  Villalpando,  S. 

Goldberg,  A.  Huertas,  “Computer  Vision 

on  Mars”,  International  Journal  of 

Computer  Vision,  International  Journal  of 

Computer Vision, Vol. 75, No. 1, 2007, pp. 

6792

12. C.  Harris,  M.  Stevens,  “A  Combined 

Corner  and  Edge  Detector”,  4th  Alvey 

Vision Conference, 1988, pp.147-151

13. Moravec,  H.P.  “Obstacle  Avoidance  and 

Navigation in the Real World by a Seeing 

Robot  Rover”,  PhD  thesis,  Computer 

Science  Department,  Stanford  University, 

1980

14. Y.  Cheng,  A.  Johnson,  L.  Matthies, 

“MER-DIEMS: 

Planetary 

Landing 

Application  of  Computer  Vision”,  IEEE 

Conference  on  Computer  Vision  and 

Pattern Recognition, 2005

15. T.  Kubota,  S.  Sawai,  T.  Hashimoto,  J. 

Kawaguchi, 

A. 

Fujiwara, 

“Robotics 

Technology  for  Asteroid  Sample  Return 

Mission  MUSES-C”,  6th  International 

Symposium  on  Artificial  Intelligence  and 

Robotics & Automation in Space: I-SAIRAS, 

2001

16. W.  M.  Owen,  Jr.,  T.  C.  Wang,  “NEAR 

Optical  Navigation  at  Eros”,  AAS/AIAA 

Astrodynamics Specialist Conference, 2001


background image

100

이훈희 외 / 항공우주산업기술동향 16/1 (2018) pp. 90~100

17. A.  E.  Johnson,  S.  Aaron,  Y.  Cheng,  J. 

Montgomery,  N.  Trawny,  B.  Tweddle,  G. 

Vaughan,  J.  Zheng,  “Design  and  Analysis 

of Map Relative Localization for Access to 

Hazardous  Landing  Sites  on  Mars”,  AIAA 

Guidance, 

Navigation, 

and 

Control 

Conference, 2016

18. G.  Flandin,  B.  Polle,  B.  Frapard,  P.  Vidal, 

C.  Philippe,  T.  Voirin,  “VISION  BASED 

NAVIGATION 

FOR 

PLANETARY 

EXPLORATION”, (Preprint) AAS 09-052

19. S.  Kerambrun,  N.  Despre,  B.  Frapard,  P. 

Hyounet,  B.  Polle,  M.  Ganet,  N.  Silva,  A. 

Cropp,  C.  Philippe,  “AUTONOMOUS 

RENDEZVOUS  SYSTEM:  THE  HARVD 

SOLUTION”, 

7th 

International 

ESA 

Conference  on  Guidance,  Navigation  & 

Control Systems, 2008

20. https://www.jpl.nasa.gov/missions/mars-samp

le-return-msr/

21. R. Jaumann, J. P. Bibring, K.H. Glassmeier, 

M.  Grott,  T.  M.  Ho,  S.  Ulamec,  N. 

Schmitz,  H.U.  Auster,  J.  Biele,  H. 

Kuninaka,  T.  Okada,  M.  Yoshikawa,  S. 

Watanabe,  M.  Fujimoto,  T.  Spohn,  "A 

Mobile  Asteroid  Surface  Scout  (MASCOT) 

for  the  Hayabusa  2  Mission  to  1999  JU3: 

The Scientific Approach”, 44th Lunar and 

Planetary Science Conference, 2013

22. S. Theil, N. Ammann, F. Andert, T. Franz, 

H. Krüger, H. Lehner, M. Lingenauber, D. 

Lüdtke,  B.  Maass,  C.  Paproth,  J.  Wohlfeil, 

"ATON (Autonomous Terrain-based Optical 

Navigation) for exploration missions: recent 

flight  test  results”,  CEAS  Space  Journal, 

2018

23. https://towardsdatascience.com/deep-learnin

g-vs-classical-machine-learning-9a42c6d48a

a

24. T.  Campbell,  R.  Furfaro,  R.  Linares,  D. 

Gaylor,  “A  deep  learning  approach  for 

optical  autonomous  planetary  relative 

terrain navigation”, 27th AAS/AIAA Space 

Flight Mechanics Meeting, 2017

25. H.  Salehinejad,  S.  Sankar,  J.  Barfett,  E. 

Colak,  S.  Valaee,  “Recent  Advances  in 

Recurrent 

Neural 

Networks”, 

arXiv:1801.01078v3, 2018

26. H.  Lee,  D.  Jung,  S.  Son,  H.  Choi, 

"Synthesizing  a  massive  training  dataset 

based  on  real  lunar  data  for  image-based 

navigation 

and 

crater 

recognition", 

Aerospace Europe CEAS Conference, 2017

27. J.  Y.  Bouguet,  P.  Perona,  “Visual 

Navigation  Using  a  Single  Camera,”  

IEEE Int’l Conf. Computer Vision, 1995

28. A.  Ansar,  “2004  small  body  GN&C 

research 

report: 

Feature 

recognition 

algorithms,”  in  Small  Body  Guidance 

Navigation  and  Control  FY  2004  RTD 

Annual Report, no. D-30282, 2004

29. B.  Maass,  “Robust  approximation  of 

image 

illumination 

direction 

in 

segmentation-based 

crater 

detection 

algorithm  for  spacecraft  navigation,” 

CEAS Space Journal, 2016

30. H. 

Kaufmann, 

M. 

Lingenauber, 

T. 

Bodenmueller,  M.  Suppa,  “Shadow-based 

matching  for  precise  and  robust  absolute 

self-localization  during  lunar  landings”, 

IEEE  Aerospace  Conference  Proceedings, 

2015, pp. 1–13

31. C. Mario, C. Debrunner, “Robustness and 

Performance  Impacts  of  Optical-Based 

Feature  Tracking  to  OSIRIS-REx  Asteroid 

Sample  Collection  Mission.”  AAS  16-087, 

2015