본문 바로가기 대메뉴 바로가기

한국항공우주연구원

자동 랑데부/도킹(ARVD) 기술동향

  • 이름 IT융합기술팀
  • 작성일 2016-05-13
  • 조회 6332

  수명이 다 되거나 예정된 임무수명 종료 전 고장이 난 통신위성을 재활용하는 것은 경제적으로 막대한 이익을 가져다 줄 수 있다. 이에 따라 우주에서 수리 재급유 궤도수정 및 근접 운용과 같은 서비스를 제공하는 로봇위성에 대한 요구는 최근 들어서 급격히 증가하고 있는 추세이다.[NASA, 2010]
  GNC 기술에 대한 연구의 많은 진전이 있었고, 이에 따라 위성체 간 자동 랑데부 및 도킹(Autonomous Rendezvous & Docking, ARVD)이 가능 해졌다. 하지만 이 기술이 효과적으로 시스템에서 구동하기 위해서는 위성체 사이의 상대적인 위치, 자세 그리고 속도를 높은 정밀도와 신뢰성으로 추정해야만 한다.
  전통적으로 사용되는 RVD 센서인 RF 레이다의 경우 넓은 범위를 센싱할 수 있지만, 그에 반해 정밀도가 낮기 때문에 비협조적(uncooperative)이거나 작은 대상에의 RVD 센서로 부적합하다.
  캐나다의 Neptec Design Group에서는 LiDAR와 레이저의 Triangulation 기법을 융합한 TriDAR로부터 획득한 3차원 정보를 가지고 ICP(Iterative Closest Point) 알고리즘을 사용해 위성체 사이의 상대위치 및 자세를 추정하였다. 이 시스템은 광 조건에 덜 민감하며 고품질의 3차원 정보를 획득하지만 전력을 최대 65W까지 사용하기도 하며, 센서 시스템이 다소 부피와 질량이 큰 한계점이 존재한다.[Stephane Ruel, 2012]

 

<그림 첨부파일 참고>

 

  근래의 ARVD 기술은 광학 센서, 레이저 거리 측정기, 그리고 LiDAR 시스템을 융합하는 방향으로 진행되고 있다. NASA에서는 일반적인 ARVD 센서들이 Global Exploration Roadmap(GER) 임무에서 어떻게 지원이 되는지 언급했다.[Heather Hinkel, 2014] 또한 미국 Stanford대학의 Jose Padial의 경우 단안 카메라와 2D LiDAR의 융합으로 타겟과의 상대자세를 추정하는 연구를 진행하였다.[Jose Padial, 2012] 이와 같은 비전 기반 센서들을 활용한 방법은 미국 NASA의 우주왕복선, 일본 JAXA의 ETS-VII위성, 그리고 DART임무 등에서 시험 및 검증된 바 있다.[Mitsushige Oda, 2000],[Michael Ruth, 2004]
  하지만 현재까지 시험 및 검증된 LiDAR 시스템의 경우 규모가 작은 로봇위성에 탑재해 응용되기에는 알고리즘 복잡도, 크기, 전력 요구사항 등 넘어야 할 제약조건을 만족시킬 수 없다. 따라서 최근에는 단안 카메라로 구현 가능하며 알고리즘이 비교적 가벼운 다중 시점 영상과 특징점 매핑 기법에 대한 관심이 증대되고 있다. 이와 관련하여 모양 추적(shape tracking), 인식, 특징점 검출 및 triangulation을 사용하거나 스테레오 비전을 이용하는 기법들이 연구되고 있다.[Sharma, 2014]


<그림 첨부파일 참고>

 

  특히 GPGPU 및 활용기술 발전과 관련 오픈소스(OpenCV, Point Cloud Library 등)의 기술 고도화로 인해 관련 연구 주기가 매우 짧아지고 있는 실정이기 때문에 관련 기술에 대한 선점이 매우 요구된다.


※ 이 글은 아래 논문을 참조하여 작성하였습니다.
[Mark, 2015] Mark A. Post, Junquan Li, and Craig Clark, “Visual pose estimation system for autonomous rendezvous of spacecraft,” ASTRA2015.
[NASA, 2010] NASA Goddard Space Flight Center, “On-orbit satellite servicing study,” Project Report, October 2010.
[Stephane Ruel, 2012] Stephane Ruel, Tim Luu, and Andrew Berube, “Space shuttle testing of the tridar 3d rendezvous and docking sensor,” Journal of Field Robotics, 29(4), pp.535-553, 2012.
[Heather Hinkel, 2014] Heather Hinkel, Scott Cryan, Christopher Dsouza, and Matthew Strube, “Nasa’s automated rendezvous and docking/capture sensor development and its applicability to the GER,” Space Exploration International Conference, France, October 2014.
[Jose Padial, 2012] Jose Padial, Marcus Hammond, Sean Augenstein, and Stephen M Rock, “Tumbling target reconstruction and pose estimation through fusion of monocular vision and sparse pattern range data,” IEEE Conference on Multisensor Fusion and Integration for Intelligent Systems, pp.419-425, 2012.
.[Mitsushige Oda, 2000] Mitsushige Oda, “Experiences and lessons learned from the ETS-VII robot satellite,” ICRA2000, vol.1, pp.914-919, 2000.
[Michael Ruth, 2004] Michael Ruth and Chisholm Tracy, “Video-guidance design for the DART rendezvous mission,” Defense and Security, International Society for Optics and Photonics, pp.92-106, 2004.
[Sharma, 2014] S. Sharma, “Pose estimation of uncooperative spacecraft using monocular vision,” Invited Student Presentation at Stanford’s 2014 PNT Challenges and Opportunities Symphosium, Kavli Auditorium, SLAC, October 2014.

맨위로