프로젝트 요구사항
<aside>
💡 아우디의 요구사항 우리는 VSLAM으로 주행 중 자동차의 위치 정보를 뽑아서, 우리의 딥러닝 시스템의 Ground truth 정보로 사용하고 싶습니다. ORB-SLAM을 사용하는데, CPU를 너무 많이 사용하기도 하고 속도도 너무 느리더군요.
**적은 계산량으로 빠르게 돌면서 자동차의 pose 정보를 뽑는 알고리즘을 만들어 주세요
pose형식: image.png, tx, ty, tz, qw, qx, qy, qz, timestamp
하나의 프레임 당 하나의 pose!**
</aside>
프로젝트 최종목표
- 기준 성능이 되는 ORB-SLAM(ORB-SLAM2)
- 실행 가능 상태 (KITTI 데이터셋)
- CPU 점유율, 프로세스 속도 분석
- 정확도 분석 (ATE, RPE)
- pose dataset을 생성해서 파일로 저장 (가능여부 뿐만이 아니라 실제 파일준비)
- 개량 VSLAM 프레임워크 개발
- 실행 가능 상태 (KITTI 데이터셋)
- CPU 점유율, 프로세스속도
- 정확도 분석 (ATE, RPE)
- pose dataset을 생성해서 파일로 저장 (가능여부 뿐만이 아니라 실제 파일준비)
- 개선한 알고리즘들에 대한 분석 및 로드맵
- 성능 병목 구간 분석
- 병목 구간 해결
- 전체 SLAM 코드 성능 변화 분석
- 실행 방법에 대한 README.md 및 사용설명서 작성
- GitHub repo 링크 공유
갑작스러운 요구사항1
- Fast threshold를 바꿨을 때
- 이미지에서 뽑히는 keypoint의 수 비교
- 이미지에서 뽑히는 keypoint의 퀄리티 비교 (실제로 더 좋은 코너가 뽑히는지?)
- Keypoint 매칭의 정확도 비교
- Keypoint 매칭의 수 비교
- 전체 정확도/속도 비교
갑작스러운 요구사항 2
- 자이카에서 실시간 카메라 영상을 받아 돌아가는 모습을 보여주세요. 잘 된다는걸 보여주시기 위해서 강의실에서 SLAM을 돌려보시고, pose dataset을 저장해주세요.
전략
가장 건드리기 쉬운 부분부터 건드려보자.