Priceless
[세미나 리뷰] SLAM KR 2023 후기 (2023.11.25) 본문
약 1년 전 방문한 행사를 기록한 것으로
다르게 기록될 수 있습니다
SLAM KR 2023 행사를 다녀왔다
SLAM 관련 커뮤니티에서 개최된 행사이다
2023 SLAM KR Offline Event | Festa!
Festa에서 당신이 찾는 이벤트를 만나보세요.
festa.io
제공된 가방을 보다시피
기존의 SLAM 위주의 커뮤니티에서
Spatial AI 커뮤니티로 나아가겠다는 말씀을 해주셨다
실제로 커뮤니티 이름도 그 날 부로 'Spatial AI KR'로 바뀌었다

클로봇, 누비랩을 포함한 다양한 기업의 채용 부스가 있었다
1. 임형태 박사님
SLAM 분야 대학원생이 알았더라면 좋았을 것들: 슬알못에서 MIT 포닥까지
KAIST URL에서 박사를 마치시고 MIT SPARK Lab에서 포닥 예정이라 하셨다
SLAM에 사용되는 하드웨어는 많은데
LiDAR, 카메라, RADAR 중 어느 하나가 정답이라기 보다는
연구와 시스템에 맞게 사용해야 한다
Ground Segmentation
Agent(로봇 또는 차량)가 이동할 수 있는 영역과 지면을 구분해야 한다
이 과정이 빨라야 한다
지면 정보를 놓칠 경우 planning 등 전반적인 성능 저하가 나타날 수 있다
ERASOR 논문에 그러한 부분의 연구가 나타나있다고 한다
https://arxiv.org/abs/2103.04316
ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object Removal for Static 3D Point Cloud Map Building
Scan data of urban environments often include representations of dynamic objects, such as vehicles, pedestrians, and so forth. However, when it comes to constructing a 3D point cloud map with sequential accumulations of the scan data, the dynamic objects o
arxiv.org
Loop Closing Detection
pose가 맞지 않으면 오류가 발생한다
Global Registration
멀어질수록 sparse
https://arxiv.org/abs/2311.00928
Quatro++: Robust Global Registration Exploiting Ground Segmentation for Loop Closing in LiDAR SLAM
Global registration is a fundamental task that estimates the relative pose between two viewpoints of 3D point clouds. However, there are two issues that degrade the performance of global registration in LiDAR SLAM: one is the sparsity issue and the other i
arxiv.org
Quatro++ 논문에서
pose의 차이가 커도 맞출 수 있다고 한다
Map을 깔끔하게 하는 기술
동적 물체를 없앤다
위치가 변하며, 정보가 가려지기 때문이다
Vision 기반인 경우 트럭 등에서 가려지는 문제가 발생한다
VIO pose의 문제는 움직이는 물체를 고려하지 않는다
DynaBINS 논문에서 이러한 부분을 다뤘다
https://arxiv.org/abs/2208.11500
DynaVINS: A Visual-Inertial SLAM for Dynamic Environments
Visual inertial odometry and SLAM algorithms are widely used in various fields, such as service robots, drones, and autonomous vehicles. Most of the SLAM algorithms are based on assumption that landmarks are static. However, in the real-world, various dyna
arxiv.org
과속방지턱 넘을 시
ORORA 논문에서 다뤘다
https://arxiv.org/abs/2303.01876
ORORA: Outlier-Robust Radar Odometry
Radar sensors are emerging as solutions for perceiving surroundings and estimating ego-motion in extreme weather conditions. Unfortunately, radar measurements are noisy and suffer from mutual interference, which degrades the performance of feature extracti
arxiv.org
좋은 연구 주제를 얻는 법
내가 불편을 겪는 문제를 풀자
성능 몇 퍼센트 올리는 것이 아닌
안되는 것을 되게 하는 문제를 풀자
다른 연구자들이 납득할만한 새로운 benchmark를 제안하는 것도 contribute의 일환이다
좋은 연구는?
open source인 코드로 표현하는 것은
self PR 하기 위한 최고의 수단이다
연구 내용을 다른 사람이 쓸 수도 있다
연구해서 남을 주면 본인에게 기회로 돌아올 수 있다
2. 김기석 박사님
Why IMU fusion for LiDAR SLAM?: IMU+LiDAR Fusion 디테일 톺아보기
Naver Labs에서 연구하시는 분이다
IMU + LiDAR fusion을 주로 연구하신다
Gaussian Splatting2
임의 배경을 생성
3D scanner
Registration을 잘 해야 한다
correspondence를 찾는 것이 중요
해결법으로
후처리: robust opt GNC
전처리: IMU-based prediction
INS(Intertial Navagation System)
input: IMU 6D
output: robot PVA
과정은 KITTI dataset에서 맵을 생성하고
...
장점
중력 제거
해결 방법
aided INS
관련 정보:
https://www.vectornav.com/resources/inertial-navigation-primer/theory-of-operation/theory-gpsins
Learn how a GNSS-Aided Inertial Navigation System (GNSS/INS) works · VectorNav
The Global Navigation Satellite System (GNSS) is a satellite configuration, or constellation, that provides satellite signals to a GNSS receiver which can be used to calculate position, velocity, and time. An inertial navigation system (INS) uses an inerti
www.vectornav.com
책은 Aided Navigation
항법을 위한 정보, 잘 예측 된다
FAST-RIO2
LiDAR-IMU Fusion
튀는 값 퉁치자
이동 중 SLAM에서는 IMU가 취약하다
FAST-LIO
https://arxiv.org/abs/2010.08196
FAST-LIO: A Fast, Robust LiDAR-inertial Odometry Package by Tightly-Coupled Iterated Kalman Filter
This paper presents a computationally efficient and robust LiDAR-inertial odometry framework. We fuse LiDAR feature points with IMU data using a tightly-coupled iterated extended Kalman filter to allow robust navigation in fast-motion, noisy or cluttered e
arxiv.org
IMU 오픈소스
open VINS: 칼만 필터 기반
https://docs.openvins.com/propagation.html
3. 이용이 이사님
Make a LiDAR Valuable: Beyond Autonomous Driving
국내 라이다 제조사 SOS LAB의 이사님이다

라이다 기반 주차 공간 관리 시스템 구상
라이다 오염에 따른 문제
agent에서 뒤쪽이 안보이는 문제
차량에서는 괜찮을지라도 로봇에서는 연구 필요
라이다를 사용할 때 빛 반사 문제는 앞으로 더 해결해야 한다
4. 유현우 교수님
로봇 적응: 인지, SLAM 및 행동
성균관대에서 로봇과 SLAM을 연구하고 계신다
Deep Perception
모델을 생성하여 추가하여 강제로 근사
SLAM의 역할
한계: 새로운 환경에 적응 어려움, 플랫폼 자체의 한계, 보정 과정이 매우 힘들다
SLAM vs NeRF
non-linear 함수를 통한 ...
VMAP
dense한 모델 생성 후
이후에 알 때..
https://arxiv.org/abs/2302.01838
vMAP: Vectorised Object Mapping for Neural Field SLAM
We present vMAP, an object-level dense SLAM system using neural field representations. Each object is represented by a small MLP, enabling efficient, watertight object modelling without the need for 3D priors. As an RGB-D camera browses a scene with no pri
arxiv.org
3차원 non linear regression 모델의 등장
SLAM의 앞으로 연구 방향
HD Map을 어떻게 넣지 고민 중
map을 함수로 바꿔 다른 task에 넣을 수 없을까?
5. 임종우 교수님
Omnidirectional depth estimation & mapping
서울대에서 연구하고 계신다
다양한 연구 사례와 현재 연구들을 소개해주셨다
OmniMVS
https://arxiv.org/abs/1908.06257
OmniMVS: End-to-End Learning for Omnidirectional Stereo Matching
In this paper, we propose a novel end-to-end deep neural network model for omnidirectional depth estimation from a wide-baseline multi-view stereo setup. The images captured with ultra wide field-of-view (FOV) cameras on an omnidirectional rig are processe
arxiv.org
multi-camera VSLAM
SweepNet
https://arxiv.org/abs/1902.10904
SweepNet: Wide-baseline Omnidirectional Depth Estimation
Omnidirectional depth sensing has its advantage over the conventional stereo systems since it enables us to recognize the objects of interest in all directions without any blind regions. In this paper, we propose a novel wide-baseline omnidirectional stere
arxiv.org
gaussian splatting
https://arxiv.org/abs/2308.04079
3D Gaussian Splatting for Real-Time Radiance Field Rendering
Radiance Field methods have recently revolutionized novel-view synthesis of scenes captured with multiple photos or videos. However, achieving high visual quality still requires neural networks that are costly to train and render, while recent faster metho
arxiv.org
연구를 바탕으로 회사를 운영 중이시다
6. 김주원(Jason Kim) 연구원님 - 라이트닝 톡 1)
학생으로 연구하고 계신다
Multi Robot SLAM
두 대의 로봇을 사용하여
multi SLAM을 통해 캠퍼스 전체를 매핑하였다
두 대를 통해 SLAM을 할 경우
기존 mono SLAM 보다 localization 등 고려할 부분이 많다

7. 이상준 연구원님 - 라이트닝 톡 2
스트라드 비전에서 연구하고 계신다
SLAM의 파이프라인
filter 기반 / Kalman filter 기반
Direct / Indirect
Tracking / Mapping
SLAM Campus
8. 이준호 연구원님 - 라이트닝 톡 3
현대자동차에서 연구하고 계신다
로봇 청소기의 작동 원리와 SLAM

Localization
Motion planning
Area set
Trajectory estimation

가장 큰 어려움은 uncertainty이다
확률적으로 줄여야 한다

LiDAR-camera fusion
Foundation model이 중요하다
PointLLM
위치에 따른 자연어
https://arxiv.org/abs/2308.16911
PointLLM: Empowering Large Language Models to Understand Point Clouds
The unprecedented advancements in Large Language Models (LLMs) have shown a profound impact on natural language processing but are yet to fully embrace the realm of 3D understanding. This paper introduces PointLLM, a preliminary effort to fill this gap, en
arxiv.org
9. 사전 질문
행사 전 질문을 받고 강연진분들이 대답 및 조언을 해주셨다

1)
센서 coding
scenario 여부
resource capacity가 중요하다
세 가지로 framework 만들기
문제를 분석한다
사용처에 맞게 설계한다
2)
일단 수학(확통, 선대)
프로그래밍, 코드 구현 이해와 논리적 사고
3)
conditional probability에 따른 수행이 달라 대체할 수 있지만
현실적으로 되지 않은 경우가 있다

'Review > Conference & Seminar' 카테고리의 다른 글
[세미나 리뷰] AI Robotics KR 2024 후기(2024.08.10) (8) | 2024.08.31 |
---|---|
[CVPR'23 WAD] Keynote - Ashok Elluswamy, Tesla 리뷰 (0) | 2023.09.23 |