Priceless

[세미나 리뷰] SLAM KR 2023 후기 (2023.11.25) 본문

Review/Conference & Seminar

[세미나 리뷰] SLAM KR 2023 후기 (2023.11.25)

Hyun__ 2024. 8. 25. 02:32

약 1년 전 방문한 행사를 기록한 것으로

다르게 기록될 수 있습니다

 

SLAM KR 2023 행사를 다녀왔다

SLAM 관련 커뮤니티에서 개최된 행사이다

 

https://festa.io/events/4260

 

2023 SLAM KR Offline Event | Festa!

Festa에서 당신이 찾는 이벤트를 만나보세요.

festa.io

 

제공된 가방을 보다시피

기존의 SLAM 위주의 커뮤니티에서 

Spatial AI 커뮤니티로 나아가겠다는 말씀을 해주셨다

실제로 커뮤니티 이름도 그 날 부로 'Spatial AI KR'로 바뀌었다

 

클로봇, 누비랩을 포함한 다양한 기업의 채용 부스가 있었다

 

1. 임형태 박사님

SLAM 분야 대학원생이 알았더라면 좋았을 것들: 슬알못에서 MIT 포닥까지

KAIST URL에서 박사를 마치시고 MIT SPARK Lab에서 포닥 예정이라 하셨다

 

SLAM에 사용되는 하드웨어는 많은데

LiDAR, 카메라, RADAR 중 어느 하나가 정답이라기 보다는

연구와 시스템에 맞게 사용해야 한다

 

Ground Segmentation

Agent(로봇 또는 차량)가 이동할 수 있는 영역과 지면을 구분해야 한다

이 과정이 빨라야 한다

지면 정보를 놓칠 경우 planning 등 전반적인 성능 저하가 나타날 수 있다

ERASOR 논문에 그러한 부분의 연구가 나타나있다고 한다

https://arxiv.org/abs/2103.04316

 

ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object Removal for Static 3D Point Cloud Map Building

Scan data of urban environments often include representations of dynamic objects, such as vehicles, pedestrians, and so forth. However, when it comes to constructing a 3D point cloud map with sequential accumulations of the scan data, the dynamic objects o

arxiv.org

 

 

Loop Closing Detection

pose가 맞지 않으면 오류가 발생한다

 

Global Registration

멀어질수록 sparse

 

https://arxiv.org/abs/2311.00928

 

Quatro++: Robust Global Registration Exploiting Ground Segmentation for Loop Closing in LiDAR SLAM

Global registration is a fundamental task that estimates the relative pose between two viewpoints of 3D point clouds. However, there are two issues that degrade the performance of global registration in LiDAR SLAM: one is the sparsity issue and the other i

arxiv.org

Quatro++ 논문에서 

pose의 차이가 커도 맞출 수 있다고 한다 

 

 

Map을 깔끔하게 하는 기술

동적 물체를 없앤다

위치가 변하며, 정보가 가려지기 때문이다

Vision 기반인 경우 트럭 등에서 가려지는 문제가 발생한다

VIO pose의 문제는 움직이는 물체를 고려하지 않는다

 

DynaBINS 논문에서 이러한 부분을 다뤘다

https://arxiv.org/abs/2208.11500

 

DynaVINS: A Visual-Inertial SLAM for Dynamic Environments

Visual inertial odometry and SLAM algorithms are widely used in various fields, such as service robots, drones, and autonomous vehicles. Most of the SLAM algorithms are based on assumption that landmarks are static. However, in the real-world, various dyna

arxiv.org

 

과속방지턱 넘을 시

ORORA 논문에서 다뤘다

https://arxiv.org/abs/2303.01876

 

ORORA: Outlier-Robust Radar Odometry

Radar sensors are emerging as solutions for perceiving surroundings and estimating ego-motion in extreme weather conditions. Unfortunately, radar measurements are noisy and suffer from mutual interference, which degrades the performance of feature extracti

arxiv.org

 

좋은 연구 주제를 얻는 법

내가 불편을 겪는 문제를 풀자

성능 몇 퍼센트 올리는 것이 아닌

안되는 것을 되게 하는 문제를 풀자

 

다른 연구자들이 납득할만한 새로운 benchmark를 제안하는 것도 contribute의 일환이다

 

좋은 연구는?

open source인 코드로 표현하는 것은 

self PR 하기 위한 최고의 수단이다

 

연구 내용을 다른 사람이 쓸 수도 있다

연구해서 남을 주면 본인에게 기회로 돌아올 수 있다

 

 

2. 김기석 박사님

Why IMU fusion for LiDAR SLAM?: IMU+LiDAR Fusion 디테일 톺아보기

Naver Labs에서 연구하시는 분이다

IMU + LiDAR fusion을 주로 연구하신다

 

Gaussian Splatting2

임의 배경을 생성

3D scanner

 

Registration을 잘 해야 한다

correspondence를 찾는 것이 중요

 

해결법으로

후처리: robust opt GNC

전처리: IMU-based prediction

 

INS(Intertial Navagation System)

input: IMU 6D

output: robot PVA

 

과정은 KITTI dataset에서 맵을 생성하고

...

 

장점

중력 제거

 

해결 방법

aided INS

관련 정보:

https://www.vectornav.com/resources/inertial-navigation-primer/theory-of-operation/theory-gpsins

 

Learn how a GNSS-Aided Inertial Navigation System (GNSS/INS) works · VectorNav

The Global Navigation Satellite System (GNSS) is a satellite configuration, or constellation, that provides satellite signals to a GNSS receiver which can be used to calculate position, velocity, and time. An inertial navigation system (INS) uses an inerti

www.vectornav.com

 

 

책은 Aided Navigation

항법을 위한 정보, 잘 예측 된다

 

FAST-RIO2

LiDAR-IMU Fusion

튀는 값 퉁치자

이동 중 SLAM에서는 IMU가 취약하다

 

FAST-LIO

https://arxiv.org/abs/2010.08196

 

FAST-LIO: A Fast, Robust LiDAR-inertial Odometry Package by Tightly-Coupled Iterated Kalman Filter

This paper presents a computationally efficient and robust LiDAR-inertial odometry framework. We fuse LiDAR feature points with IMU data using a tightly-coupled iterated extended Kalman filter to allow robust navigation in fast-motion, noisy or cluttered e

arxiv.org

 

 

IMU 오픈소스

open VINS: 칼만 필터 기반

https://docs.openvins.com/propagation.html

 

 

3. 이용이 이사님

Make a LiDAR Valuable: Beyond Autonomous Driving

국내 라이다 제조사 SOS LAB의 이사님이다

 

 

라이다 기반 주차 공간 관리 시스템 구상

라이다 오염에 따른 문제

 

agent에서 뒤쪽이 안보이는 문제

차량에서는 괜찮을지라도 로봇에서는 연구 필요

 

라이다를 사용할 때 빛 반사 문제는 앞으로 더 해결해야 한다

 

 

4. 유현우 교수님

로봇 적응: 인지, SLAM 및 행동

성균관대에서 로봇과 SLAM을 연구하고 계신다

 

Deep Perception

모델을 생성하여 추가하여 강제로 근사

 

SLAM의 역할

한계: 새로운 환경에 적응 어려움, 플랫폼 자체의 한계, 보정 과정이 매우 힘들다

 

SLAM vs NeRF

non-linear 함수를 통한 ...

 

VMAP

dense한 모델 생성 후 

이후에 알 때..

https://arxiv.org/abs/2302.01838

 

vMAP: Vectorised Object Mapping for Neural Field SLAM

We present vMAP, an object-level dense SLAM system using neural field representations. Each object is represented by a small MLP, enabling efficient, watertight object modelling without the need for 3D priors. As an RGB-D camera browses a scene with no pri

arxiv.org

 

3차원 non linear regression 모델의 등장

 

SLAM의 앞으로 연구 방향

HD Map을 어떻게 넣지 고민 중

map을 함수로 바꿔 다른 task에 넣을 수 없을까?

 

5. 임종우 교수님

Omnidirectional depth estimation & mapping

서울대에서 연구하고 계신다

 

다양한 연구 사례와 현재 연구들을 소개해주셨다

 

OmniMVS

https://arxiv.org/abs/1908.06257

 

OmniMVS: End-to-End Learning for Omnidirectional Stereo Matching

In this paper, we propose a novel end-to-end deep neural network model for omnidirectional depth estimation from a wide-baseline multi-view stereo setup. The images captured with ultra wide field-of-view (FOV) cameras on an omnidirectional rig are processe

arxiv.org

 

multi-camera VSLAM

 

SweepNet

https://arxiv.org/abs/1902.10904

 

SweepNet: Wide-baseline Omnidirectional Depth Estimation

Omnidirectional depth sensing has its advantage over the conventional stereo systems since it enables us to recognize the objects of interest in all directions without any blind regions. In this paper, we propose a novel wide-baseline omnidirectional stere

arxiv.org

 

gaussian splatting

https://arxiv.org/abs/2308.04079

 

3D Gaussian Splatting for Real-Time Radiance Field Rendering

Radiance Field methods have recently revolutionized novel-view synthesis of scenes captured with multiple photos or videos. However, achieving high visual quality still requires neural networks that are costly to train and render, while recent faster metho

arxiv.org

 

연구를 바탕으로 회사를 운영 중이시다

https://multipleye.co/

 

6. 김주원(Jason Kim) 연구원님 - 라이트닝 톡 1)

학생으로 연구하고 계신다

 

Multi Robot SLAM

두 대의 로봇을 사용하여

multi SLAM을 통해 캠퍼스 전체를 매핑하였다

 

두 대를 통해 SLAM을 할 경우

기존 mono SLAM 보다 localization 등 고려할 부분이 많다

 

7. 이상준 연구원님 - 라이트닝 톡 2

스트라드 비전에서 연구하고 계신다

 

SLAM의 파이프라인

filter 기반 / Kalman filter 기반

 

Direct / Indirect

 

Tracking / Mapping

 

SLAM Campus

 

8. 이준호 연구원님 - 라이트닝 톡 3

현대자동차에서 연구하고 계신다

 

로봇 청소기의 작동 원리와 SLAM

 

Localization

Motion planning

Area set

Trajectory estimation

 

 

 

가장 큰 어려움은 uncertainty이다

확률적으로 줄여야 한다

 

 

LiDAR-camera fusion

Foundation model이 중요하다

 

PointLLM

위치에 따른 자연어

https://arxiv.org/abs/2308.16911

 

PointLLM: Empowering Large Language Models to Understand Point Clouds

The unprecedented advancements in Large Language Models (LLMs) have shown a profound impact on natural language processing but are yet to fully embrace the realm of 3D understanding. This paper introduces PointLLM, a preliminary effort to fill this gap, en

arxiv.org

 

 

9. 사전 질문

행사 전 질문을 받고 강연진분들이 대답 및 조언을 해주셨다

 

1)

센서 coding

scenario 여부

resource capacity가 중요하다

세 가지로 framework 만들기

문제를 분석한다

사용처에 맞게 설계한다

 

2)

일단 수학(확통, 선대)

프로그래밍, 코드 구현 이해와 논리적 사고

 

3)

conditional probability에 따른 수행이 달라 대체할 수 있지만

현실적으로 되지 않은 경우가 있다