deer.aa5_3.2_1.1. title: 원격제어 (+자율주행) 디바이스 요구사항 명세
Search
Share
🟢
deer.aa5_3.2_1.1. title: 원격제어 (+자율주행) 디바이스 요구사항 명세
🚀 prev note
♻️ prev note
🚀 next note
deer.aa5_2_1_3.1.1_2. [entry] title: 루돌프 멀티카메라 & 원격제어 프로젝트를 네 단계의 STEP 으로 나누며 한 고민. 그리고 하드웨어 선정을 위해 해야 하는 일에 대한 고민.
♻️ next note
17 more properties
킥보드 섀시, 파워, 디바이스
센서, 프로세서, 통신사양
deer.aa5_2_1_3.1.1_2. [entry] title: 루돌프 멀티카메라 & 원격제어 프로젝트를 네 단계의 STEP 으로 나누며 한 고민. 그리고 하드웨어 선정을 위해 해야 하는 일에 대한 고민.
모바일로봇 자율주행태스크에서 종종 동일한 FOV 에 대해서 여러 카메라를 중복배치하는 경우가 있는데, depth estimation 용도 외 이렇게 사용하는 이유가?
NeRF 에서는 왜 광각 카메라나 초광각 카메라를 사용하지 않는걸까? 어떤 것이 두려운걸까? “NeRF 같은 방법에서는 왜 어안렌즈나 광각렌즈를 잘 안쓸까요? 작은 모델링오차에도 민감하기 때문에 많이 난이도가 높아지는 탓일까요? 이미 Visual SLAM 에는 어안렌즈까지도 많이 사용되고 있어서, NeRF 같은 모델에 쓰는게 불가능하지 않을듯 싶은데 관련연구를 찾을 수 없었습니다.”
참고
1.
재석: 우리가 이 50대를 성공하면, 절대 50대로 끝나지 않을 것이기 때문에, 더 달아봤자 상관없을것이기 때문에, 복잡도가 계속 늘어날 것이기 때문에 부족하더라도 되긴 된다면 그렇게 요구하자. 장후: 최소사양을 확보해놓고, 미팅을 잡거나 한 뒤 그 이후에 이렇게 하면 안되나요, 저렇게 하면 안되나요? 고민하면 될 것 같다.
2.
역삼륜 정삼륜 문제가 아닌 것 같다. 상식 밖의 주행에서 책임져야 할까? 그런것들을 지오메트리로 컨트롤한다? 그건 무리인 것 같다. 그런것들을 다 제껴놓고, 역삼륜이 낫냐 정삼륜이 낫냐 물어보면 역삼륜이 낫다고 본다. 정삼륜은 회전하면 툭 튄다.
3.
재석, 머케인 대표와 통화내용: 원격제어를 위한 이륜 + 보조바퀴(양쪽에 하나씩 넣었다 꺼냈다 할 수 있음)를 사용한 킥보드 제작중이다. 220도짜리 광각카메라 두 개를 사용하여 360도를 볼 수 있다. 카메라는 핸들에 고정되어 핸들을 꺾을 때 같이 움직인다. 역삼륜 킥보드를 제조해서 판매했는데, 위험하다고 판단하여 삼륜이 아닌 위와 같은 형태로 제작중이다. 빗물이 배수로로 흐를 수 있게 도로가 약간 경사져있는데, 이 때 내려가는 방향으로 핸들을 꺾으면 전복되기 쉽기 때문이다. 사람들이 무의식적으로 장애물이나 홈을 앞바퀴 두 개 사이로 지나가게 운전하는데, 이 때 장애물이 뒷바퀴에 걸리거나 뒷바퀴가 홈에 빠져서 위험한 경우가 발생하기 때문이다.
4.
테스트웍스와 센서를 결정하는 것에 대해서 → ai 바우처가 되지 않을 수 있기 때문에 어차피 우리끼리 미리 정할 역량도 있어야 하고 미리 정해두는 것이 좋지 않을까
5.
원격제어와 수동제어(사람이 탑승시)를 겸용으로 사용하기 위해서는 핸들바 조향에 정보와 스로틀정보를 조합하여 모터를 구동해야 하는 완성차의 MDPS 기술을 적용해야 하는데, 기술난이도와 향후 상용화시 원가 상승이 문제가 될수 있어서 Steering by Wire(가칭 SBW) 방식으로 기술검토가 필요할것으로 판단합니다.
6.
LiDAR Camera L515 – Intel® RealSense™ Depth and Tracking Cameras
7.
LiDAR 스캐너는 실내 및 야외 모두에서 최대 5미터 떨어진 주변 물체까지의 거리를 광자 수준에서 나노초 속도로 측정한다. iPadOS의 새로운 깊이 프레임워크는 LiDAR 스캐너로 측정된 심도점 뿐 아니라 카메라 및 모션 센서의 데이터까지 통합하여 A12Z Bionic 칩의 컴퓨터 시각 알고리즘을 통해 보다 정확한 장면을 파악해낸다.