지난 시간에는 자율주행 기술에 대한 간단한 설명이 있었습니다
저희 프로젝트 팀이 진행하고 있는 자율주행카트 개발에 대해 작성하려고 합니다.앞의 포스트에서 설명되었던 것처럼 자율 주행 기술은 자동차 이외에도 여러 분야에서 활용할 수 있습니다.
우리 팀은 몇 번의 회의 끝에 자율주행 카트를 개발하기로 했습니다!
현재 대형마트 카트사용의 문제점=대형마트에서는 거대한 카트를 밀고 나가서 쇼핑을 합니다.대형마트에서의 거대한 카트는 불편한 점이 많습니다.- 밀기만 하는 불편함 – 다른 고객과의 충돌 – 바퀴 구동이 매끄럽지 않아 코너를 돌 때 운전이 불편함. – 장애인이 사용할 수 없다.
문제점을해결하고개발하고자하는자율주행카트는우리가개발하고자하는자율주행카트는다음기능을수행합니다.1. 직접 카트를 밀고 돌지 않아도 해당 고객 추종 → Object Detection Algorithm 2. 기존의 딱딱한 디자인에서 벗어난 감성공학적 디자인 → UX 개선(Puppy Image) 3. 음성인식을 통해 사용자의 목소리 인식 및 추종 → Sound Recognition 4.
< Software 개발 – Object Detection Algorithm > 우선 Software 개발에 앞서 당사는 Deeplearning을 이용하여 개발하기로 하였습니다.Deeplearning algorithm 안에서 YOLO3, YOLO4, YOLO5, Efficient Det, Refine Det 각각의 특징과 성능을 연구하고 비교했습니다.아래 링크는 Efficient Det 관련 내용입니다.
https://blog.naver.com/cwkim0314/2221565841092019년 11월 새롭게 연구된 Efficient Det은 Object Detection 문제를 중점적으로 다루고 있습니다. . blog.naver.com Efficient Det은 성능이 매우 좋지만 YOLO에 비해 최신으로 개발된 기술이므로 아직 그 활용 예와 관련 정보가 많지 않습니다.특히 저희 팀이 개발하는 자율주행카트의 경우 고객을 뒤에서 따라주는 기능이 반드시 필요하기 때문에 Deep SORT 기술을 도입하고자 합니다.따라서 Deep SORT와의 개발에서의 호환도 중요하게 생각해야 했습니다.
<Hardware < – Raspberry pi 4 & Alphabot 2 pi> https://blog.naver.com/cwkim0314/222167401417 자율주행카트를 만들기 위해 우선 Alphabot 2-pikit를 활용하기로 했습니다.blog.naver.com https://blog.naver.com/cwkim0314/222167409762 저희 팀 개발 프로젝트의 하드웨어 중에서 어쩌면 가장 큰 부분을 차지하고 있는 놈이라고 생각합니다.Ra…blog.naver.com 하드웨어의 뼈대는 Raspberrypi와 Alphabotpi2를 활용하여 만들고 있으며 이 밖에 LiDAR 센서와 SLAM 기술을 활용합니다.SLAM 기술은 현재 잘 알려진 기술 중 하나이지만, SLAM algorithm은 각종 센서에서 데이터를 수집하여 로봇미트 센서의 위치를 결정하고, 주변 환경에 대한 2차원 또는 3차원 지도를 만들어 줍니다.이러한 SLAM algorithm부터 다시 ORB SLAM이라는 기술에 주목하겠습니다.
ORB SLAM은 모노안경, 스테레오, RGB-D 카메라를 위한 다용도로 정확한 SLAM 솔루션 입니다.이 알고리즘은 핸드헬드 방식의 작은 책상에서부터 다양한 도시 블록을 주행하는 자동차에 이르기까지 다양한 환경에서 카메라의 궤적과 장면이 희박한 3D 재구성을 실시간으로 계산할 수 있습니다.대규모 루프를 닫고 실시간 및 광범위한 기준선으로 전역에 대한 재초기화를 수행할 수 있습니다.평면 및 비평면 장면에서 자동적이고 강력한 초기화가 포함됩니다.