- Today
- Total
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- Darknet
- DNN
- 물체검출
- 설치
- 파이썬
- python
- 애드센스
- 방법
- agx
- 라즈베리파이
- ubuntu
- Linux
- Nvidia
- 블로그
- YOLO
- 영상처리
- 딥러닝
- tx2
- Tistory
- Jetson
- 티스토리
- tensorflow
- Xavier
- openCV
- Windows
- cuda
- openpose
- GPU
- 텐서플로우
- 엔비디아
엔지니어스 - Engineeus
YOLO(Darknet) - [0] 시작 {'험난한 여정\n';} 본문
본 포스트는 YOLO를 사용하여 원하는 정보를 얻는 작업을 어떻게 하는지 포스팅 해보고자 합니다.
목표!
1. Bounding Box 색을 를 바꾼다던지,
2. 목표물 좌표를 받아 온다던지,
3. 현재 보이는 차량 개수를 받는다던지,
4. 경고 Zone을 받는다던지,
5. 경고 Zone 안에 있는 물체만 경고를 띄운 다던지,
6. 클래스 이름을 바꾼다던지,
7. 원하는 클래스(차, 사람) 만 띄운다던지
무튼 여러가지를 할것 입니다.
여담으로 저의 목표는 나중에 RC카에 카메라를 달고, 경고 Zone 안에 물체가 있다면 정지 하거나, 물체가 없을시 다시 간다던지 하는 작업을 하려 합니다. 그리고 초음파센서나 LiDAR 와 같은 거리 센서와 융합하여 자율주행 시스템을 만들어 보려 합니다. 얼마나 걸릴지 모르겠으나 일단 영상처리 먼저 해결 하고 다른 작업은 해보도록 하겠습니다.
자! 일단 들어가기 전에
YOLO 란?
You Only Live Once가 아닌, You Only Look Once의 약어로 Joseph Redmon이 워싱턴 대학교에서 여러 친구들과 함께 2015년에 yolov1을 처음 논문과 함께 발표 했습니다. 당시만 해도 Object Detection에서는 대부분 Faster R-CNN(Region with Convolutional Neural Network)가 가장 좋은 성능을 내고 있었습니다. 딥러닝을 이용한 Object Detection의 역사를 보자면 일반 CNN -> R-CNN(0.05 FPS ) -> Fast R-CNN(0.5 FPS) -> Faster R-CNN(7 FPS) 이라고 보면 된다. 이런 시국에 YOLO라는게 등장하면서 45~155 FPS를 보여주어 엄청난 결과를 이루었습니다/
- 아래는 YOLO 논문 발표 영상
https://www.youtube.com/watch?v=NM6lrxy0bxs
무튼 영상에서 하는 말은 무지하게 빠른 디텍터라고 합니다.
- 아래는 YOLO의 데모 영상
현재는 YOLO v1 -> YOLO v2 를 거쳐 YOLO v3까지 나와 있습니다.
자세한 사항은 아래 YOLO 공식 홈페이지에 잘 나와 있습니다.
https://pjreddie.com/darknet/yolo/
그러면 다음 포스트 본 작업에 들어가기 전에 기초 이론을 갖기 위해 (즉, 성격 급하시면 건너 뛰셔도 된다는 말) '왜 YOLO가 이전 딥러닝을 사용한 Detector들 보다 빠를까?' 이를 공부 해 보고 본 작업에 들어가도록 하겠습니다.
- 다음 포스트
https://mickael-k.tistory.com/8
'Autonomous Tech. > Projects' 카테고리의 다른 글
[Ubuntu] TX2보드에서 YOLO 활용 신호등 검출 및 알림 - [1] (0) | 2020.03.28 |
---|---|
YOLO(Darknet) - [2] 설치 {'Windows ver.';} (7) | 2019.09.28 |
YOLO(Darknet) - [1] 사전 조사 {'왜 빠른걸까?!\n';} (0) | 2019.09.04 |