- Today
- Total
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- Nvidia
- DNN
- Linux
- 라즈베리파이
- Windows
- agx
- ubuntu
- python
- GPU
- openCV
- Darknet
- YOLO
- tx2
- 엔비디아
- Jetson
- Xavier
- Tistory
- cuda
- openpose
- 물체검출
- 티스토리
- 파이썬
- tensorflow
- 영상처리
- 방법
- 텐서플로우
- 딥러닝
- 애드센스
- 설치
- 블로그
목록Autonomous Tech. (104)
엔지니어스 - Engineeus
gedit ~/.bashrc export OPENBLAS_CORETYPE=ARMV8 # write down below source ~/.bashrc
sudo apt autoremove
W: An error occurred during the signature verification. The repository is not updated and the previous index files will be used. GPG error: http://packages.ros.org/ros/ubuntu xenial InRelease: The following signatures were invalid: KEYEXPIRED 1622248854 W: Failed to fetch http://packages.ros.org/ros/ubuntu/dists/xenial/InRelease The following signatures were invalid: KEYEXPIRED 1622248854 W: Som..
SDK Manager - installation of VisionWorks on Host failed SDK Manager - installation of VisionWorks on Host failed Hi, Could you please help me with installation errors that I get ? I use SDK Manager 0.9.14.4961, and it fails on Computer Vision -> VisionWorks on Host. I get the following errors: 16:02:41 ERROR : VisionWorks on Host : E: Failed to fetch http://ca.archiv forums.developer.nvidia.com..
문제 발생 rm: cannot remove 'home/XX/: Device or resource busy 해결 sudo umount -f /home/XX XX: directory name
rmdir: failed to remove 'XX': Directory not empty rm: failed to remove 'XX': Directory not empty rm -rf XX XX : directory name -f = to ignore non-existent files, never prompt -r = to remove directories and their contents recursively

myAHRS+ (IMU 센서 모듈)와 아두이노를 연결하였습니다. USB를 통해 아두이노에 전원을 주고 있습니다. 보다시피 USB로 전원을 아두이노에게 주고, 여기서 pin으로 myAHRS+의 5V입력에 연결을 했습니다. 하지만 아두이노에는 LED에 불이 들어와 잘 전원이 공급 되지만, 이게 myAHRS+까지 전원이 인가 되지 않는 경우가 있더군요. (때론 되고, 때론 안되고) 전압이 충분치 못하다고 생각 하여 아두이노에 추가 전원을 달기로 했습니다. 일단 몇 Voltage인지 아두이노의 전원 입력을 확인 해보았습니다. Microcontroller ATmega328P Operating Voltage 5V Input Voltage (recommended) 7-12V Input Voltage (limit) 6..

저는 I2C 통신을 할겁니다. myAHRS는 USB, UART, I2C 통신이 가능합니다. 그 중에 I2C 통신으로 "아두이노-myAHRS+" 이렇게 통신을 구현하려 합니다. 자 그럼 설명서를 열어 핀맵을 봅시다. *설명서 참고 보면 아래와 같습니다. 일단 전원 +5V 주어야 기계가 동작을 할테고, GND에 접지를 시켜야

1. 모니터 프로그램 다운로드 - 아래 링크 이용 withrobot.com/sensor/myahrsplus/ myAHRS+ – WITHROBOT Performance comparison between myAHRS+ and MPU9150 MotionFit wireless(Centripetal acceleration) withrobot.com - 프로그램 설치 2. IMU 센서와 컴퓨터를 연결한다. - 이때 케이블에 따라 연결이 될때도 있고 안되는 케이블이 있으므로 주의. - - 프로그램 실행 - port 연결 - Baudrate : 115200 - 실행 다음 포스트는 Calibration에 대해 다룹니다.

모니터 프로그램의 설정갑 세팅에 관련한 포스트 입니다. - 실행 - 설정 - 센서 ID, Baudrate, Divider, protocol, transfer mode, 등등 표현 방법 및 속도에 대하여 설정 가능 합니다. 추가 자료 https://www.youtube.com/watch?v=VH0rL51dFvU

myAHRS+란? myAHRS+는 관성센서와 지자기센서의 출력을 융합하여 3차원 공간상의 방위각과 자세를 나타내주는 센서모듈 입니다. *관성센서 : 가속도계, 자이로스코프를 칭하는 센서 센서 종류 3축 자이로스코프(Gyroscope) 3축 가속도(Accelerometer) 3축 지자기(Geomagnetic Sensor) 출력 최대 속도 100 Hz 출력 데이터 자세 : Euler angle, Quaternion 센서 데이터: 가속도, 회전속도, 지자기 통신방법 UART, I2C, USB 통신을 지원 합니다. - UART : 9,600~460,800 bps) - I2C : ~1kHz - USB : Virtual Comport로 연결. (Windows, Linux, OSX 지원) 크기 21mm x 27mm로..

prototxt - 네트워크 구조가 담긴 파일 - 이를 수정 하여 네트워크 성능을 개선 caffemodel - prototxt의 네트워크로 학습 시킨 모델 - Weight 와 Bias가 담겨져 있음 - 일반적으로 볼 수 없는 파일 이지만 Caffe 플랫폼으로는 열어서 수정 가능하다. 추가 정보 More Information Caffe (Convolutional Architecture for Fast Feature Embedding) is a deep learning framework that allows users to create image classification and image segmentation models. Initially, users create and save their models..

start() { 시작에 앞서 본 포스팅은 아래 순서로 작성 될 예정입니다. 이번 포스트는 1번 'OpenPose' 이론에 해당 합니다. 1. OpenPose 이론 2. OpenPose를 하기 위한 환경 설정 (Ubuntu 기반) 3. OpenPose 작동시켜보고 KeyPoint 데이터 출력 해 보기 4. Python Code를 이용하여 OpenPose를 이미지, 영상, 웹캠 등으로 작동 시켜보기 시작 전 Human Pose Estimation에 관한 제 포스팅을 보고 오시면 더 이해가 잘 되리라 봅니다. mickael-k.tistory.com/151 Human Pose Estimation (휴먼 포즈 에스티메이션, 인간 자세 예측) Human Pose Estimation은 인간이 어떤 자세를 하고 있는..

Human Pose Estimation은 인간이 어떤 자세를 하고 있는지에 관해 예측을 하는 것입니다. 전통적인 방식 전통적인 자세 인식 방법은 사람에게 장비를 부착하여 측정을 하였습니다. 아래와 같은 사진으로 관절, 손가락 마디의 위치에 센서를 달아 측정이 가능하도록 연구가 되어왔죠. 위와같은 전통적인 방식은 움직임을 정교하게 파악 할 수 있습니다. x, y, z 3차원의 측면에서 본다면 어떻게 움직이는지 정확하게 알 수 있죠. 하지만! 우리에게 중요한건 무엇!? COST 죠? 돈이 많이 듭니다. 저런 장비 하나 부착하기도 번거롭고 시간소모도 있고, 모든 사람마다 체형이 다르고, 공간이 한정적인 곳에서만 해야 합니다. 전기를 넣어줘야 하기에 베터리나 전선들도 들어가서 움직임 또한 제한되죠. 새로운 시도..
설치 전 기존 이론 공부 하실 분들은 아래를 참고하세요~! 알고 접하면 더욱 더욱 이해가 쉽습니다. mickael-k.tistory.com/152?category=798521 환경설정 cmake 다시 설치 - 사전 설치된 것 삭제: sudo apt purge cmake-qt-gui - 재설치: sudo apt-get install qtbase5-dev - CMake 는 사이트에서 리눅스용을 다운받고, 압축해제하여 터미널로 해당 폴더로 이동해서 ./configure --qt --gui 실행 - 아래의 명령이 작동이 안되어서 그 아래의 명령어를 사용했음 - ./bootstrap && make -j8 && make install -j8 - ./bootstrap && make -j`nproc` && sudo m..