source ~/.zshrc nvcc --version을 입력하였을 때 Not Found가 뜬다면 두가지 이유 중 하나로 볼 수 있다. 1. cuda 설치가 잘못 되었음. 2. path 설정이 안되어있음. 첫번째 이유는 cuda를 지우고 다시 설치하면 되고, 두번째 이유는 path 설정을 해주면 된다. 응? solution이 이상하군. 여튼 path설정을 하는 command 3개를 기록해둔다. export PATH=/usr/local/cuda-10.0/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda-10.0/lib64:$LD_LIBRARY_PATH source ~/.zshrc 참고) 나는 cuda 10.0을 쓰고 있기 때문에 /usr/local/cuda-10.0의 ..
RTX 3090 은 CUDA 11 version 부터 지원한다. 때문에 CUDA 10.x version을 사용하는 open source에 3090을 이용하려고 하면 동작하지 않을 수 있다. 나 같은 경우는 machine 자체에는 CUDA 11이 깔려있지만, docker로 10.2를 받았는데, 그 안에서 error는 안나지만 training이 제대로 되지 않는 문제가 발생하였다. 내가 쓰고 있는 machine을 2080TI, 3090, GTX 1080을 전부 가지고 있는 machine이라 training GPU를 RTX 2080TI로 바꿔주니 Training accuracy가 잘 올라가며 정상적으로 training 되었다. 음... 3090 + CUDA 10.2 setup에서 왜 당장 error를 안내고 ..
(이 글은 ubuntu 18.04를 기준으로 작성되었습니다) (error handling 기록용으로 작성된 것이므로 정확하지 않은 지식이 포함되어있을 수 있습니다) tensorflow-gpu를 설치하고 import tensorflow as tf tf.test.is_gpu_available() 을 수행하였을 때 False값이 나왔다. 띠용... GPU가 잘 잡히고 있는지 확인할 때 쓰는 방법으로도 확인을 해보았다. from tensorflow.python.client import device_lib device_lib.list_local_devices() 결과는 이런식으로 CPU와 XLA_GPU만 잡혔다. 여기에 GPU가 잡혀야 GPU를 제대로 사용할 수 있다고 한다. 고치기 위해... 총총.. tf.te..
- Total
- Today
- Yesterday
- numpy
- torchscript
- Python
- 다익스트라
- docker
- matplotlib
- 프로그래머스
- notfound
- LGSVL
- BFS
- error
- n과m
- 이것이코딩테스트다
- version
- 설치
- CUDA
- 카카오
- pytorch
- PIP
- 설치하기
- 백트래킹
- dfs
- 백준
- 코딩테스트
- shellscript
- 파이썬
- tensorflow
- 최소신장트리
- torch
- 동적프로그래밍
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
