최종 !! docker로 텐서플로우, cuda gpu 설치 하는 방법 7일간 설치만 하면서 알아낸 2024년 4월 가장 …
페이지 정보
본문
nvidia 그래픽 드라이버만 다운로드 받은 후
wsl로 진입
툴킷 설치
http://127.0.0.1:8888/tree?token=46bdcdd2b2378c98ded37a3ae5e1f52058fcd3fb3d3d548c
////////////////
프로덕션 저장소를 구성합니다.
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
선택적으로 실험 패키지를 사용하도록 저장소를 구성합니다.
sed -i -e '/experimental/ s/^#//g' /etc/apt/sources.list.d/nvidia-container-toolkit.list
저장소에서 패키지 목록을 업데이트합니다.
sudo apt-get update
NVIDIA 컨테이너 툴킷 패키지를 설치합니다:
sudo apt-get install -y nvidia-container-toolkit
도커 구성
다음 명령을 사용하여 컨테이너 런타임을 구성합니다 nvidia-ctk.
sudo nvidia-ctk runtime configure --runtime=docker
이 명령은 호스트의 파일을 nvidia-ctk수정합니다 . /etc/docker/daemon.jsonDocker가 NVIDIA Container Runtime을 사용할 수 있도록 파일이 업데이트됩니다.
Docker 데몬을 다시 시작합니다.
sudo systemctl restart docker
////////////////////////////////
이거 실행
지피유 사용하겠다는 것
docker run -it --rm --runtime=nvidia -p 8888:8888 tensorflow/tensorflow:latest-gpu
여기 안에서 주피너 노트북 설치
pip install jupyter
주피터 노트북 실행
jupyter notebook --ip=0.0.0.0 --port=8888 --allow-root
/////////////////////////////////////////////////////
import numpy as np
#import matplotlib.pyplot as plt
import tensorflow as tf
import os
# TF_GPU_ALLOCATOR 환경 변수 설정
os.environ["TF_GPU_ALLOCATOR"] = "cuda_malloc_async"
print("cuda_malloc_async")
gpu_devices = tf.config.experimental.list_physical_devices('GPU')
if gpu_devices:
print('Using GPU')
# limit GPU Virtual Memory for 5GB
tf.config.experimental.set_virtual_device_configuration(gpu_devices[0],
[tf.config.experimental.VirtualDeviceConfiguration(memory_limit=1024*2)])
# tf.config.experimental.set_memory_growth(gpu_devices[0], True) # can't use when set_virtual_device
else:
print('Using CPU')
import tensorflow as tf
print("TensorFlow 버전:", tf.__version__)
print("TensorFlow 설치 위치:", tf.__file__)
cuda_malloc_async
Using GPU
TensorFlow 버전: 2.16.1
TensorFlow 설치 위치: /usr/local/lib/python3.11/dist-packages/tensorflow/__init__.py
7일간 설치만 했는데 드디어 해방인가 ? ㅋ ㅜㅜ
******************************************************
하지만 버그가 두려워서 파이토치로 넘어감 ㅋㅋㅋㅋㅋ
bye bye tensorflow ~
hello pytorch
i 'm happy to meeeeeeeeeeeet yoooooooyyoyooyoyoyoyyyyuuuuuu
i'm install pytorch
and just !!! 1 min later !!!
i'm using cuda !! oh ! my !! !!!
wsl로 진입
툴킷 설치
http://127.0.0.1:8888/tree?token=46bdcdd2b2378c98ded37a3ae5e1f52058fcd3fb3d3d548c
////////////////
프로덕션 저장소를 구성합니다.
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
선택적으로 실험 패키지를 사용하도록 저장소를 구성합니다.
sed -i -e '/experimental/ s/^#//g' /etc/apt/sources.list.d/nvidia-container-toolkit.list
저장소에서 패키지 목록을 업데이트합니다.
sudo apt-get update
NVIDIA 컨테이너 툴킷 패키지를 설치합니다:
sudo apt-get install -y nvidia-container-toolkit
도커 구성
다음 명령을 사용하여 컨테이너 런타임을 구성합니다 nvidia-ctk.
sudo nvidia-ctk runtime configure --runtime=docker
이 명령은 호스트의 파일을 nvidia-ctk수정합니다 . /etc/docker/daemon.jsonDocker가 NVIDIA Container Runtime을 사용할 수 있도록 파일이 업데이트됩니다.
Docker 데몬을 다시 시작합니다.
sudo systemctl restart docker
////////////////////////////////
이거 실행
지피유 사용하겠다는 것
docker run -it --rm --runtime=nvidia -p 8888:8888 tensorflow/tensorflow:latest-gpu
여기 안에서 주피너 노트북 설치
pip install jupyter
주피터 노트북 실행
jupyter notebook --ip=0.0.0.0 --port=8888 --allow-root
/////////////////////////////////////////////////////
import numpy as np
#import matplotlib.pyplot as plt
import tensorflow as tf
import os
# TF_GPU_ALLOCATOR 환경 변수 설정
os.environ["TF_GPU_ALLOCATOR"] = "cuda_malloc_async"
print("cuda_malloc_async")
gpu_devices = tf.config.experimental.list_physical_devices('GPU')
if gpu_devices:
print('Using GPU')
# limit GPU Virtual Memory for 5GB
tf.config.experimental.set_virtual_device_configuration(gpu_devices[0],
[tf.config.experimental.VirtualDeviceConfiguration(memory_limit=1024*2)])
# tf.config.experimental.set_memory_growth(gpu_devices[0], True) # can't use when set_virtual_device
else:
print('Using CPU')
import tensorflow as tf
print("TensorFlow 버전:", tf.__version__)
print("TensorFlow 설치 위치:", tf.__file__)
cuda_malloc_async
Using GPU
TensorFlow 버전: 2.16.1
TensorFlow 설치 위치: /usr/local/lib/python3.11/dist-packages/tensorflow/__init__.py
7일간 설치만 했는데 드디어 해방인가 ? ㅋ ㅜㅜ
******************************************************
하지만 버그가 두려워서 파이토치로 넘어감 ㅋㅋㅋㅋㅋ
bye bye tensorflow ~
hello pytorch
i 'm happy to meeeeeeeeeeeet yoooooooyyoyooyoyoyoyyyyuuuuuu
i'm install pytorch
and just !!! 1 min later !!!
i'm using cuda !! oh ! my !! !!!
- 이전글import pywintypes ImportError: No module named pywintypes fixed 24.04.01
- 다음글미니콘다3 환경에서 텐서 플로우 cuda 설치 성공 24.03.30
댓글목록
등록된 댓글이 없습니다.