최종 !! docker로 텐서플로우, cuda gpu 설치 하는 방법 7일간 설치만 하면서 알아낸 2024년 4월 가장 빠르고 가장 확실한 방법 > 자유게시판

본문 바로가기

사이트 내 전체검색

뒤로가기 자유게시판

최종 !! docker로 텐서플로우, cuda gpu 설치 하는 방법 7일간 설치만 하면서 알아낸 2024년 4월 가장 …

페이지 정보

작성자 최고관리자 작성일 24-04-01 06:16 조회 793 댓글 0

본문

nvidia 그래픽 드라이버만 다운로드 받은 후


wsl로 진입



툴킷 설치
http://127.0.0.1:8888/tree?token=46bdcdd2b2378c98ded37a3ae5e1f52058fcd3fb3d3d548c
////////////////

프로덕션 저장소를 구성합니다.

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
선택적으로 실험 패키지를 사용하도록 저장소를 구성합니다.

sed -i -e '/experimental/ s/^#//g' /etc/apt/sources.list.d/nvidia-container-toolkit.list
저장소에서 패키지 목록을 업데이트합니다.

sudo apt-get update
NVIDIA 컨테이너 툴킷 패키지를 설치합니다:

sudo apt-get install -y nvidia-container-toolkit
도커 구성
다음 명령을 사용하여 컨테이너 런타임을 구성합니다 nvidia-ctk.

sudo nvidia-ctk runtime configure --runtime=docker
이 명령은 호스트의 파일을 nvidia-ctk수정합니다 . /etc/docker/daemon.jsonDocker가 NVIDIA Container Runtime을 사용할 수 있도록 파일이 업데이트됩니다.

Docker 데몬을 다시 시작합니다.

sudo systemctl restart docker


////////////////////////////////





이거 실행

지피유 사용하겠다는 것

docker run -it --rm --runtime=nvidia -p 8888:8888 tensorflow/tensorflow:latest-gpu     

여기 안에서  주피너 노트북 설치
pip install jupyter

주피터 노트북 실행 

jupyter notebook --ip=0.0.0.0 --port=8888 --allow-root







/////////////////////////////////////////////////////

import numpy as np
#import matplotlib.pyplot as plt
import tensorflow as tf
import os

# TF_GPU_ALLOCATOR 환경 변수 설정
os.environ["TF_GPU_ALLOCATOR"] = "cuda_malloc_async"
print("cuda_malloc_async")
gpu_devices = tf.config.experimental.list_physical_devices('GPU')
if gpu_devices:
    print('Using GPU')
    # limit GPU Virtual Memory for 5GB
    tf.config.experimental.set_virtual_device_configuration(gpu_devices[0],
        [tf.config.experimental.VirtualDeviceConfiguration(memory_limit=1024*2)])
    # tf.config.experimental.set_memory_growth(gpu_devices[0], True) # can't use when set_virtual_device
else:
    print('Using CPU')

    import tensorflow as tf
print("TensorFlow 버전:", tf.__version__)
print("TensorFlow 설치 위치:", tf.__file__)

cuda_malloc_async
Using GPU
TensorFlow 버전: 2.16.1
TensorFlow 설치 위치: /usr/local/lib/python3.11/dist-packages/tensorflow/__init__.py

7일간 설치만 했는데 드디어 해방인가 ?  ㅋ  ㅜㅜ


******************************************************
하지만 버그가 두려워서  파이토치로 넘어감 ㅋㅋㅋㅋㅋ


bye bye tensorflow  ~

hello  pytorch 

i 'm  happy to meeeeeeeeeeeet  yoooooooyyoyooyoyoyoyyyyuuuuuu


i'm install pytorch
and  just !!!  1  min  later  !!!   

i'm  using  cuda  !!    oh !  my  !! !!!

댓글목록 0

등록된 댓글이 없습니다.

회사소개 개인정보처리방침 서비스이용약관

사이트 정보

..

Copyright © magu.co.kr. All rights reserved.
PC 버전으로 보기