상세 컨텐츠

본문 제목

AI학습을 위한 기본적인 환경세팅

코딩하는코알라/AI

by 룰루랄라코알라 2024. 1. 29. 07:54

본문

LLM 모델을 학습 시키기전 사전 환경세팅이 필요하다. 

 

운영 체제 (OS)

  • 리눅스 (Ubuntu 또는 CentOS 추천): 대부분의 딥러닝 연구 및 개발은 리눅스 환경에서 이루어집니다. 리눅스는 높은 성능, 뛰어난 호환성, 그리고 커스터마이징의 용이성 때문에 선호됩니다. Ubuntu는 사용자 친화적이며, 널리 사용되는 배포판입니다. CentOS는 안정성이 뛰어나 서버 환경에 적합합니다.

드라이버 및 도구

  • NVIDIA 드라이버: GPU를 사용하기 위해 최신 NVIDIA 드라이버를 설치해야 합니다.
  • CUDA Toolkit: NVIDIA의 GPU를 사용하기 위한 필수 도구입니다. PyTorch와 TensorFlow는 모두 CUDA를 통해 GPU 가속을 사용합니다.
  • cuDNN: CUDA Deep Neural Network library는 딥러닝에 최적화된 고성능 라이브러리입니다. 복잡한 텐서 연산을 GPU에서 빠르게 수행할 수 있도록 지원합니다.

딥러닝 프레임워크

  • TensorFlow: TensorFlow는 매우 널리 사용되며, 다양한 플랫폼과 기기에 대한 지원이 장점입니다. 텐서보드와 같은 시각화 도구도 매우 유용합니다.
  • PyTorch: PyTorch는 특히 연구 커뮤니티에서 인기가 높습니다. 동적 계산 그래프와 직관적인 API가 장점입니다. PyTorch는 또한 분산 학습을 지원하여, 멀티 GPU 환경에서의 학습을 쉽게 확장할 수 있습니다.

추가 도구 및 라이브러리

  • Anaconda: Anaconda는 데이터 과학과 AI 연구를 위한 가장 인기 있는 Python 배포판입니다. 다양한 라이브러리와 도구를 쉽게 설치하고 관리할 수 있습니다.
  • Docker: Docker는 소프트웨어를 컨테이너 내에 격리하여 실행할 수 있게 해주는 도구입니다. 이를 통해 의존성 관리가 쉬워지며, 다양한 환경에서의 일관된 학습 및 배포가 가능합니다.
  • Git: 코드 버전 관리를 위해 Git을 사용하는 것이 좋습니다. 이는 협업과 코드의 버전 관리에 매우 중요합니다.

모니터링 및 관리 도구

  • NVIDIA System Management Interface (nvidia-smi): GPU의 사용량, 온도 등을 모니터링하는 데 사용됩니다.
  • htop / ntop: 시스템의 리소스 사용량을 실시간으로 모니터링하는 도구입니다.

기본적으로 설치가 필요하고  좀더 자세하게 보면 

1. 시스템 업데이트

시스템을 최신 상태로 유지하고, 필요한 패키지를 설치하기 전에 패키지 목록을 업데이트합니다.

sudo apt-get update
sudo apt-get upgrade

 

2. NVIDIA 드라이버 설치

NVIDIA GPU를 사용하기 위해, 해당 GPU에 맞는 최신 드라이버를 설치합니다.

ubuntu-drivers devices
sudo ubuntu-drivers autoinstall

3. CUDA Toolkit 설치

CUDA Toolkit을 설치하여 GPU에서 딥러닝 연산을 수행할 수 있게 합니다. NVIDIA 공식 웹사이트에서 해당 GPU에 맞는 CUDA 버전을 확인하고, 그에 따른 설치 명령을 수행합니다.

# 예시: CUDA 11.2 설치
sudo apt-get install cuda-11-2

4. cuDNN 설치

딥러닝 프레임워크의 성능을 향상시키기 위해, NVIDIA의 cuDNN 라이브러리를 설치합니다. cuDNN은 NVIDIA 개발자 웹사이트에서 다운로드할 수 있으며, 설치 지침을 따라야 합니다.

5. Python 및 필요한 패키지 설치

Python과 pip를 설치하고, AI 개발에 필요한 패키지들을 설치합니다.

sudo apt-get install python3 python3-pip
pip3 install numpy pandas matplotlib jupyter

 

6. 딥러닝 프레임워크 설치

PyTorch 또는 TensorFlow를 설치합니다. PyTorch 설치 시 CUDA 버전에 맞는 명령을 선택해야 합니다. TensorFlow는 pip를 통해 간단히 설치할 수 있습니다.

PyTorch 설치:

# PyTorch 공식 웹사이트에서 CUDA 버전에 맞는 명령을 확인하세요.
pip3 install torch torchvision torchaudio

TensorFlow 설치:

pip3 install tensorflow

7. Jupyter Notebook 또는 JupyterLab 설치

Jupyter Notebook 또는 JupyterLab을 설치하여 브라우저 기반의 인터랙티브 개발 환경을 사용할 수 있습니다.

pip3 install jupyterlab

8. 환경 변수 설정

CUDA와 관련된 환경 변수를 설정해야 할 수 있습니다. 이는 .bashrc 또는 .profile 파일에 추가할 수 있습니다.

# .bashrc 파일에 추가
export PATH=/usr/local/cuda/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}

 

9. 시스템 재부팅 및 검증

설정이 완료된 후 시스템을 재부팅하고, 설치된 드라이버와 도구들이 올바르게 작동하는지 확인합니다.

NVIDIA 드라이버 검증: nvidia-smi

CUDA 설치 검증: nvcc --version

 

이정도면 기본적인 환경은 설정으로 사용 할수 있습니다. 

반응형

관련글 더보기