pytorch
-
- [Python] ํ์ดํ ์น(PyTorch)์์ ์ฐ์ฐ ์ฅ์น ์ค์ ํ๊ธฐ (GPU, CPU)
ํ์ดํ ์น(PyTorch)์์ ์ฐ์ฐ ์ฅ์น ์ค์ ํ๊ธฐ (GPU, CPU) ๋ค์ด๊ฐ๋ฉฐ ํ์ดํ ์น(PyTorch)์์ ์ฐ์ฐ ์ฅ์น(GPU/CPU)๋ฅผ ์ค์ ํ๋ ์ฝ๋๋ฅผ ์์๋ณด์. ๋ฐฉ๋ฒ GPU ์ฌ์ฉ์ด ๊ฐ๋ฅํ ๊ฒฝ์ฐ @torch.device@๋ฅผ @cuda@๋ฅผ ์ค์ ํ๊ณ , ๊ทธ๋ ์ง ์์ ๊ฒฝ์ฐ @cpu@๋ฅผ ์ฐ์ฐ ์ฅ์น๋ก ์ค์ ํ๋ค. # GPU ์ค์ (์ฌ์ฉ ๊ฐ๋ฅํ ๊ฒฝ์ฐ) device = torch.device("cuda" if torch.cuda.is_available() else "cpu") print("device >>" , device)
2023.07.18 -
- [Python] ์๋์ฝ๋ค(Anaconda) ํ๋กฌํํธ์์ ML/DL ์ค์ต ํ๊ฒฝ ์ธํ ํ๊ธฐ (PyTorch)
์๋์ฝ๋ค(Anaconda) ํ๋กฌํํธ์์ ์ค์ต ํ๊ฒฝ ์ธํ ํ๊ธฐ (PyTorch) ๋ค์ด๊ฐ๋ฉฐ ๋จธ์ ๋ฌ๋(ML), ๋ฅ๋ฌ๋(DL) ์ค์ต์ ์ํด ์ปดํจํฐ์ ์๋์ฝ๋ค(Anaconda)๋ฅผ ์ค์นํ ํ, ์๋์ฝ๋ค ํ๋กฌํํธ๋ฅผ ํตํด ์ค์ต ํ๊ฒฝ์ ๊ตฌ์ถํ๋ ๊ณผ์ ์ ์ ๋ฆฌํด๋ณธ๋ค. ์ค์ต์ ํ๊ตญ ๋ง์ดํฌ๋ก์ํํธ(Microsoft Korea)์์ AI ํ๋ก์ ํธ ์ ์ ์ฉ๋๋ก ์ ๊ณตํด์ค ์ ์ (Azure) ํด๋ผ์ฐ๋ ์๋์ฐ VM์ ์ด์ฉํ์ฌ ์งํํ์๋ค. (์ด ํด๋ผ์ฐ๋ ์๋์ฐ VM์ ์ด์ฉํ์ฌ ์์ผ๋ก 2๊ฐ์ ๋์ ํ์ดํ ์น(PyTorch)๋ฅผ ์ด์ฉํ์ฌ AI ํ๋ก์ ํธ๋ฅผ ์งํํ ์์ ์ด๋ค.) ์ค์ตํ๊ธฐ ์ด๋ฒ ์ค์ต์ ๊ทธ๋ํฝ ์นด๋(NVIDIA Tesla T4)๊ฐ ๋ด์ฅ๋ ์ ์ (Azure) ํด๋ผ์ฐ๋์ Windows Server 2019 VM์์ ์งํํ์๋ค. (์ด VM์ ์์ธํ..
2023.07.12