문서의 임의 삭제는 제재 대상으로, 문서를 삭제하려면 삭제 토론을 진행해야 합니다. 문서 보기문서 삭제토론 알파고 (문단 편집) == 사양 정보 == ||[[파일:external/3.bp.blogspot.com/tpu-1.png]]|| || [[TPU]] 알파고 실물 || 초기엔 하드웨어로는 [[CPU]]와 [[NVIDIA]] [[GPGPU|GPU]]를 이용한 병렬 계산을 사용한다고 발표했다. 물론 가장 중요한 것은 하드웨어보다 소프트웨어 쪽으로. 이렇게 병렬연결된 상태의 알파고 vs 싱글 알파고 간의 바둑에선 77% vs 23%의 승률이 나왔다고 한다. 개별 컴퓨터가 20% 이상의 승률을 보여줬다는 것만으로도 얼마나 학습이 잘 되어 있는지를 알려주는 대목이다. 판후이와의 대결에서의 알파고는 1202개의 CPU와 176개의 GPU를 사용했다. 2016년 3월의 [[이세돌|이세돌 九단]]과의 대결에서는 GPU 대신 48개의 [[TPU]]를 사용했다. 마스터 버전과 제로 버전에서는 대폭 줄여 4개의 TPU만을 사용했다. TPU라는 게 뭐냐 하면 딥 러닝에서 주로 사용되는 벡터/행렬 계산을 병렬처리할 수 있게끔 특화된 하드웨어이다. 물론 GPU도 해당 목적으로 사용되기는 하지만 GPU에 비해 TPU는 넘사벽급의 와트당 전성비를 자랑한다. 결국 [[구글]]은 1년 전부터 TPU를 사용하고 있었고 딥 러닝 오픈소스 툴 [[텐서플로]]도 TPU용으로 개발된 것이었으며, 외부에 공개한 TensorFlow는 GPU용으로 이식한 것이다. [[https://cloudplatform.googleblog.com/2016/05/Google-supercharges-machine-learning-tasks-with-custom-chip.html|구글 엔지니어 블로그]] [[http://www.theverge.com/circuitbreaker/2016/5/19/11716818/google-alphago-hardware-asic-chip-tensor-processor-unit-machine-learning|해외기사]] [[https://tensorflowkorea.wordpress.com/2016/05/19/tensor-processing-unittpu/|TPU?]] 알파고가 항복하면서 띄운 팝업창의 모습을 보면 최소한 모니터가 설치된, 클라이언트에 해당하는 컴퓨터에서는 [[우분투]]가 사용되는 듯 하다. [[https://www.edaily.co.kr/news/read?newsId=02355046612582992|관련기사]] 다만 분산 컴퓨팅을 하는 알파고의 특성상 여러 개의 컴퓨터와 연동되어 작동하게 되어 있는데, 나머지 시스템의 OS도 우분투인지는 알려지지 않았다.저장 버튼을 클릭하면 당신이 기여한 내용을 CC-BY-NC-SA 2.0 KR으로 배포하고,기여한 문서에 대한 하이퍼링크나 URL을 이용하여 저작자 표시를 하는 것으로 충분하다는 데 동의하는 것입니다.이 동의는 철회할 수 없습니다.캡챠저장미리보기