데이터 센터

덤프버전 :

파일:다른 뜻 아이콘.svg
IDC은(는) 여기로 연결됩니다.
beatmania IIDX의 수록곡에 대한 내용은 IDC feat. REVERBEE(Mo'Cuts Ver) 문서
IDC feat. REVERBEE(Mo'Cuts Ver)번 문단을
IDC feat. REVERBEE(Mo'Cuts Ver)# 부분을
, Ideographic Description Character에 대한 내용은 한자 모양 설명 문자 문서
#s-번 문단을
# 부분을
, {{{#!html }}}에 대한 내용은 문서
#s-번 문단을
#s-번 문단을
# 부분을
# 부분을
, {{{#!html }}}에 대한 내용은 문서
#s-번 문단을
#s-번 문단을
# 부분을
# 부분을
, {{{#!html }}}에 대한 내용은 문서
#s-번 문단을
#s-번 문단을
# 부분을
# 부분을
, {{{#!html }}}에 대한 내용은 문서
#s-번 문단을
#s-번 문단을
# 부분을
# 부분을
, {{{#!html }}}에 대한 내용은 문서
#s-번 문단을
#s-번 문단을
# 부분을
# 부분을
, {{{#!html }}}에 대한 내용은 문서
#s-번 문단을
#s-번 문단을
# 부분을
# 부분을
, {{{#!html }}}에 대한 내용은 문서
#s-번 문단을
#s-번 문단을
# 부분을
# 부분을
, {{{#!html }}}에 대한 내용은 문서
#s-번 문단을
#s-번 문단을
# 부분을
# 부분을
참고하십시오.




파일:20141216_CLO.jpg
네이버가 운영하는 데이터센터 각의 서버실 모습

1. 개요
2. 특징
2.1. 입지 조건
2.1.1. 님비시설
2.2. 설계 지향점
2.3. 온도 관리
2.4. 정전 방지
2.5. 누수 감지
3. 데이터 센터를 보유한 기업
3.1. 대한민국
3.2. 미국
4. 개인 서버 vs. 데이터 센터
5. 여담



1. 개요[편집]


Data Center[A] 또는 Data Centre[B].

인터넷과 연결된 데이터를 모아두는 시설. 통신 기기인 라우터와 수많은 서버, 그리고 안정적 전원 공급을 위한 UPS 등으로 구성된다. 서버 호텔이라는 표현도 있다. 보통 IDC(Internet Data Center[A] 또는 Internet Data Centre[B])라고 부르며, 클라우드 컴퓨팅을 위한 데이터 센터는 CDC(Cloud Data Center[A] 또는 Cloud Data Centre[B])라고 하는데 이 역시 일반적으로는 IDC나 데이터 센터라고 지칭한다. 기술 발전으로 일반적인 데이터 센터들도 이제는 클라우드 컴퓨팅 기능을 모두 포함하고 있기 때문이다.

라우터가 인터넷을 구축하는데 가장 중요하다면, 서버인터넷 서비스를 만들어 내는 데 가장 중요하다. 서버를 안정적으로 운용하며, 인터넷과의 연결을 고속화하고 지리적으로 중앙집중화 시킬 필요가 있을 때 설립된다. 한정된 공간에 많이 몰아놔야 이득이기 때문에 서버는 대개 랙마운트 형을 쓴다.

데이터센터는 규모나 안정 설비에 따른 등급#이 있으며, 친환경 에너지를 활용하여 PUE(Power usage effectiveness) 수치를 낮추는 그린 데이터센터#, 10만대 이상의 서버 수용이 가능한 하이퍼스케일 데이터센터#와 같은 다양한 유형이 있다. 근래 준공된 데이터센터는 클라우드 시장의 급성장에 맞춰 데이터센터를 고밀도로 사용하기 위해 전력도 기존 보다 높은 40MW 이상으로 공급 받고 있다.

2. 특징[편집]



2.1. 입지 조건[편집]


데이터 센터는 '저인력'과 '온라인 연계'라는 장점 덕분에 다른 시설들과 달리 주변 지역의 요건이나 산업 연계를 고려할 필요가 거의 없다. 예를 들어 수출입과 관련된 공장이라면 수송 기반이나 항만 시설과의 거리 등을 따질 수밖에 없다. 고전력이 필요한 시설이라면 송전 시설과 발전소와의 거리가 중요하다. 밀집된 노동력이 요구된다면 자연스레 근처의 주거 환경, 교통, 사회 인프라를 따지게 된다. 입지가 열악하면 노동자들이 기피할 것이기 때문이다.

하지만 데이터 센터는 규모에 비해 인프라가 거의 필요하지 않다. 데이터센터에서는 물류 이동이 없다. 서버의 하드웨어와 각종 설비를 관리할 인력을 제외하고는[1] 노동력도 필요하지 않기에 데이터센터의 입지는 교통과는 전혀 무관하다. 데이터 센터가 비교적 전력을 많이 쓰는 시설이기는 하나, 제철소공장 수준으로 많이 쓰는건 아니며 대부분 기존 전력 인프라가 감당할 수 있는 수준이다. 사실 데이터 센터는 인터넷만 연결될 수 있다면 어디든 건설 가능하다. 별다른 인프라가 없는 외딴 시골에 지어도 되는 것이 바로 데이터 센터다. 또한 데이터 센터는 데이터 센터 외 업무시설이 같이 구축되어 타 지역 근무인력의 지역 유입을 기대할 수 있다.

오히려 일부러 오지에 짓기도 하는 게 데이터센터이다. 이유는 여러가지이나[2] 가장 중요한 이유는 부지 가격이 저렴하기 때문이다.

오히려 데이터센터는 산업 인프라보다는 자연환경에 더 많은 영향을 받는다. 데이터센터에서는 가장 중요한 요소가 쿨링인데, 비교적 서늘한 기후를 가진 지역이라면 공조시설을 설치하는 비용도 줄일 수 있고, 냉각에 들어가는 전기료도 줄일 수 있다.

이러한 이유로 전세계적으로 지방정부나 지자체에서는 투자유치를 통해 서로 모셔가려고 하는 기반시설이다. 일례로 2018년 인천 송도지역에서 구글 데이터 센터 유치를 위해 인근 주민들이 환영 현수막을 걸고, 구글의 행사장에서 투자유치를 촉구하는 브로셔를 돌린 사례도 있다. 부산광역시, 강원도, 경기남부의 평택시, 전라북도, 서울특별시, 경기남부의 성남시 판교 등 주요 지자체에서 데이터 센터 유치를 위한 혜택, 산업단지 조성을 적극 추진 중이다.

국내 기준으로 일단 1동의 데이터 센터가 구축되는데 설계/시공/기초장비(전력, 공조, 방재, 보안 등) 구축에 약 1,500~2,000억 원이 투자되며, 서버실 내 컴퓨팅 장비를 모두 채우는데 약 2~3배가 더 투자된다. 대략 잡아도 데이터 센터 1개 건축 및 운영에 5,000~8,000억 원 정도가 투자되며, 한번 건축되면 15~20년은 안정적으로 유지되기 때문에 장기적이고 안정적인 세수, 건축 등에 따른 일시적 지역경기 부양에 긍정적이다.

하지만 데이터 센터가 유발하는 지역경제에 미치는 파급력에 대해 회의적인 시각이 우세하다. 데이터 센터를 건축하려면 많은 자금이 투입되는 건 사실이나 건축을 위해서는 고도의 기술력이 필요하므로 지역의 건설사가 아닌 서울의 대형 건설사가 짓는 경우가 일반적이다. 내부의 서버나 네트워크 장비 또한 대부분 유명한 외산 장비를 대량 구매하여 사용하기 때문에 지역의 벤더들에게 판매할 권한이 생길 확률도 낮다. 지역 고용 창출 효과도 낮은데, 기술 발전으로 인해 지어지는 데이터 센터들 상당수가 무인화되었기 때문에 소수의 인원만이 데이터 센터 운영을 위해 해당 지역에 거주하게 되기 때문에 인력 유입에 따른 지역경제 활성화도 기대하기 어렵다. 지자체 입장에서도 본사가 데이터 센터로 이전하여 법인세 등을 내지 않는 한 걷을 수 있는 세수라곤 재산세 등 부동산 관련 세금 외에는 없다. 위에서 언급했듯이 데이터 센터의 경우 널널한 입지 조건 등의 이유로 지가가 싼 곳이 입지가 되는 경우가 많은데 이런 곳은 교통이 불편하고 기반 시설이 부족하여 직원들이 본사 이전을 찬성하지 않을 가능성이 높아 본사 이전 확률은 없다고 봐도 된다.

2.1.1. 님비시설[편집]


데이터센터는 대표적인 님비시설이다. 지역 주민들이 전자파가 나온다, 교통체증이 발생한다 등등 어디서 주워들은 이상한 말로 근거도 없이 각종 개드립을 치면서 철저하게 건립을 막으려고 시도하고 있다. 실제로 인근 주민 입장에서는 넓은 부지를 점유하면서도 적은 상주인원으로 주변 상권의 경제에도 도움되지 않고 B2B시설로 일반인들의 직접 방문,이용이 불가능하며 냉방시설로 인한 열섬현상도 유발하는 데이터 센터를 반길리가 없다. 이 때문에 수많은 데이터센터들이 도심지에서 밀려나서 외곽지역이나 아예 오지까지 밀려나기도 한다. 이런 반응은 해외도 똑같다. 이는 차량사업소도 마찬가지로 공유하는 특징이다. 차량사업소의 경우 님비시설을 넘어 대표적인 혐오시설이다.

  • 크고 아름다운 면적을 차지하고 사실상 24시간 가동하면서 보안사항 및 위험요소가 있어서 주변에 접근하기도 힘들다.
  • 시설은 매우 크지만 자동화 시스템으로 근무인원이 적어서 근무자들을 대상으로 한 상권이 전혀 형성되지 않으며, 소수의 전문기술직만 필요하므로 부근 사람들의 일자리 창출에도 도움이 안된다. 한마디로 속 빈 강정.
  • 냉방시설로 인한 열섬 현상이 매우 심화된다.

구로구 오류동 데이터센터 관련 님비
파일:오류동 데이터센터3.jpg
서울가든빌라 앞에 있는 오류동 데이터센터 개발 님비
파일:오류동 데이터센터.png
파일:오류동 데이터센터2.png
구로구청 홈페이지에 올라온 오류동 데이터센터 개발 반대 민원과 구로구청에서 올린 답변.

관련 보도.

2023년 벌어지는 예시로 서울특별시 구로구 오류동 구 화창기공 부지에 들어서는 데이터센터에 대한 님비. 화창기공은 2022년 초 폐업하고 데이터센터 개발하는 사업체한테 온수역 역세권에 있는 자사의 부지를 매각하였다. 기사 이 자리에 들어오는 데이터 센터 주변에는 서울가든빌라라고 하는 노후한 빌라 단지가 있는데, 여기 사는 노인들이 구로구청에 각종 민원을 내면서 님비를 하고 있다.

2.2. 설계 지향점[편집]


데이터 센터는 땅값이 저렴한 지역인 산 중턱을 깎거나, 바다를 매립한 지역에 주로 세워진다. 두 지형 모두 지반 문제로 일반적인 건물 용지로는 써먹기 부적절한 면들이 있는데 데이터 센터는 지반을 깊게 파야 할 필요가 없기 때문이다.

인터넷 서비스를 제공하는 비용을 최소화하려면 서버들을 한 곳에 모아놓는 편이 유리하다. 데이터 센터는 서버가 요구하는 모든 자원을 건물 자체에서 조달할 수 있도록 만들어진다. 항온항습이 유지되는 공조기, 먼지를 제거하는 에어필터, 이중화 전원 및 전원안정화 설비, UPS 시설을 통한 정전 대비, 저지연 고대역 네트워크, 보안 및 기술지원 인력 등을 제공한다.

데이터 센터 건물은 이런 요구사항을 달성해야 하므로 일반 사무실이나 공장과는 다른 방식으로 지어진다. 예를 들어 발열량이 엄청난 서버의 열을 신속하게 식히기 위해 공조 설비가 건물 설계시부터 대규모로 반영된다. 반면 부지 규모에 비해 화장실이나 조리시설, 엘리베이터 수는 적게 설계된다. 사람이 이용하는 부가 시설이 많이 설계될 필요가 없기 때문이다.

국내의 경우 건축법상 데이터 센터용 분류가 없어 공장, 사무실 등으로만 용도 허가가 난다는 문제가 있다. 이 때문에 불필요하게 주차장, 엘리베이터, 공개공지 등 100명 단위 인원이 활용하는 건물로 건축하고 그 안에 10~20명이 근무하여 비효율적으로 운영되고 있는 실정이다.[3] 때문에 한국의 데이터센터는 땅값이 싼 비도심 지역이 아니라 아예 도심 한복판에 만들어서 해당 기업의 사무건물 겸용으로 쓰는 경우가 많다.

2018년 데이터 센터 건축물 용도가 방송통신시설 밑에 신설되었지만, 용도만 생겼을 뿐 주차장, 승강기 등 비효율적 운영에 대표적 규제는 여전하다.

2.3. 온도 관리[편집]


서버는 기본적으로 높은 부하로 돌아가는 고성능 컴퓨터이기 때문에 뜨겁다. 그리고 데이터센터는 그런 서버가 산더미처럼 쌓여 있는 곳이다. 때문에 서버 컴퓨터의 열을 식혀주고, 더 나아가 적절한 온도와 습도[4]를 유지하는 것이 데이터 센터에서는 매우 중요하다.

데이터 센터 입주 시 많은 공간을 점유하는 서버에게는 높은 비용을 지불하도록 한다. 서버들이 소비하는 전력량은 입주 면적과 비교하여 큰 차이가 없다. 그래서 소비 전력으로 비용을 책정하지는 않는다. 대신 상면 공간 단위로 가격을 책정하게 된다. 공간 단위는 U단위이며(랙형 서버 기준) 가장 작은 단위는 1U이다(블레이드 서버는 예외). 1U서버가 2U서버보다 성능도 나쁘고 가격도 비싼데도 팔리는 이유다. [5] 따라서 데이터 센터에 입주를 희망하는 업체는 가능한 적은 상면 공간에서 최대의 효율을 내려고 한다. 때문에 데이터 센터에 입주하는 서버들은 전력 소비량이 엄청나며 대개 1000W 내외의 전력을 소비한다. 이는 고스란히 발열로 이어진다.

이 발열을 냉각하는 공조 설비 설계가 데이터 센터의 핵심 역량이 된다. 데이터 센터가 소비하는 전체 전력에서 IT장비(서버, 스토리지, 네트워크 장비 등)를 제외한 항온항습, UPS 등 비IT 장비에 들어가는 전력이 얼만지를 알아보는 지표를 PUE라고 한다. 다시 말해 데이터 센터에서 사용한 모든 전력 / IT장비가 사용한 전력량이다. 낮을수록 좋고 이론상 최저 값은 1.0이다.

옛날식 데이터 센터는 PUE 2.0~3.0 사이다. 방 전체를 냉각하는 폐쇄회로 냉각 방식을 사용했다. 또 평균 18도에서 20도 사이를 유지했다. 구식 설계에 실내온도를 낮게 운영하도록 책정한 데이터 센터라면 한여름에 파카 입고 손 호호 불어가며(...) 작업하는 진귀한 그러나 작업자 입장에서는 빡치는 경험을 해야 할 것이다. 다만 2016년 이후 이런 데이터 센터는 보기 어렵다. 지나치게 낮은 온도 역시 서버들에게 스트레스를 유발하며, 특히 전동기를 이용해 구동하는 부품들의 베어링이 냉각되면 문제가 발생할 수 있기 때문이다. SSD가 아닌 HDD를 이용하는 서버들은 HDD의 플래터가 열수축에 의해 데이터 위치 오류가 발생하여 HDD가 정지, 서버 다운으로 이어질 수 있다.

2021년 시점에는 외부 공기를 이용한 냉각 방식이 대세다. 냉복도와 열복도를 분리하고 열복도에 쏟아지는 뜨거운 공기를 모아서 데이터 센터 바깥으로 배출하는 방법으로 전력소비를 낮춘다. 서버실을 섭씨 30도 정도로 유지해 냉각 비용을 낮추기도 한다. 최신 설계의 데이터 센터는 25~30도를 유지하므로 장비 실어다 올리고 부품 좀 교체하다 보면 등줄기에 땀 몇방울 흐르는 정도다. 사실 작업자에게는 온도보다는 귀가 멍멍해질 정도의 팬 소음(서버들의 냉각팬 및 공조기 소음)과 전자파 샤워의 압박이 더 크다.

데이터 센터만의 자체적인 냉각 방식을 강조하기도 한다. 네이버 '데이터 센터 각'은 NAMU (NAVER Air Membrane Unit) 기술을 사용하는데, 찬물이 흐르는 벽에 바람을 통과시켜 기화 작용으로 온도를 낮추는 방식이다. 애초에 데이터 센터 자체를 불어오는 자연풍을 가장 효율적으로 쓸 수 있도록 V자 형으로 설계했다고 한다.

입지 자체를 추운 곳에 선정해서 이득을 보기도 한다. 페이스북 데이터 센터는 1.07이라는 경이적인 PUE 값을 달성했다고 주장한 바 있다. 참고로 네이버 데이터 센터 각은 1.09 PUE 라는 수치를 보유하고 있다. 아주 추운 지역에서 바깥공기 도입 냉각방식 데이터 센터를 사용해 에어컨, 선풍기를 안 틀고 운영한 덕분이다. 저 0.07은 전등이나 사무실 집기 등이 소비한 전력량이다. 다만 측정방식 및 로우데이터를 공개하지 않아 신뢰하기는 조금 미심쩍은 구석도 있다. 북극권 1.07보다 한반도 1.09가 더 경이로운 것은 넘어가자

카카오에서는 다음 시절 본사를 제주도로 이전하면서 데이터 센터 또한 제주도로 이전하는 방안을 검토했으나, 온난습윤한 제주도의 기후로 인해 예상 전력 소비량을 계산해보니 제주도 전체의 전력 소비량과 맞먹는다는 결과가 나와서 이전을 포기했다는 설이 있다. # 게다가 "섬"이라는 제주도의 특성상 만약 육지와 제주를 잇는 해저 광케이블이 끊어지기라도 하면 육지 지역의 서비스가 그대로 중단된다는 것도 한몫했을 것이다.

서버에서 흡수한 열을 그대로 배출하지 않고 지역난방에 사용하는 경우도 있다. 서버에서 사용한 전력은 대부분 CPU나 그래픽카드의 발열로 전환됨으로 이를 다시 회수할 수가 있다면 에너지 절약이 가능하다.

데이터센터의 냉각과, 폐열문제를 해결하기 위해 지속적인 아이디어가 나오고 있고, 영국의 스타트업 회사가 데이터센터 서버를 수영장에 집어넣는 방식으로 성공사례를 만들어냈다고 한다. #.

2.4. 정전 방지[편집]


정전으로 인해 서버가 꺼진다면 당연히 서버에 접속이 불가능하게 된다. 이렇게 되면 해당 서버에 의존하던 기업의 업무나 대외 서비스가 그대로 마비되게 되고, 이것이 천문학적인 피해로 이어지는 경우도 흔하다. KT IDC 장애 사태2021년 10월 KT 인터넷 장애 사건, 그리고 전대미문의 SK C&C 데이터센터 화재 등이 그 사례.

이 때문에 데이터 센터는 이중 삼중의 전원 백업을 한다. 둘 이상의 발전소 또는 변전소로부터 전력을 공급받으며, 그것도 모자라 자체적인 UPS가 이중 삼중으로 구성되기도 한다. 더하여서 자체 비상용 발전기 또한 가지고 있는 경우가 있다. 서버 하나를 백업하는 유닛 단위의 UPS, 서버실 단위를 백업하는 배터리 기반의 Static UPS, 그리고 데이터 센터 전체를 백업하는 다이나믹 UPS(발전기 장착 사양)를 장착한다. 이 중 유닛 단위 UPS는 입주한 기업이 원가절감을 위해 생략하는 추세다. 데이터 센터가 멈추는데 서버 혼자 살아봤자 네트워크가 멈추면 별 의미가 없기 때문이다.[6]

정전이 일어난다 하더라도 서버가 물리적인 손상을 받거나 고장날 확률은 낮다. 부팅 스크립트가 잘못 만들어져 있어서 부팅을 못 하는 서버가 생기기도 하지만,[7] 대부분은 자체적으로 전원 복구와 함께 자동 재부팅 및 복구 절차를 진행해서 약 10분에서 30분 정도의 시간이 흐르면 대부분 정상화된다.

하지만 PC처럼 1분 이내에 부팅이 끝나질 못하고 RAID 어레이 초기화나[8] 서비스 기동 스크립트, 심지어는 램 Initialization 등도 시간을 꽤 소비한다. 램이 2TB 정도 되면 램 초기화만 해도 몇십 분 걸린다. 1초 정전으로도 약 30분 이상의 시간은 무조건 날아간다고 봐야 한다. 따라서 데이터 센터는 절대로 정전되면 안 되지만 가끔 UPS의 설정 이상 등으로 정전되곤 한다.

구글은 아예 서버와 장비를 직접 설계하고 제작하므로 서버 내부에 배터리를 달아버려 최악의 경우에는 서버 내부 배터리로도 견딜 수 있게 한다. 참고로 전세계 서버 출하량 통계에 구글 자체 제작 데이터 센터용 서버를 포함하면 다섯 손가락 안에서 왔다갔다할 정도다. 하지만 이 분야 최강자는 단연 아마존닷컴. AWS 하나만으로 설명 끝이다. AWS 하나만으로 구글 데이터 센터 이상의 서버 수요가 있다보니 정말 미친듯이 서버, 전원장치, 변전소를 찍어낸다. 특히 트위치[9], 넷플릭스[10], 아이클라우드[11]가 AWS에 있다보니 훨씬 규모가 커져버렸다.

서버실 단위의 정전은 데이터 센터에서도 일어날 수 있다. 서버 일부가 고장나서 타버리는 바람에 합선을 일으킨다든지(랙 단위로 전원이 차단된다. 화재가 발생하면 더 넓은 범위가 셧다운) 공조기 고장으로 열 배출이 불가능해져서 방 하나 분량을 강제 셧다운하는 경우가 있다.

특히 금융권 서버가 셧다운되면 배상금이 많이 나온다. 그래서 데이터 센터에서도 클래스를 나눈 다음에 강력한 보호를 제공하는 클래스는 돈을 더 받는 등의 방식으로 차별화한다.

다른 분야에서는 에어컨 따위에 UPS를 물리면 바보짓이라 할 것이다. 그러나 데이터 센터에서는 서버를 꺼서라도 냉각기에게 우선적으로 전력을 보낸다. 왜냐면 서버가 50도 이상 뜨겁게 달아오르면 물리적 손상이 가기 때문이다. SSD는 데이터가 증발할 것이고[12] CPU도 수명이 깎일 수 있다. 온도가 100도 이상 오래 유지되면 전선 피복이 녹아내리면서 화재가 발생한다. 이런 사태까지 가면 시설이 망가져 데이터 센터의 생명이 끝장 나버린다.어찌저찌 땜빵해도 신뢰도가 떨어져서 끝장난다 자연풍 냉각을 사용하는 데이터 센터는 냉각기가 선풍기와 마찬가지인지라 전력 소비량이 적어 냉각기의 우선 순위가 높지 않다. 그러나 구식 데이터 센터는 서버의 전력량 이상의 전력이 냉각기 돌리는데 쓰이므로 냉각기의 우선순위가 절대적으로 중요해진다.


2.5. 누수 감지[편집]


데이터센터 역시 화재에 대비해 스프링클러가 있는데, 문제는 스프링클러가 오작동하거나, 다른 곳에서 누수가 일어나면 데이터센터는 그야말로 마비가 되어버린다. 장비들도 망가지는 것은 물론이고, 각종 케이블과 전력 공급 선에도 문제가 생길 수 있기에 앞서 있는 정전방지보다도 피해복구가 상당히 오래 걸린다.

이러한 것을 최소화하기 위해 누수감지시스템을 기본적으로 탑재하고 있고, 혹여나도 누수가 되었을때를 대비해서 각종 메뉴얼이 있다. 당연하지만, 음식물을 포함한 모든 액체류는 반입이 금지되고, 화장실에서 볼일 보고 손을 씻은 후에도 반드시 손이나 옷에 묻은 물기를 전부 다 제거한 뒤에 전산실에 들어가야된다. 단 한방울에 의해서도 마비가 될 수 있기 때문이다.

3. 데이터 센터를 보유한 기업[편집]



3.1. 대한민국[편집]


한국에서는 많은 통신사들이 IDC 업무를 겸한다. KT, SKB, LG U+(구 데이콤)는 물론, 세종텔레콤, 드림라인 등 어느 정도 규모가 되는 통신사라면 대부분 보유하고 있다고 보면 된다. 통신사 외에도 대기업 SI계열사에서 운영하기도 하는데, LG CNS, SK C&C, 롯데정보통신, 신세계아이앤씨 등이 IDC를 가지고 있다. 그 중 네이버 클라우드가 춘천시•세종시에 '데이터센터 각(GAK)'을 두고 있는게 유명하며 카카오도 '안산 데이터센터'를 건설하여 2024년 1월 가동을 앞두고 있고#, 카카오엔터프라이즈도 전라남도 장성군에 2026년 준공을 목표로 데이터센터 건설을 추진 중에 있다.#

외국 기업이 대한민국에 직접 데이터센터를 설립, 운영하는 사례는 매우 드물며, 대한민국 서비스가 필요할 경우 국내 기업들이 보유한 데이터 센터의 상면을 임대해서 사용하는 경우가 대부분이다. 실제로 마이크로소프트 Azure, 아마존 AWS, 구글 GCP, IBM Cloud 모두 대한민국 내 자체 데이터센터를 보유하지 않고, 기존 IDC 상면을 임차해서 한국에 서비스를 제공한다. MS, 아마존, 구글 모두 해외에서는 자사 데이터센터를 직접 운영하는 것과는 대조적이다. 이는 한국의 기형적인 망 사용료 구조로 인해, IDC를 구축하더라도 해당 IDC에 IXP 를 직접 구성하고 중소 사업자 위주로 피어링을 하지 않는 한 회선사업자의 망을 접속시키기가 어렵기 때문이다. 대표적으로 네이버의 경우 네이버 데이터센터 이 구성될 때, 주요 네트워크 사업자인 KT, SKB, LG데이콤 모두 피어링을 거절했으며, 극히 최근에서야 드림라인과 연결하여 NHN계열사의 업무를 수행중에 있고, 대다수의 트래픽이 데이터센터 각 <-> 드림라인 <-> KINX <-> 전국망 으로 연결되는 대 참극이 실시간으로 벌어지고 있다. 심지어 네이버 데이터센터 의 경우 네이버 클라우드 플랫폼에서 재대로 활용하기 위해선 네이버 클라우드 콘넥트를 사용해야 하는데, 이 때 접속방법이 가관인것이, KINX 를 통해 다른 회선사업자의 회선을 구매한 뒤, KINX가산센터 3층에 있는 네이버 데이터센터 과의 접속지점에서 직접 접속하는 조치까지 필요하다. 그러다보니 대부분의 CP들은 통신사가 지은 데이터센터에 입주를 하는경우가 대부분이며 CP사가 직접 IDC를 구성하는 경우는 한국 내에서 거의 불가능에 가깝다.

3.2. 미국[편집]


미국 소재의 에퀴닉스는 데이터 센터 임대업 (REITs) 분야에서 압도적으로 전세계 점유율 1위를 지키고 있다. 클라우드 서비스 3사 (아마존 웹 서비스, 마이크로소프트 애저, 구글 클라우드 플랫폼)가 에퀴닉스의 최대 임차인이다. 시스코, 오라클과 긴밀한 기술 협력을 하고 있다.

4. 개인 서버 vs. 데이터 센터[편집]


오늘날 기술의 발전으로 개개인 역시 서버를 소유하고 자기 집에서 웹 서비스를 제공할 수도 있다. 이에는 장단점이 있다. 클라우드의 장단점과 유사하다.

보안이 극도로 중요한 내용은 일반 데이터 센터에 두면 안 된다는 것이 일반적인 인식이었다. 영업비밀들 중에는 하드디스크 하나에 담을만한 내용이 적게는 수백억 원 대를 호가하거나, 국가기밀, 군사기밀로 가면 스텔스 기술 같이 단위를 기본적으로 찍어버리는 것도 있다. 하지만 전산화와 시스템 통합을 위해 데이터 센터가 필수적인 경우, 국방통합데이터센터, 국가정보자원관리원처럼 조직 내부에서만 사용되는 전용 데이터 센터를 만들어 사용한다. 물론 암호화 기술의 발전에 따라 요즘은 그냥 쿨하게 일반 데이터센터에 데이터를 암호화해서 올리는 경우도 많다.

반면 그런 정보가 아니고 전기요금이나 접속 속도가 중요한 요소거나, 접속자가 자주 몰리는 서버, 돌발상황에 빠르게 대처해야만 하는 서버일 때는 데이터 센터가 유리하다.


5. 여담[편집]


  • 초창기와 달리 박리다매 식의 업체가 대세가 되어 입주비가 많이 싸졌다. 30Mbps 회선[13]에 월 5만 원 하는 곳도 있다.

  • 대한민국의 전기요금이 저렴해서 해외 데이터 센터가 몰려온다는 기사가 2013년부터 자주 등장하지만, 데이터 센터는 산업용 전기요금의 적용을 받지 못한다. 대개 일반용(을) 고압A 군의 적용을 받아 대략 kWh당 60원에서 190원 사이의 요금을 내는데, 이는 전기요금이 비싸기로 유명한 일본이나, 미국 동부(뉴욕) 등에 비하면 저렴하겠지만, 미국 캘리포니아 북부, 시애틀, 스웨덴 북부, 홍콩 등에서 데이터 센터를 위해 적용하는 특가요금에 비하면 많게는 10배(ex. 스웨덴 북부: kWh당 0.7원) 정도 비싸게 받고 있어 정확한 사실은 아니다. 게다가 데이터센터에서 전기요금만큼 중요한 게 인터넷 회선료인데, 한국은 회선료가 상당히 비싸다. 넷플릭스페이스북처럼 해외 서비스라도 한국 내 접속 수요가 많은 경우에는 한국 국내에 서버를 설치하는 경우가 있기는 하지만, 대부분은 대한민국 국내의 트래픽을 처리하기 위한 캐시서버 정도에 지나지 않는다. 게다가 그마저도 보통은 AWS, Microsoft Azure, Google Cloud Platform 같은 외국계 클라우드 서비스를 경유하는 것이 대부분이다.

  • 이전에는 교류배전을 사용해서 변환과정이 번거롭고 복잡하며 그 과정[14]에서 수전 변압기, 컨버터, 인버터, 파워서플라이의 발열과 악순환으로 냉방기를 더 돌리게 되어 에너지 손실이 심해 데이터 센터가 전기먹는 하마[15]라는 오명을 써서 직류배전을 쓰는 데이터 센터가 느는 추세[16]이다. 직류배전을 쓰면 변환과정[17]이 줄고 발생하는 손실-열이 감소되게 되면서 냉방기를 덜 돌리게 되어 에너지가 절약된다. 또한 태양광 발전기나 백업용 배터리를 사용하는 경우에도 배전선에 설비를 직결시키면 되므로 더욱 효율적이다.

  • 일본 홋카이도의 모 데이터 센터에서는 환경보호를 위해서 서버에서 나오는 폐열로 눈을 녹인 뒤 데운 물로 장어양식을 한다고 한다.#

  • 2022년 10월 15일 SK C&C 데이터센터에 화재가 발생했다. 그로 인해 SK와 네이버의 일부 서비스, 카카오의 전체 서비스가 몇 시간, 길게는 하루 이상 중지되는 일이 발생했다. 문서 참고 #

  • 미국 정부가 보유한 유타 데이터 센터(UDC)가 현존하는 가장 거대한 저장용량을 가진 데이터센터라는 주장이 있다. 이곳은 미국 NSA(국가안보국)에서 설립한 데이터센터인데, NSA 직원 출신의 내부고발자인 윌리엄 비니는 이곳이 불법적으로 도/감청된 데이터를 저장하기 위한 것이며 그 저장능력이 5제타바이트(50억 TB)에 육박한다고 주장했다. 하지만 포브스에서는 2013년 심층보도를 통해 윌리엄 비니가 데이터 저장 솔루션 업체의 자료를 잘못 해석한 것이라고 주장했으며, 실제로는 3~12엑사바이트(3백만 TB~1천2백만 TB) 정도일 것으로 추측했다.

  • 판교 데이터센터 마비사건과 송전시설 님비현상을 겪으면서 데이터센터가 경인권 편중 현상에 대한 문제점이 거론되면서 발전소가 있는 등 전력사정이 여유로운 지방에다 데이터센터를 유치, 이전해야한다는 의견이 있다. 그러나 무작정 지방에만 유치하기에는 데이터 센터를 관리하는, 하청 역할을 해주는 SI업체가 수도권에 많이 분포되어 있어, 지방에 데이터센터를 유치할 경우 신속한 장애대응이 어렵다는 큰 문제점이 있다. 데이터 센터에 상주하는 SM 직원들도 장비에 심각한 장애가 발생될 경우에는 SI업체의 엔지니어가 해결해줘야되기 때문에 데이터센터를 지방에 유치할 경우 물리적인 거리에 따른 장애처리 지연 문제를 어떻게 해소할지 충분한 검토가 이뤄져야할 것이다.


파일:크리에이티브 커먼즈 라이선스__CC.png 이 문서의 내용 중 전체 또는 일부는 2023-11-23 05:01:23에 나무위키 데이터 센터 문서에서 가져왔습니다.

[A] A B C 미국식 영어[B] A B C 영국식 영어[1] 서버 하드웨어만 현장에서 관리가 필요하고 소프트웨어는 대부분 원격으로 본사에서 관리한다.[2] 간혹 보안 문제 때문에 오지에 짓는 경우도 있다. 전시에 적의 공격을 받으면 곤란한 서버의 경우 산 속에 지하 방공호를 지어서 보관하기도 한다. 대표적인 예시로 알프스 산 아래에 위치한 ProtonMail의 데이터센터가 있다.[3] 네이버도 데이터 센터 구축을 할 때 사무실로 용도허가를 내어 엄청난 낭비를 했다. 이 공간을 창의적으로 활용하려고 어떻게든 노력한 게 지금 각 특유의 디자인이 되었다.[4] 모든 기계가 그렇듯이 서버 역시 습도가 지나치게 높거나 낮은 환경에서 운영하는 것은 좋지 않다[5] 가정용 컴퓨터도 고성능 CPU일 수록 쿨러 크기가 커지며, 그래픽 카드의 면적과 부피 역시 대부분을 방열판이 차지하니, 부피는 사실상 방열 성능이라고 볼 수 있다. 발열량=소비전력이므로 서버별로 성능차이가 있어도 같은 규격이라면 감당할 수 있는 발열량은 매한가지이니 소비 전력은 고만고만하다는 것.[6] 혹시나 나중에라도 전체적인 네트워크가 다시 살아날 가능성을 염두에 둘 목적으로 서버의 전원을 최대한 안전하게 종료하기 위해서는 권장사항으로 남겨두는 편이 좋기는 할 것이다. 사용하지 않는 컴퓨터의 본체 전원을 바로 내리지 않고 운영체제들의 종류를 막론하고 왜 시스템 종료 기능이 있는지를 생각 해 보면 될 것이다.[7] 이런 서버들은 데이터 센터 정전이 아니라 단순 수동 재부팅 과정에서도 못 살아난다. 첫 설정 자체가 잘못된 것.[8] 하드디스크가 주렁주렁 달린 레이드 어레이는 하드디스크에 시간차를 줘 기동시킨다. 안 그러면 전력량 초과로 또 차단기 떨어진다. 근데 이 어레이는 모든 디스크가 기동하고 나서야 초기화가 끝나고 부팅을 시작하기 때문에 PC보다 기동 시간이 훨씬 늦다. SSD 어레이는 예외.[9] 2014년 7월에 아마존에 인수되어, 아마존 자회사가 되었다.[10] 2008년 8월부터 시작해 모든 데이터베이스를 2016년 1월에 완전히 AWS로 마이그레이션했다. 보통 데이터만 옮기기 마련인데, 이쪽은 향후 계속 AWS를 이용할 요량으로, 결제 인프라부터 고객 정보까지 모든 서비스를 클라우드 서버용으로 바꿔버렸다. 전세계 어디든근처에 AWS 서버가 있다면 손쉽게 진출 할 수 있고, 용량을 늘리고 싶을 때도 그냥 결제만하면 알아서 늘려주니 도움이 된다고 한다.[11] 다만, 앞의 두 서비스와 달리 아이클라우드는 AWS뿐만 아니라 Google Cloud Platform과 자체 서버에서도 동작한다.[12] SSD의 일반적인 동작시 온도는 40~50도 선이고 이를 넘어서 70도 이상으로 올라가면 물리적인 손상이 발생하기 시작한다. 하드디스크와 마찬가지로 정보를 저장한 셀이 손상되면 그대로 끝이다.[13] 속도가 아니다. 추가요금 없이 사용할 수 있는 대역폭이 30Mbps라는 것이다. 보통 회선은 1Gbps를 제공한다.[14] 교류수전-직류변환-교류변환-직류변환[15] 이외에도 온실가스를 지나치게 배출해서 High Emission이라는 별명을 붙인다.[16] 새로 짓는 데이터 센터는 DC배전으로 건립되며 기존 데이터 센터는 전력시설의 노후화로 DC배전으로 교체한다.[17] 교류수전-직류변환