그래픽 카드 관련 틀
|
|||||||||||||||||||||||||||||||||||||||||||||
|
|
|
NVIDIA GeForce RTX 4090 | AMD RADEON RX 7900 XTX |
게이밍 그래픽카드 | |
|
|
<rowcolor=#fff>NVIDIA RTX A6000 | AMD Radeon PRO W7900 |
전문가용 워크스테이션 그래픽카드 |
[clearfix]
1. 개요
{{{#!folding [각국의 언어 모음] | 한국어 | 그래픽 카드 |
영어 | (Video) graphics card, VGA (card), GPU | |
일본어 | ビデオカード, グラフィックボード(グラボ), グラフィックカード | |
프랑스어 | carte graphique(여), carte vidéo(여) | |
독일어 | Grafikkarte(여) | }}} |
그래픽 카드(Graphics Card)는 CPU의 명령하에 이루어지는 그래픽 작업을 전문적으로 빠르게 처리하고 디지털 신호를 영상 신호로 바꿔 모니터로 전송하는 장치이다.
그래픽 카드는 본디 여러 가지 유닛을 포함한 그래픽 확장 장치를 이르는 말이어서 메인보드에 탑재된 온보드 그래픽이나 CPU 내장 그래픽을 내장 그래픽 카드로 부르는 것은 잘못된 용법이지만 편의상 앞의 그래픽 처리 장치도 이 항목에 서술한다.
2. 사용 용도
그래픽 카드는 과거에는 단순히 화면 출력용 DSP에 지나지 않았다. 그러나 GPU의 발달로 1990년대에 동영상 디코딩, 2000년대 3D가속, 2010년대 동영상 인코딩 및 GPGPU 같은 CPU의 연산을 보좌해주는 코프로세서의 역할까지 겸하게 되었으며, 디스플레이 포트, HDMI 같은 음성출력까지 함께되는 단자가 늘어나면서 음성 출력[1]도 가능해지는 등 단순 영상 출력장치에서 주요한 연산처리 장치로 자리매김하였다.초창기에는 이러한 그래픽 연산도 CPU가 수행[2]하였으나 점차 그래픽 처리에 특화된 전용 장비가 등장하게 되면서 이것이 그래픽 카드로 발전하게 되었고 그러면서 CPU는 자연스럽게 그 자리를 내어주게 되었다. 또한 CPU를 보좌하는 각종 전용 연산 카드들도 그래픽 카드에 통합된다. 1990년대와 2000년대 초엔 3D 가속 기능이 있는 3D 가속 카드( Voodoo 1/2 등)가 그래픽 카드의 에드온 형태로 존재했다. 이후 이 기능이 그래픽 카드로 통합되어 보편화되면서 3D 가속카드는 사라지게 되었으며 비슷하게 물리연산 가속카드( PhysX)나 MPEG 가속카드 같은 영상 디코딩/인코딩 카드도 그래픽 카드 기능에 통합되었다.( Video Core Next, NVIDIA NVENC, NVIDIA PureVideo) 또한 CPU의 연산을 보좌하는 코프로세서들( 인텔 제온 파이, CELL-Broadband Engine) 역시 그래픽 카드 GPU의 GPGPU에 밀려버린다. 이 때문에 그래픽 카드 본연의 기능인 영상출력 능력을 중시하던 초창기 그래픽 카드 회사들은 연산기능을 중시한 엔비디아나 AMD 같은 회사에게 완전히 밀려버리고 매트록스 같은 일부 회사만 관공서나 회사 납품용으로 명맥만 유지하는 상황이다.
상술했다시피 CPU 역시 그래픽 카드가 할 수 있는 작업이 가능하다. 3D 초창기인 1990년대 중후반에는 소프트웨어 렌더링 방식을 지원하여 3D 그래픽 카드가 없어도 돌아가는 3D 게임이 많이 있었다[3]. Windows XP까지는 창을 CPU가 렌더링했다. DirectX는 개발자용으로 CPU 에뮬레이션 기능을 지원한다. 다만 이것은 어디까지나 에뮬레이션이기에 GPU로 하는 것보다 수천 배 느리다.[4]
이때문에 CPU의 연산능력만 충분하다면 그래픽 카드는 옛날처럼 영상출력만 담당하고 CPU 혼자 3D 마크나( #) 크라이시스 같은 게임을 랜더링 할 수 있다. # 반대로 GPGPU 연산으로 CPU의 도움을 받지 않고 GPU로만 게임을 돌릴 수 있으나 아직까진 둠 정도나 돌릴 수 있다. #
3. 제조, 유통 방식
엔비디아와 AMD(ATI)는 GPU를 설계하고 TSMC, 글로벌 파운드리, 삼성전자 등 반도체 파운드리 업체에 GPU 위탁생산을 하여 ASUS, GIGABYTE 등 그래픽 카드를 제조하는 벤더 업체에게 넘긴다. 벤더 제조사는 GPU를 받아 각종 부품을 기판에 얹어서 그래픽 카드 완제품을 제조한다.한때 칩셋 제조사가 그래픽 카드까지 같이 만들어 완제품으로 파는 형태가 많았으나 GPU와 그래픽 카드를 따로 만드는 것이 가격 경쟁력 면에서 우수해지고, 외장형 그래픽 카드를 위한 GPU를 설계하는 설계사가 NVIDIA와 ATi만 남게 되면서 현재의 방식으로 정착되었다. 3dfx도 Voodoo 2와 밴시까지는 GPU만 생산하였으나 Voodoo 3부터는 카드까지 직접 생산하였는데, 이를 3dfx 몰락의 원인 중 하나로 꼽고는 한다. 그리고 ATi 역시 과거 AMD에 합병되기 전인 라데온을 내놓기 이전, 즉 Rage 시절까지는 카드도 직접 생산했다. GPU만 생산하는 걸로 방침을 바꾼 건 RADEON 들어서고 나서다. 이때 관계자 몇명이 합류해서 나온 게 사파이어다. ATi는 레퍼런스에 대해 Built By ATi 수식어를 붙여 팔았고 비레퍼는 Powered By ATi 수식어로 판매했다. 2D 가속기능, 3D 가속 기능을 장비하면서 CPU에 버금가는 높은 비중을 가진 장비가 되었다.
주요 제조업체는 인텔, AMD(ATI), NVIDIA이며 이 중 점유율 1위는 인텔이다. 특별히 내장 그래픽이 없는 제온 시리즈나 F가 붙은 모델을 구매하는 경우를 제외하면, 인텔 제품에는 거의 대부분 내장 그래픽을 탑재하고 있기 때문이다. 인텔의 CPU 점유율이 가장 높기 때문에 내장 그래픽을 기본으로 탑재하는 인텔이 그래픽 점유율에서만 1위이다. 물론 성능에선 AMD, NVIDIA보다 한참 떨어진다. 그래도 사무용이나 간단한 웹서핑 정도 하는건 크게 무리가 없다.
인텔 내장그래픽의 성능도 시간이 지나면서 향상되긴 하지만 NVIDIA와 AMD는 그 이상으로 성능이 발전하기 때문에 큰 의미가 없고 내장 그래픽 한계로 당연히 외장 그래픽카드보다는 못하다. 애초에 그걸 넘어섰다면 지금 엔비디아와 AMD가 살아남을 수 없다. 만악 인텔의 내장 그래픽 성능이 2020년 현재 1660 수준만 되어도 AMD나 NVIDIA의 그래픽 카드 판매율은 거의 1/3토막 나버린다. 사람들의 생각과는 다르게 하이엔드에서 플래그십 정도급의 물건은 생각보다 판매량이 많지 않다. 일례로 파스칼의 판매량을 보면 1070 Ti + 1080 + 1080 Ti 셋을 합친 판매량보다 1050 + 1050 Ti 둘을 합친 판매량이 두 배 넘게 많았다. 2020년 5월 윈도우 하드웨어 통계에서 GTX 970 또는 GTX 1050급 이하 성능을 가지는 PC가 윈도우즈가 탑재되고 온라인 연결된 PC중에 61%의 비율을 차지한다는 것만 보아도 내장 그래픽이 GTX 1660은 커녕 GTX 1050이나 RX 560급만 되어도 그래픽 카드 시장의 50%는 인텔이 독식 가능한 상황이 되어버린다.
2010년대 후반까지만 해도 인텔 내장 그래픽 카드 전성비로 보았을때 5nm가 되어도 그 정도 성능 도달은 불가능해 보였다. 14nm++ 공정인 커피레이크R의 내장 그래픽이 겨우겨우 GT 730과 GT 740 사이에서 놀고 있다. 게다가 내장그래픽으로서 독보적인 성능을 보여주고 있는 AMD 라이젠 내장그래픽조차 기껏해야 1030 DDR5나 750Ti 정도에 그치고 있다. 그러나 2020년대 들어 인텔의 새 GPU 아키텍처인 Xe 그래픽스 iGPU가 GT 1030을 따라잡고 AMD 역시 RDNA2 iGPU가 GTX 1050 Ti 모바일 버전까지 따라잡으면서 실시간 레이트레이싱 가속이 되지 않는 엔트리급 카드의 씨가 마를 조짐이 보인다. 이로 인해 기존에 사장되었던 UMPC 시장이 핸드헬드 게이밍 PC 시장으로 재탄생하는 등 경량 컴퓨터 시장에 지각변동이 일어나기 시작했다.
3.1. 레퍼런스
Reference. 인터넷 커뮤니티에서는 보통 '레퍼'로 불린다. 말 그대로 GPU 설계사가 PCB까지 설계한 그래픽 카드. GPU 설계사가 그래픽 카드까지 통으로 설계한 것으로 특정 GPU 비레퍼런스 제작의 가이드 정도 되는 역할을 한다고 보면 된다. 레퍼런스에는 두 가지가 있는데 하나는 말 그대로 진짜 레퍼런스, 그래픽 카드 문서 제일 위 4번째 사진같이 블로워 팬[5]에 제조사 로고 달고 나오는 것들이고 다른 하나는 PCB는 레퍼런스 설계를 따르되 쿨러만 벤더 자체 쿨러를 얹어 파는 레퍼런스 제품이 있다. 두번째 PCB만 레퍼인 제품들 같은 경우 PCB 설계 비용이 들지 않기 때문에 비레퍼런스 제품들 대비 값이 비교적 저렴하다. 예전에는 그래픽 카드가 대부분 레퍼런스 설계대로 생산한 뒤 쿨러는 잘만, 아틱 등등 쿨링전문 회사들에게 OEM으로 제공받아 판매하는 게 대부분이었다.비-레퍼런스 와 비교하자면 오버클럭이 적용되지 않는 특징이 있어서 비-레퍼런스 보다 상대적으로 안정성이 높다는 장점이 있고 비-레퍼런스 와 팬 작동 메커니즘이 조금 다르다.[6] 그리고 팬의 개수가 적고[7] 전체적으로 개방식으로 제작되는 비 레퍼와 다르게 폐쇄식 디자인을 채용해서 소음, 발열 면에서는 비 레퍼보다 떨어지는 단점이 있다.
라데온의 사파이어가 바로 ATI의 구 그래픽 카드 제조 부분 담당자들이 퇴사하고 만든 회사. 3dfx 망하는 거 보고 생산 접었다. 그래서 옛날 사파이어 제품 보면 쿨러가 서드파티 쿨러이고 자체 쿨러가 아니다. 이러한 관계로 AMD의 그래픽 카드와 파이어프로는 지금도 사파이어에서 설계 및 생산을 하는 중이다.
NVIDIA의 타이탄, 쿼드로, 테슬라 같은 전문가용 모델들은 한정적인 수요와 기술 지원의 용이성 등의 이유로 오직 레퍼런스 모델만 제작되어 판매되고 있다.[8] 산업용인 만큼 외관 디자인에 그렇게 신경쓸 필요도 없으므로 쿼드로의 경우 케플러 기반 지포스 700번대 래퍼런스 카드의 디자인을 무려 볼타 기반의 GV100까지 우려먹기도 했다. 또한 소비자용 레퍼런스 카드들의 팬이 블레이드 형식으로 바뀐 지 오래인 와중에도 다중 구성을 고려해 여전히 블로워 팬을 탑재하며, 테슬라 같은 경우엔 서버/워크스테이션 케이스의 냉각 시스템 안에서 작동하는 걸 상정하는 제품이기 때문에 팬이 아예 달려 있지 않다. 이후 쿼드로도 최신형인 쿼드로 RTX부터 최상위급 모델인 8/6000번대 모델에서 블로워팬이 빠진 패시브 모델이 따로 출시되었다.
이 레퍼런스 디자인을 선호하는 유저층 또한 꾸준히 존재하여, 사제 쿨러나 워터블럭으로 개조하고 남은 히트싱크와 팬이 중고 시장에서 꽤나 고가에 거래되기도 한다. 특히 타이탄 모델.
한국에서는 구하기 힘들다. 지포스 그래픽카드의 경우 리더스시스템즈에서 제한된 수량을 수입하는 걸 구매하거나 아니면 직구를 하는 수 밖에 없다.
3.2. 비(非)레퍼런스
Non-reference. 인터넷 커뮤니티에서는 '비레퍼'로 불린다. GPU만 설계사에서 구매한 뒤 벤더들이 PCB를 자체 설계해서 GPU를 얹어 파는 제품들이다. 원가절감 목적으로 설계한 PCB도 있고 고급화를 위해 설계한 PCB도 있기 때문에 구입 시 주의가 필요하다. 같은 GPU를 썼더라도 미미하지만 제조사와 모델 별로 성능 편차가 존재한다. 일반적으로 반 급[9] 차이나는 GPU의 성능 차이보다도 훨씬 적다. 대부분 팩토리 오버클럭이 적용되고, 쿨링설계가 강화되는 등 전반적으로 레퍼런스보다 성능이 뛰어난 모델이 많다. 미니사이즈 그래픽 카드는 비레퍼이며, 케이스 내부 공간이 좁다면 미니사이즈 카드를 쓸 수밖에 없다.4. 구성
그래픽 카드는 어떻게 작동할까? GPU의 구조 탐색 |
그래픽 카드는 말 그대로 CPU와는 다르게 확장 카드 형태로 구성되어 있기 때문에[10] 메인보드만큼은 아니더라도 구성 요소가 제법 많아서 복잡하므로 구매하기 전에 알아야 할 구성 요소가 CPU보다 더 많다. 일반적으로 기능이 많을수록 구성할 게 많아져 복잡해지지만, 기술력의 발전으로 통합 내지는 원칩화 되는 경우도 있어서 항상 복잡해지는 것은 아니다.
PCB (
인쇄 회로 기판)
그래픽 카드가 구성되는 기판. 메인보드도 PCB 위에 여러 부품들이 탑재된 구성이기 때문에 확장형 보드라고 볼 수 있다. 그래픽 카드가 메인보드의 슬롯에 장착되는 카드 형태라서 확장 카드라고도 부른다. 무시하기 쉬운 부분일지 몰라도 컴퓨터 케이스의 형태에 따라 매우 중요한 요소이기도 하다. 마음에 드는 제품이면서 합리적으로 구매했다 해도 정작 기판의 길이나 폭이 케이스에 맞지 않으면 아무 소용 없기 때문에 주로 초보자들이 낭패를 볼 수 있다.-
브라켓
디스플레이 출력 단자를 감싸 있는 일종의 장착 가이드. 출력 단자 입장에서 보면 메인보드의 백 패널과 비슷한 역할이지만 메인보드에 장착해야 하는 확장 카드이므로 장착 가이드 역할까지 겸한다. 브라켓의 형태에 따라 기판의 폭이 크게 좌우되는 편인데 이 역시 초보자가 실수하기 쉬운 요소로 데스크탑용 케이스 중에서도 폭이 매우 좁은 슬림 LP 케이스인데 일반 브라켓 타입의 제품을 구매하거나 미들타워 케이스인데 LP 브라켓 타입의 제품을 구매하는 경우가 있으니 사이즈와 브라켓 형태를 잘 확인해야 한다.
프로세서 (
GPU)
그래픽 처리를 담당하는 가장 핵심적인 요소. CPU 혼자서 그래픽 처리하기가 어렵기 때문에 이를 보조해 줄 코프로세서가 필요해짐에 따라 등장한 장치이다.[11] 과거에는 화면 출력용을 그냥 디스플레이 출력기라고 부르거나 3D 그래픽 가속 가능한 그래픽 카드를 3D 가속기라고 불렀으나[12], 1999년에
NVIDIA가 기존의 래스터, 픽셀 연산 및 렌더링 뿐만 아니라 지오메트리 처리까지 가능한 프로세서임을 강조하는 GPU(Graphics Processing Unit)라고 명명하면서 현재는 GPU가 그래픽 처리용 코프로세서의 보통 명사처럼 통용되고 있고, CPU와 대등한 수준의 주역으로 거듭났다. 물론 CPU가 없으면 GPU가 있어도 소용이 없지만 그만큼 역할이 매우 커졌다는 뜻이다.-
커맨드 프로세서
말 그대로 CPU가 지시한 명령어들을 받아서 각종 처리 장치들에게 발행해주는 유닛. 그래픽 카드가 점점 발전되면서 장치의 개수도 많아지고 구성 자체도 복잡해지면서 이들을 잘 제어해줄 수 있는 스케줄링 역할까지 수행한다. NVIDIA의 경우 현재 2010년 페르미 마이크로아키텍처부터 도입된 기가스레드 엔진에 해당되며, ATi 및 AMD는 그래픽스 커맨드 프로세서에 해당된다.
-
비동기 컴퓨트 엔진
2012년 AMD GCN 마이크로아키텍처 이후의 GPU에서만 도입된 유닛. 줄여서 ACE(Asynchronous Compute Engine)라고도 부른다. 그래픽 연산은 그래픽 커맨드 프로세서가 명령어를 발행했다면, 非그래픽 연산은 ACE가 발행하는 방식이다. GPGPU 연산이 가능해짐에 따라 게임에서도 그래픽 연산은 물론이고 그래픽은 아니지만 게임에 사용되는 물리 연산 등의 다른 연산들과 혼합된 방식이 도입되고, GPU 내에서 병렬로 멀티스레딩할 때마다 NVIDIA에서는 SM, AMD에서는 CU 단위로 일정한 주기에 맞춰서 번갈아 수행하는 방식이었는데 이러한 방식이 그래픽 연산과 非그래픽 연산의 동시 연산에 성능 효율 문제가 발생함으로써 이를 해결하기 위해 등장했다. 마이크로소프트는 2015년 DirectX 12를 통해 정식으로 지원하기 시작했으며, AMD에서는 이러한 완벽한 병렬식 비동기 연산을 '비동기 셰이더'라고 부르고 있다. 병렬식 비동기 연산 말고도 선점식 비동기 연산도 지원하는데 병렬로 구현하지 않더라도 우선 순위가 높은 작업에 집중시켜서 성능 효율을 높이는 방식이지만 그만큼 단점도 있어서 효과가 크지 않았는데 2세대 GCN 마이크로아키텍처부터 보강되었다. 반면, NVIDIA에서는 아직까지 탑재되지 않고 2014년 2세대 맥스웰 마이크로아키텍처부터 선점식 연산을 지원하기 시작했지만 효율이 좋지 않았으며, 2016년 파스칼 마이크로아키텍처부터 세밀한 시분할 선점식 연산 방식을 통해 성능 효율을 어느 정도 끌어 올린 것에 그친 상태라 기본 성능으로 겨우 비비고 있는 수준이지만, 현실은 아직도 DirectX 11 위주라서 DirectX 12에 유리할 것으로 전망되었던 AMD한테는 큰 이득을 얻기는 커녕 기본기라고 볼 수 있는 전력 소모, 온도, 소음에 밀려서 그다지 큰 호응을 얻지 못했다. RX 5000 시리즈부터는 하드웨어적 특성이 NVIDIA와 대등하거나 소폭 미치지 못하는 정도의 수준까지 도달했으나 드라이버 문제 때문에 장점을 깎아먹고 있는 상황이라 지금도 그리 좋은 평가를 받지 못했었다. 현재는 비동기 셰이더가 널리 쓰이지만 AMD와 NVIDIA의 ACE 차이가 예전같이 벌어지지 않았기 때문에 AMD는 이 기술 선점효과로 그리 재미보지 못 했다.
-
디스페처
커맨드 프로세서의 스케줄링 역할을 보조해주는 동시에 각 세부 장치들에게 명령어를 적절하게 분배해주는 유닛. 구성이 단순했던 과거와는 다르게 구성이 많고 복잡해지면서 IPC에 큰 영향을 줄만큼 중요성이 매우 커졌다. NVIDIA의 경우는 각 하위 그룹별로 탑재된 형태이고, AMD는 울트라 스레딩 디스페치 프로세서라는 하나의 거대한 유닛을 탑재된 형태였다가 NVIDIA처럼 각 하위 그룹별로 탑재된 형태로 선회했다.
-
지오메트리 프로세서
버텍스와 조명 생성부터 2D 투영, 뷰포트 변환까지 아우르는 유닛. 과거에는 각각의 기능들이 별도로 1개씩 존재했으나, DirectX 11 세대에 들어서 이들을 하나의 엔진 형태로 통합되었다. NVIDIA에서는 이를 폴리모프 엔진으로 명명하고 있고, AMD는 그냥 그래픽스 엔진으로 불렀다가 2012년 GCN 마이크로아키텍처부터 지오메트리 프로세서로 변경되었다. 물론 각각의 기능들은 1999년 버텍스 파이프라인과 함께 등장했다. 하드웨어 T&L이 가능하려면 이것들이 존재해야 하기 때문.
-
테셀레이터
기존의 연산 유닛으로는 매우 높은 성능을 요구했기 때문에 부하를 줄이기 위해 별도의 전용 하드웨어가 탑재되면서 게임에서도 테셀레이션을 활용할 수 있게 되었다. 라데온 제품군 한정으로 2001년 라데온 8500부터 탑재된 테셀레이션 특화용 모듈로써 처음 탑재되었지만, 같은 시기에 NVIDIA에서는 그런 기능이 존재하지 않아 ATI에서 자체 제공하는 개발 도구를 통해 구현해야 했기 때문에 널리 사용되지 못했다. 그러다가 2009년에 마이크로소프트가 DirectX 11부터 테셀레이션 기능을 정식으로 채택하면서 AMD는[13] 2009년 라데온 HD 5000 시리즈부터, NVIDIA는 2010년 폴리모프 엔진에 있는 테셀레이터가 지포스 400 시리즈부터 탑재되면서 본격적으로 사용되었다. ATI 시절에는 독립적인 형태로 존재했으나, ATI를 인수한 AMD의 TeraScale 마이크로아키텍처부터 셋업 엔진 안에 포함되었고, GCN 마이크로아키텍처부터 지오메트리 프로세서 안에 포함되었다. NVIDIA도 페르미 마이크로아키텍처부터 도입된 폴리모프 엔진의 하위 구성으로써 존재했다.
-
연산부
그래픽 처리에 직결되는 일반적인 경우에는 음영 처리를 담당하고, 그래픽에 직결되지 않는 다른 용도의 처리인 경우에는 GPGPU 성능의 척도가 되는 영역이다. 화가의 좌뇌 쯤으로 비유할 수 있다.[14] -
픽셀 파이프라인
GPU 개념이 등장하기 이전 시절에는 지오메트리와 조명 처리를 CPU에 의존했고 그래픽 카드가 할 수 있는 것은 CPU에서 처리된 데이터들을 가져와서 픽셀로 래스터화 시키고 픽셀들을 (컬러) 연산 및 렌더링이 전부였다. 그래도 완전한 컬러의 그래픽 출력이 가능하려면 RGB A 모두 연산이 가능해야 하므로 파이프라인당 복수의 연산기로 구성되어 RGB 컬러를 렌더링할 수 있게 됨으로써 일종의 슈퍼스칼라 방식으로 정립되었다. 다만, 이때까지는 명령어를 지정하면 그래픽 처리 과정은 드라이버 이하 계층이 알아서 다 처리하는 방식이라 이를 '고정 파이프라인'이라고도 부르며, 프로그래머가 손 댈 수 있는 영역이 아니다. 맘대로 못 하는 대신 건드릴게 적어져서 프로그래밍 난이도는 지금에 비해 쉬운 편이지만 기능이 적었기 때문에 독창적인 셰이딩 응용력을 발휘하기 어려운 단점이 있다. 그래픽 카드의 탄생과 함께 등장했기 때문에 원년 멤버 격 유닛이라고 볼 수 있다. -
버텍스 파이프라인
1999년에 NVIDIA가 그래픽 카드 프로세서에 지오메트리와 조명을 처리할 수 있도록 3차원 행렬(정확히는 벡터) 연산기를 탑재함으로써 하드웨어 T&L을 구현하는 등 역할이 엄청나게 커져 이때부터 GPU 개념이 탄생했다. 하지만 픽셀 파이프라인과 마찬가지로 프로그래머가 프로그래밍할 수 없었다. -
픽셀 셰이딩 파이프라인
2001년 지포스 3, 라데온 8500부터 정립된 개념의 연산 유닛이다. 프로그래머가 파이프라인에 관여할 수 있게 되었기 때문에 이전의 고정 파이프라인과 반대되는 개념인 '프로그래머블 파이프라인'이라고도 부른다. 마이크로소프트는 2000년 DirectX 8부터 이미 도입했으나 초기엔 프로그래머블 파이프라인에 대한 표준이 따로 없어서 제조사별로 제공하는 개발 도구를 이용해야 했으며, 그 개발 도구에 사용되는 프로그래밍 언어도 프로그래머에게 친숙한 모습이 아닌 어셈블리어에 가까운 로우 레벨 언어라서 사용법이 매우 까다로웠다. 2002년에 MS는 DirectX 9와 함께 프로그래머가 좀 더 쉽게 이해할 수 있는 하이 레벨 언어인 DirectX의 HLSL을 발표하고 이전보다 더욱 정밀해진 부동소수점 연산이 가능해지며, 서로 다른 타입의 연산들을 제한적으로나마 하이브리드로 연산이 가능해진 이후 진입장벽이 낮아지고 응용 범위가 넓어졌다. 프로그래밍 가능하다는 개념만큼은 구조가 달라진 현재까지도 계승되고 있다. -
버텍스 셰이딩 파이프라인
2001년 픽셀 셰이딩 파이프라인과 함께 등장한 연산기로, 버텍스에도 프로그래밍이 가능해지면서 유연성이 생겼다. 다만, 픽셀쪽과 마찬가지로 초기에는 프로그래밍할 표준 언어가 없어서 다루기가 매우 어려워서 잘 사용되지 않았다가, 2002년에 HLSL가 발표되면서 진입 장벽이 좀 낮아졌다. -
스트림 프로세서
2005년 Xbox 360 내장 GPU인 Xenos부터, PC용 그래픽 카드에서는 2006년 지포스 8 시리즈, 2007년 라데온 HD 2000 시리즈부터 정립된 개념의 연산 유닛이다. AMD는 그냥 '스트림 프로세서'라고 부르고, NVIDIA도 초기에는 AMD와 똑같이 스트림 프로세서라고 불렀으나 2010년 지포스 400 시리즈부터 ' CUDA 코어'라고 부른다. 지포스 20부터는 카운터또한 상이해졌다. FP32CC라고 표기하는데 왼쪽은 INT32와 FP32 둘다 연산가능한 유닛을 합친수, 오른쪽이 기존 FP32전용 유닛의 수이다. 게임에서는 주로 셰이딩용으로 사용되는데, 게임에 따라 셰이더 활용도가 제각각이라 픽셀 셰이더 파이프라인과 버텍스 셰이더 파이프라인이 서로 분리된 구조로는 효율적으로 처리하기 어려웠기 때문에 각 유닛마다 픽셀 셰이더와 버텍스 셰이더 기능이 통합된 구조로 변경되어서 '통합 셰이더'라고도 부른다. 그 뿐만 아니라 버텍스 단위가 아닌 기본 폴리곤 단위로 연산 처리할 수 있는 지오메트리 셰이더까지 함께 포함되어 효율성이 높아졌다. 지오메트리 셰이더는 2006년에 발표된 DirectX 10부터 정식으로 채택하면서 이를 활용할 수 있게 되었다. 하지만 다루기 어려워서 잘 사용되지 않는 편. 이외에도 기존의 하이브리드 연산보다도 더 다양한 타입들과 조합할 수 있고 제약도 크게 줄어들어 이른바 제대로된 GPGPU 연산이 가능해졌다. 그러니까 그래픽 카드가 더 이상 그래픽 전용 연산 카드가 아닌 다른 연산에도 활용할 수 있는 범용 연산 카드로 발전되었다는 것이다. -
레이트레이싱 전용 연산 가속기
2018년 NVIDIA 지포스 20 시리즈 제품군 한정으로 탑재된 실시간 레이트레이싱(Ray Tracing) 전용 연산 코어로 NVIDIA는 이를 Ray Tracing의 이니셜을 따와서 'RT 코어'라고 부르고 있다. 수많은 전역 조명 처리( 글로벌 일루미네이션) 알고리즘 중에 하나인 기법으로 레이트레이싱 개념 자체는 1980년대부터 알려진 오래된 개념이지만 연산 요구량이 하늘을 찌를만큼 매우 높은 비싼 알고리즘이기 때문에 현세대에 들어서도 실시간 레이트레이싱은 엄두를 못 내고 있었다. 그렇게 계속된 연구 끝에 나온 결과물 중에 하나가 NVIDIA의 RT 코어.[15] RT 코어는 그 실체인 BVH(Bounce Volume Hierarchy) Treversal 알고리즘 전용 하드웨어를 이용하여 구현한다. 2018년에 발표된 DirectX 12의 확장 라이브러리인 DXR(DirectX Ray Tracing)을 통해 활용할 수 있게 되었다. 라데온에서는 RDNA2부터 추가되었고 여기에 DLSS 3.0과 FSR 3.0의 등장으로 RT가 실용화 되었다.
-
래스터라이저
3D 모델링, 조명 처리, 평면 상으로 투영, 뷰포트 변환을 거친 지오메트리를 일정한 개수의 픽셀로 변환해주는 장치로, 픽셀로 구성하는 모든 모니터를 통해 그래픽을 보려면 반드시 수행되어야 할 존재. 픽셀 파이프라인과 마찬가지로 역할 특성상 그래픽 카드 탄생과 함께한 원년 멤버 격 유닛이라고 볼 수 있다.
-
텍스처 유닛
텍스처링에 특화된 유닛으로, 이 기능이 처음 탑재된 이래로 다른 유닛에 통합되는 거 없이 독립적으로 존속되고 있다. 하지만 유닛의 개수가 급격하게 늘어나 묶음 단위의 개념이 등장한 요즘에는 연산 유닛과 일정한 비율로 귀속되어 있기 때문에 텍스처 유닛만 극단적으로 조정하는 게 불가능하다. 따라서 이론적으로 따지면 최대한 활용할 경우 연산 성능과 거의 정비례 관계라고 볼 수 있다.
-
렌더 아웃풋 파이프라인
연산 유닛과 텍스처 유닛에 거쳤던 계산 결과를 디스플레이에 최종적으로 표현하기 위한 유닛으로, 보통 줄여서 'ROP'이라고 부른다. 화가의 붓에 비유할 수 있다. 그래픽 카드 홍보 이미지에서는 해당 유닛의 제원을 보여주지 않기 때문에 잘 모르는 사람들이 간과하는데 특수 GPGPU 용도의 경우는 그래픽 표현력에 사용되지 않으므로 신경 쓸 필요가 없지만 게임에서는 퀄리티를 좌우하는 중요한 유닛이기 때문에 제원을 확인할 생각이라면 ROP도 꼭 확인하는 것이 좋다.[16]
-
캐시 메모리
CPU에 내부 캐시 메모리가 있는 것처럼 GPU도 내부 캐시 메모리가 오래 전부터 존재해왔다. 주로 텍스처 전용 캐시로써 존속되어 왔고, 연산 유닛이 매니 코어급으로 비대해진 현세대 GPU에 와서는 단일 계층의 캐시 메모리만으로는 이들을 더 이상 제어할 수 없어져 L1 로컬(명령어+데이터) 캐시 메모리와 L2 공유 캐시 메모리라는 2계층으로 세분화되었다. 좀 더 빠른 캐싱을 위해 L0 캐시 메모리 개념까지 도입될 정도로 계층 분화가 점점 두드러지고 있는데, 현세대 CPU와 닮아가고 있다는 게 재미있는 특징이기도 하다. GPU의 L2 공유 캐시 메모리는 CPU의 L3 공유 캐시와 비슷한 역할이라고 보면 된다. CPU에서 캐시 구조에 따라 IPC에 어느 정도 영향을 주는 것처럼 GPU도 캐시 구조에 따른 IPC 향상이 어느 정도 있다. 즉, 캐시 메모리가 GPU 성능 효율에 영향을 미치는 스펙이라는 것이다. 대체로 세대를 거듭하면서 캐시 용량이 커지고 있으나, 특히 2014년 초에 발표된 NVIDIA의 1세대 맥스웰 마이크로아키텍처가 이전 세대 대비 L2 캐시 메모리 용량을 유난히 늘린[17] 덕분에 그래픽 메모리 용량에 따른 의존도를 낮춰준 일등 공신이기도 했다. 용량 뿐만 아니라 캐시 메모리 레이턴시와 대역폭도 GPU의 IPC에 영향을 미치는데, 이는 CPU의 캐시 메모리 성능 특성과 같은 맥락으로 보면 된다. 2020년에 출시된 AMD Radeon RX 6000 시리즈부터 NVIDIA GeForce 20 시리즈의 16배, 자사 이전 세대의 24배나 많은 용량의 새로운 캐시 메모리 계층이 추가되고, NVIDIA도 GeForce 40 시리즈부터 기존의 L2 캐시 메모리 계층에서 용량만 12배 증가된 사양으로 도입하여, GPU에도 대용량 캐시 메모리 계층이 존재하는 구조가 대세로 자리 잡게 되었다.
-
디스플레이 컨트롤러
디스플레이 출력을 위한 유닛으로 이게 있어야 각종 출력 단자로 전달시켜서 모니터에 화면을 볼 수 있다. DVI, HDMI, DisplayPort 등의 디지털 기반 규격들이 나오면서 여러 종류의 디스플레이 출력 규격들을 지원하는 디스플레이 컨트롤러가 따로따로였으나 나중에는 하나의 컨트롤러로 통합되었고, 이러한 디스플레이 컨트롤러가 GPU 내부에 통합되었다.
-
비디오(
동영상) 디코딩 및 인코딩 프로세서
동영상 디코딩 및 인코딩을 위한 유닛으로, 1990년대까지는 그래픽 카드 내에서 동영상 재생을 위한 전용 장치는 없었으나 2000년대에 들어서야 모습을 갖추기 시작했다. 상위 라인이라 하여 무조건 동영상 재생 성능이 좋은 것이 아니라는 것이 일반적인 셰이딩 연산 유닛과 다른 점이다. 라인보다는 주로 세대별로 발전되기 때문에 동영상 재생용으로 알아볼 경우 구형 상위 라인보단 신형 하위 라인이 적합할 가능성이 높다. 하지만 2000년대 중반까지만 해도 널리 알려지진 않았는데 이 장치가 동작해도 CPU의 점유율이 여전히 높았기 때문이다. 그러다가 2007년에 출시된 중급형 그래픽 카드들부터 하드웨어 가속 기능 및 성능이 크게 향상되면서 CPU의 점유율을 크게 낮추고 그래픽 카드에 맡길 수 있는 여건이 마련된 덕분에, 그래픽 카드의 비디오 가속 성능만 충분하다면 저사양 CPU도 고해상도 고비트레이트인 고사양 동영상을 원활하게 재생할 수 있게 되어 굳이 고사양 CPU를 찾을 필요가 없어졌다.
-
메모리 컨트롤러
그래픽 메모리가 탑재된 모든 그래픽 카드에 존재하는 장치로, 잘 모르겠다면 CPU의 내장 메모리 컨트롤러를 생각하면 된다. 다만, 차이점이라면 일반적으로 듀얼 채널, 서버용으로 많아봐야 8채널까지 탑재되는 것과는 달리, GPU의 메모리 컨트롤러는 체급에 따라 적게는 싱글 채널부터 많게는 12채널까지 다양하게 지원되었다는 점이다. 그리고 마이크로아키텍처에 따라 ROP, L2 캐시 메모리와 일정한 구성비로 짝지어서 구성하기도 한다.
그래픽 메모리 칩(모듈)
메모리 하면 보통 메인보드에 장착하는 시스템 메모리를 떠오르지만 그래픽 카드에도 메모리가 있다. 태생이 메모리이기 때문에 DRAM이라는 물리적인 특성과
버퍼 기능의 존재 자체는 시스템 메모리와 유사하지만, 기능적으로는 차이가 있는데 당연하지만 CPU가 아닌 GPU에서 거친 데이터들만 취급하고, 버퍼 기능도 '프레임 버퍼'로 활용한다는 점이다. 시스템 메모리와 마찬가지로 메모리 레이턴시가(엑세스 타임) 짧을 수록, 메모리 대역폭이 높을 수록 데이터를 빨리 전달할 수 있어서 퍼포먼스 향상에 기여할 수 있다. 메모리 대역폭을 구성하는 요소는 메모리 버스와 메모리 클럭이 있는데, 쉽게 비유하면 고속도로의 차선과 차량의 속도로 생각하면 된다. 참고로 메모리 영역의 이용률이 높아진다는 것은 데이터 전송량이 많아진다는 의미로, 이는 곧 메모리 부하가 커진다는 의미이기도 하다. GPU 내부 캐시 메모리도 일종의 그래픽 메모리에 속하므로 이와 구분하기 위해 GPU 외부 전역 메모리라고 부르기도 한다.-
VRAM
Video DRAM의 약자로, 정확히는 듀얼 포트 구조를 지닌 DRAM 중에서도 프레임 버퍼를 저장하기 위한 비동기식 듀얼 포트 DRAM를 가리키는 규격. 1986년 IBM RT PC부터 도입되었으며, 그래픽 처리 고속화를 위해 등장한 그래픽 전용 메모리계의 시초 격이다. 그래픽 처리에 있어서 싱글 포트인 기존 DRAM보다 확실히 넉넉한 환경이라 고속 처리에 유리했으나 물리적인 포트가 확장된 구조라 단가 상승으로 이어지는 바람에 널리 채택되진 못했다.
-
WRAM
Window DRAM의 약자로, 1995년 매트록스의 Millennium 시리즈부터 사용되었던 VRAM의 변종 규격. 기존 VRAM 대비 코스트를 낮추고 대역폭을 최대 25% 끌어올렸으나 싱글 포트인 DRAM보다는 여전히 비싼 가격이라 널리 사용되진 못했다.
-
MDRAM
Multibank DRAM의 약자로, MoSys가 개발한 특수 DRAM 규격. 언제부터 사용되었는지는 확실하게 알려지지 않았지만 1995년 Tseng Labs의 ET6000 시리즈에 주로 사용되었으며, 비교적 쉬운 제조 난이도로 용량과 대역폭을 끌어올린 방식이지만 태생적인 복잡성 문제도 그렇고 하필이면 해당 제조사가 쇠퇴기라 이 역시 널리 채택되지 못했다.
-
SGRAM
Synchronous Graphics DRAM의 약자로, DRAM이 SDRAM으로 발전된 것처럼 그래픽용 메모리도 이와 비슷한 양상으로 발전된 규격이다. 그래픽용 메모리답게 기능적으로는 다른 비트에 영향을 주지 않고 지정된 비트 평면에 쓰기 작업을 수행하는 비트 마스킹과 단일 색상으로 메모리 블록을 채우는 블록 쓰기 작업같은 기능들이 추가되었지만 듀얼 포트가 아닌 싱글 포트인 것이 차이점. 그 대신 한 번에 2개의 메모리 페이지를 접근할 수 있어서 이전 그래픽용 메모리 규격들이 지니고 있었던 듀얼 포트에 가까운 효과를 제공할 수 있으며, 싱글 포트이므로 단가를 절감시킬 수 있었기 때문에 오늘날 그래픽용 메모리 규격을 단일화 시켜준 결정적인 규격이 되었다. 1994년에 처음 등장했으며 탑재된 첫 제품은 놀랍게도 1995년 12월에 투입된 소니의 플레이스테이션에서 2세대 개선판인 SCPH-50000부터로, 그래픽 카드는 1996년 ATi의 RAGE II 시리즈 이후부터 2002년 NVIDIA 지포스 4 시리즈까지 채용되었다.
-
GDDR SGRAM
Graphics Double Data Rate SGRAM의 약자로, SDRAM이 DDR SDRAM으로 발전된 것처럼 그래픽용 메모리도 그런 식으로 발전된 규격이다. 처음 등장할 당시에는 DDR SGRAM이라고 불렀으나 언제부터인가 DDR SDRAM 앞에 G를 붙인 GDDR SDRAM으로 통용되고 있는데 표준화 조직인 JEDEC에서는 GDDR SGRAM으로 취급하고 있으므로 현재로써는 이쪽이 공식 명칭이라고 보면 된다. 오늘날 주력 그래픽용 메모리 규격으로 2000년 NVIDIA 지포스 256 DDR, ATi 라데온 DDR부터 채택된 이래로 DDR SDRAM이 DDR2 → DDR3 → DDR4로 발전된 것처럼 이쪽도 GDDR → GDDR2 → GDDR3 → GDDR4 → GDDR5 → GDDR5X → GDDR6 → GDDR6X로 거듭 발전되었다.
-
HBM
High Bandwidth Memory의 약자로, DRAM 다이를 옆으로 배열하는 것이 아닌 수직 방향의 층으로 쌓는 3D 스택 방식의 규격. 이러한 특성 덕분에 기판의 사이즈를 크게 줄일 수 있고, 소비전력과 발열까지 착한 장점이 있어 2013년에 표준화되었으나 제품에 탑재되기까지는 2년이 소요되어 2015년 AMD 라데온 R9 FURY 시리즈, R9 NANO부터 도입되었다. 문제는 GPU와 적층 DRAM을 실장하면서 서로 연결하기 위해 필요한 인터포저 때문에 제조 난이도가 기존 GDDR SGRAM보다 훨씬 어려워져 생산성이 떨어짐에 따라 몇 년이 지난 지금도 널리 채택되지 못 해 장점이 유명무실해지고 있다. 인터포저 문제 개선이 가장 시급한 상황.
RAM
DAC
SRAM이 있는 디지털 to 아날로그 변환기로, VGA(D-Sub)같은 아날로그 출력 단자가 존재하는 그래픽 카드라면 거의 다 탑재되어 있는 칩이다. 과거에는 SRAM조차 없는 DAC였으나 병목 현상을 최소화하기 위해 SRAM까지 얹은 RAMDAC으로 발전되었다. 요즘 세대에서는 잘 모르는 경우가 많지만 과거에는 RAMDAC 제원도 표시되어 있었다. 클럭 단위로 표시되어 있었으며 해상도 및 주사율에 직결되어 있는 제원이라 같은 주사율일 때 얼마나 높은 해상도를 지원하는지에 관련된 제원이다. DE-15(VGA)가 주력 단자였을 당시 잘 모르는 소비자들 중에 RAMDAC의 클럭 자체가 화질 및 색감을 결정하는 제원으로 착각하는 사람들도 종종 있었다. DE-15(VGA) 단자가 탑재된 구형 그래픽 카드를 아직 볼 수 있더라도 그 그래픽 카드들도 아주 오래된 모델이 아니라면 대부분 1920×1200 60Hz 출력을 지원하므로 RAMDAC 보고 해상도 및 주사율을 확인해야 한다는 것은 옛날 이야기라 볼 수 있다. DE-15(VGA) 단자 자체가 사라지는 추세라 RAMDAC 제원도 자연스럽게 사라지면서 존재 자체가 점차 잊혀지고 있다.
SRAM이 있는 디지털 to 아날로그 변환기로, VGA(D-Sub)같은 아날로그 출력 단자가 존재하는 그래픽 카드라면 거의 다 탑재되어 있는 칩이다. 과거에는 SRAM조차 없는 DAC였으나 병목 현상을 최소화하기 위해 SRAM까지 얹은 RAMDAC으로 발전되었다. 요즘 세대에서는 잘 모르는 경우가 많지만 과거에는 RAMDAC 제원도 표시되어 있었다. 클럭 단위로 표시되어 있었으며 해상도 및 주사율에 직결되어 있는 제원이라 같은 주사율일 때 얼마나 높은 해상도를 지원하는지에 관련된 제원이다. DE-15(VGA)가 주력 단자였을 당시 잘 모르는 소비자들 중에 RAMDAC의 클럭 자체가 화질 및 색감을 결정하는 제원으로 착각하는 사람들도 종종 있었다. DE-15(VGA) 단자가 탑재된 구형 그래픽 카드를 아직 볼 수 있더라도 그 그래픽 카드들도 아주 오래된 모델이 아니라면 대부분 1920×1200 60Hz 출력을 지원하므로 RAMDAC 보고 해상도 및 주사율을 확인해야 한다는 것은 옛날 이야기라 볼 수 있다. DE-15(VGA) 단자 자체가 사라지는 추세라 RAMDAC 제원도 자연스럽게 사라지면서 존재 자체가 점차 잊혀지고 있다.
디스플레이 출력 단자
데이터 입장에서 보면 디스플레이 컨트롤러를 거쳐 모니터로 이동하는 입구이자 그래픽 카드의 출구같은 곳. NVIDIA Mining이나 테슬라 제품군같이 단자가 아예 없는 그래픽 카드도 있다.-
DE-15
흔히 D-Sub, RGB, VGA라고도 부르며 1987년 VGA 규격의 탄생과 함께 등장했다. 2000년대까지 주로 사용되었으나 디지털 신호를 이용하는 후속 규격의 단자들이 등장하면서 2000년대 중후반부터 일찌감치 옵션 취급으로 퇴출되기 시작했고, 2010년대 후반부터 로우엔드 저가형 그래픽 카드조차 대부분 사라졌다. 하지만 아직 정부소속의 관공서 등지에서는 사랑받는 중이다. 그래서 아직까지 내장그래픽에는 DE-15 단자가 남아있는 경우가 많다. 특히 저가형 메인보드에는 필수로 달려있다.
-
DVI
1999년에 규격이 발표되어 2000년부터 등장한 단자로, 초기에는 고사양 그래픽 카드에만 탑재되었다가 2000년대 중반부터는 사실상 기본 단자로 정착되었다. 하지만 단자가 차지하는 사이즈가 큰 편이라 2010년대 중반부터 원활한 방열 처리나 단촐한 구성을 위해 빠지기 시작하더니 상위 라인부터 점차 퇴출되고 있다.
-
HDMI
2003년에 규격이 발표된 후 2000년대 중반부터 등장한 단자로, 초기에는 네이티브 지원이 아니라서 별도의 써드파티 칩셋을 통해 탑재되는 식이었다가 2000년대 후반부터 네이티브로 지원하면서 2010년대부터 기본 단자로 정착되었다. DVI 단자가 조금씩 사라지기 시작한 것과는 다르게 이쪽은 여전히 기본 단자로써 존속되고 있다.[18]
-
DisplayPort
2006년에 규격이 발표된 후 2008년부터 등장한 단자로, 초기에는 일부 칩셋만 지원했기 때문에 DP 단자가 탑재된 그래픽 카드가 별로 없었으나, 2010년대 중반부터 D-Sub가 사장되고, 2010년대 후반부터 DVI 단자마저 사라져가면서 이제서야 빛을 보고 있다. 쿼드로 등 전문가용 그래픽카드는 미니 DP 규격이 들어가는 경우가 많아 따로 케이블이나 컨버터를 구비해야 할 경우도 생긴다.
-
USB Type-C
2014년에 규격이 발표되어 2018년 지포스 RTX 20 시리즈부터 등장한 단자로, 스마트폰은 대부분 갈아탄 상태지만 메인보드, 노트북, 모니터는 아직 일부 제품에만 탑재되고 있는 과도기라서 아직까진 널리 채택되지 않았다. 탑재된 그래픽 카드라도 일반적인 디스플레이 출력용이 아닌 VirtualLink용으로만 동작하는 단자라서 당장 체감될 정도는 아니지만 머지않아 그래픽 카드에서도 VirtualLink 전용이 아닌 범용 단자로써 널리 채택될 것으로 보였으나 VR 제조업체에서 전혀 채택되지 않는 모습을 보였으며, RTX 30 레퍼런스 그래픽 카드에도 채택되지 않고 결국 망하고 말았다. 그도 그럴 것이 단자 규격만 USB-C 규격이고 내부적으로는 DisplayPort Alternate Mode로 돌아갔기 때문에, 공간 때문에 단자가 부족한 모바일 기기가 아닌 이상 넣을 이유가 적었다.
기타
* 보조 전원 공급 단자
메인보드에 있는 확장 카드 슬롯에 장착하면 일반적으로 출력 단자와 슬롯에서 가장 멀리 떨어진 곳(우측 하단)에 있는 단자로, 과거에는 전력 소모량이 많지 않아서 확장 카드 슬롯에서 제공하는 전력 공급만으로도 충분할 정도였지만 그래픽 성능을 상승시키기 위해 물리적 트랜지스터의 갯수를 대폭 증가시키면서 아무리 GPU 마이크로아키텍처를 획기적으로 개선시키고, 공정을 미세화하여 누설전류를 줄여 전성비를 개선해 왔어도 과거에 비하면 전력 소모량 자체는 평균적으로 많아졌기 때문에[19] 슬롯에서 제공하는 공급 전력만으로는 감당할 수 없게 되자 전력을 추가로 공급해주는 보조 전원 공급 단자가 탑재되기 시작했으며, 지금도 메인스트림 이상의 라인에서는 거의 다 보조 전원 공급 단자가 달려 있다.
* 보조 전원 공급 단자
메인보드에 있는 확장 카드 슬롯에 장착하면 일반적으로 출력 단자와 슬롯에서 가장 멀리 떨어진 곳(우측 하단)에 있는 단자로, 과거에는 전력 소모량이 많지 않아서 확장 카드 슬롯에서 제공하는 전력 공급만으로도 충분할 정도였지만 그래픽 성능을 상승시키기 위해 물리적 트랜지스터의 갯수를 대폭 증가시키면서 아무리 GPU 마이크로아키텍처를 획기적으로 개선시키고, 공정을 미세화하여 누설전류를 줄여 전성비를 개선해 왔어도 과거에 비하면 전력 소모량 자체는 평균적으로 많아졌기 때문에[19] 슬롯에서 제공하는 공급 전력만으로는 감당할 수 없게 되자 전력을 추가로 공급해주는 보조 전원 공급 단자가 탑재되기 시작했으며, 지금도 메인스트림 이상의 라인에서는 거의 다 보조 전원 공급 단자가 달려 있다.
-
전원부
초보자들이 구매시 간과하는 부분이지만, 메인보드 전원부의 역할과 마찬가지로 그래픽 카드의 전원부도 매우 중요한 요소이다. 구조적으로도 메인보드의 전원부 구성( PWM 레귤레이터, 모스펫 드라이버, 하이-사이드 모스펫, 로우-사이드 모스펫, 초크, 캐패시터)과 유사한 편. GPU가 가장 많은 전력을 소모하기 때문에 GPU에 집중적으로 할당되는 편이며, 로우엔드 GPU에 저가형 비레퍼런스라면 2~3페이즈 정도에 그치지만 고사양 GPU가 탑재된 그래픽 카드일 경우 GPU에만 10페이즈 이상이면서 전원부의 부품들 자체도 고가의 부품으로 할당되기도 한다. 그래픽 메모리 칩을 비롯한 다른 부품에도 전원부가 존재하지만 GPU에 비하면 그렇게까지 많이 할당되어 있진 않다.[20] 같은 라인이라도 일반적으로 비레퍼런스 제품이 상급일 수록 레퍼런스보다 더 많은 전원부를 탑재하거나 같은 페이즈 개수라도 부품 자체가 발전된 고급형으로 업그레이드 해서 안정성, 신뢰성은 물론이고 GPU 클럭과 메모리 클럭이 더 높은 편이다. 여기에 쿨링 솔루션까지 제대로 갖추어져 있다면 팩토리 오버클럭되었음에도 쿨링팬 소음이 적으면서 온도 상승을 방지하기도 한다.
-
확장 인터페이스
그래픽 카드가 메인보드에 장착되는 물리적인 커넥터 규격이자 논리적 인터페이스. 1981년부터 ISA가 주력으로 사용되었다가[21], 1993년부터 PCI로, 1997년부터 8레인까지 지원하는 AGP로 갈아탔으며, 2004년부터 16레인까지 지원하는 PCIe로 갈아타 지금까지 이어지고 있다. 물론 커넥터 규격은 유지되면서 2007년에 PCIe 2.0, 2012년에 PCIe 3.0, 2019년에 PCIe 4.0으로 인터페이스의 속도 규격 버전이 업그레이드되었다. 여기까지는 일반 사용자용 그래픽 카드의 얘기고, 특정 산업 전문 분야에서는 1976년 ISA보다 더 오래된 S-100 버스(일명 Altair 버스)부터 이어져 왔으며, NVIDIA가 개발한 PCIe보다 더 빠른 NVLink라는 독자 규격을 이용하기도 하는데 일반용에 사용되는 거라고는 SLI 커넥터 말고는 없기 때문에 아직까지는 중요성이 떨어진다. 어떤 규격이든 속도는 대역폭 단위로 구분하며 대역폭이 높을 수록 데이터 이동 속도가 빨라져 병목 현상을 줄일 수 있다.
-
확장 인터페이스 브리지
여기서 브리지라 함은 GPU가 지원하는 확장 인터페이스 컨트롤러랑 커넥터 규격이 서로 호환되지 않는 구조일 때 이를 중간에 변환해주어 데이터 교환할 수 있게끔 도와주는 칩을 가리키며, 쉽게 말하면 일종의 컨버터라고 볼 수 있다. AGP 시절조차 겪은 적이 없는 젊은 유저들은 잘 모를 수 있는 칩셋인데 커넥터 규격이 전환되는 과도기에 잠시동안만 쓰였기 때문이다. 대표적으로 AGP→PCIe 또는 PCIe→AGP 방향을 둘 다 지원하는 NVIDIA의 'BR02'와 PCIe→AGP 단방향만 지원하는 ATI의 'Rialto'가 있으며, 이들을 'HSI'(고속 인터커넥트)라고도 불렀다. PCIe로 정착된 이후로는 버전에 따른 대역폭 차이만 있을 뿐, 똑같은 커넥터 규격이라 당분간 볼 일이 없는 칩셋이기도 하다.[22]
-
다중 그래픽 처리 기술
동일 혹은 같은 세대의 그래픽 카드를 복수 장착해서 연산력을 끌어올리는 것. GPU 제조사마다 방식이 다르다. -
NVIDIA
SLI
2004년 지포스 6 시리즈부터 도입된 기술로, 메인보드에 연결하는 확장 인터페이스 단자의 반대편에 보이는 짧은 사이즈의 커넥터와 다른 그래픽 카드와 연결해주는 SLI 전용 브리지를 결합해서 구현한다. -
AMD CrossFire
2005년 라데온 R400 시리즈 후기에 등장한 기술로, 초기에는 이를 지원하는 전용 그래픽 카드랑 Y자형 동글이 필요하여 SLI보다 불편했으나 2006년 라데온 R500 시리즈 후기부터 SLI처럼 브리지 하나로 구성이 간단해졌고, 2013년 2세대 GCN 마이크로아키텍처 기반의 라데온 RX 200 시리즈부터 별도의 부속품 없이 PCIe의 여유 대역폭을 이용한 직접적인 통신으로 변경되어 더욱 깔끔한 구성으로 발전되었다.
-
쿨러
작동되는 모든 컴퓨터 장치는 열이 발생하는데 그중에서도 그래픽 카드가 CPU와 함께 투톱을 달리는 발열량을 자랑한다. 과거에는 CPU와 마찬가지로 발열량이 많지 않아서 쿨러 자체가 따로 없었으나, 성능 향상을 위해 공정을 미세화시켜서 연산 유닛들을 더 많이 탑재하고 클럭을 더 높이다보니 발열량이 어마어마해져 쿨러 없이는 제대로 동작할 수 없는 수준으로 불덩이가 되었다. 그것도 모자라 히트싱크가 아예 기판을 다 덮는 거대한 크기까지 커지기도 하고, 좀 더 빨리 냉각시키기 위해 쿨링팬의 직경이 커지며, 개수도 1개가 아닌 3개까지 많아지기도 하는 등 좀 더 빨리 방열시키기(방열량을 키우기) 위해 히트파이프를 그것도 여러 라인으로 구성하기도 한다. 일부 고급형 제품의 경우 CPU의 일체형 수랭 쿨러처럼 펌프, 워터블럭, 라디에이터와 팬을 콤보로 만든 수랭 버전도 출시한다.
-
백플레이트
그래픽 카드의 뒷면(쿨러가 안 보이는 면)에 탑재되는 플라스틱/금속 재질의 판으로, 일차적인 용도는 순전히 디자인적 역할만 하는 장식이지만 노출되어 있는 PCB 뒷면을 물리적 손상이나 먼지로부터 보호하는 역할도 겸하며 슬롯에 장착된 상태에서 무게로 인해 PCB가 아래로 휘는 현상 또한 완화해 준다. 하이엔드~플래그십의 비레퍼런스 제품에는 거의 필수적으로 달려 나오고, 메인스트림 라인까지는 디자인이 단촐해질지언정 역시 탑재되어 있지만 하급 비레퍼런스 제품에는 단가 절감을 위해 탑재되지 않는 경우가 간혹 있다. 엔트리 이하의 라인에는 탑재되지 않는 제품의 비중이 더 크다.
-
VBIOS /
GOP [24]
비디오 바이오스(Video BIOS), 그래픽 카드 바이오스라고도 하며, VBIOS는 비디오 하드웨어에 접근하기 위해 프로그램들이 사용하는 비디오 관련 기능들의 집합을 제공한다. 만일 그래픽 카드에 BIOS가 없다면 메인보드에서 대신해서 인식해야 할텐데, 이렇게 되면 메인보드가 부담하게 될 내용도 많아지고[25], 무엇보다도 그래픽 카드 제조사들이 애써 선별해 놓은 라인업을 제대로 적용할 수 없게 된다. 이러한 문제를 해결하기 위해 나온게 바로 비디오 바이오스다. 업데이트가 간혹 나오기는 하나, 만일 업데이트 도중에 문제가 생기면 그래픽 카드는 벽돌이 되니 업데이트 시에 각별히 주의해야된다.[26] 현재는 메인보드 UEFI와 마찬가지로 그래픽 카드 역시 GOP로 대체되었지만, 여전히 관습적으로 VBIOS라고 부르고 있다.
4.1. GPU 칩 상태에 따른 구분
모든 공산품이 그렇듯이 반도체 또한 불량품이 나오기 마련인데, 보통 팹리스인 NVIDIA와 AMD 등의 기업들은 TSMC나 삼성 같은 파운드리에게 칩셋 단위로 계약을 하지 않고, 웨이퍼 한 장 단위로 계약을 맺는다. 쉽게 감자로 설명하자면 감자밭에서 수확한 감자 1개씩을 사는 게 아니라, 감자밭 1평당 생산되는 감자의 가격을 예측해서 돈을 주는 방식이다. 때문에 여기서 이익을 극대화하기 위해서는 '불량 감자'도 어떻게든 팔아먹어야 한다.이렇게 해서 나온 게 풀 칩(Full chip)과 컷 다운 칩(Cut-down chip)의 개념이다. 풀 칩은 말 그대로 설계도면상의 모든 부분이 완벽히 작동하는 칩을 일컫는 말이며, 이는 컷 다운 칩에 비해 비싼 가격에 판매된다. 컷 다운 칩은 칩을 검사해서 완전히 불량은 아니지만, 일부 불량인 지점을 레이저를 통해 물리적으로 잘라내거나 BIOS를 통해 소프트웨어적으로 제한을 걸어 놓은 칩이다. 다시 감자에 빗대면 온전한 감자는 제 값에 팔고, 싹 난 감자는 싹 난 부분만 도려내고 좀 더 저렴하게 판매하는 것이다.
예를 들자면, NVIDIA의 TU106 풀 칩은 GeForce RTX 2070으로 나왔고, TU106의 컷 다운 칩은 GeForce RTX 2060으로 출시되었다. AMD의 경우, NAVI 10 풀 칩은 RX 5700 XT, NAVI 10 컷 다운 칩은 RX 5700, RX 5600 XT로 출시되었다.
많은 사람들이 혼동하고 있는 것인데, 단순히 상위급 GPU라고 해서 풀 칩인 게 아니고, 보급형 GPU라고 무조건 컷 다운 칩인 게 아니다!!! 어디까지나 해당 DIE가 본래 설계된 스펙 100%로 동작하느냐, 일부라도 비활성화된 영역이 존재하느냐로 따진다. 즉 RTX 4090이 아무리 비싸고 성능이 좋은 플래그십 GPU라도, AD102 칩의 100% 스펙이 아닌 이상 4090은 무조건 컷 다운 칩이며, RTX 40시리즈에서 가장 막내인 RTX 4060이 아무리 성능이 가장 낮다 한들 AD107 100% 본래 스펙대로 동작하는 이상 4060은 풀 칩인 것이다.
5. 역사
1981년에 나온 IBM 호환 PC용 MDA[27][28] | |
과거에는 쿨러가 아예 없거나, 있어도 작은 방열판뿐이거나 작은 쿨러 하나 뿐이었다.[29] 단자 규격은 AGP / PCI[30] |
5.1. 태동기 (1981~1991년)
본디 초창기의 컴퓨터들은 오늘날의 온보드 그래픽이나 게임 콘솔처럼 아키텍처의 일부로서 메인보드에 특정한 그래픽 하드웨어 및 출력 계통을 고정적으로 달고 있는 것이 일반적이었다. 따라서 특정한 기종의 PC라면 정해진 그래픽 성능을 지니고 있는 것이 상식이었으나[31], 이런 상식을 깨고 그래픽 카드라는 교체가능한 애드온 형태으로 내놓은 것은 1981년 등장한 IBM PC Model 5150이었다. 5150은 8비트 ISA 슬롯에 모노크롬에 미려한 텍스트를 표시할 수 있는 MDA(Monochrome Display Adaptor)와 해상도는 낮지만 컬러 그래픽을 표시할 수 있는 CGA(Color Graphics Adaptor)를 옵션으로 선택할 수 있었다. 이것이 최초의 그래픽 카드이다.모듈로서의 그래픽 카드를 널리 퍼뜨린 IBM PC는 1981년에 사무용 컴퓨터로 시작했기 때문에 MDA와 CGA도 사무 목적으로는 아주 강력한 성능을 보였다. MDA는 단색 계조만 지원하고 그래픽 모드를 지원하지 않는 대신 720*350이라는 고해상도를 지원했다. CGA는 텍스트 모드에서 동시 발색 수가 16개였으며 해상도 역시 640*200였다. 또한 둘 모두 25줄에 80글자를 표현하는 텍스트 모드를 지원했다. 당시 사무실의 경쟁자였던 애플 II는 해상도가 고작 280*192에 지나지 않았고 텍스트 모드에서도 24줄에 40글자만 표현할 수 있었으며, 동시 발색 수만 겨우 CGA와 대등했을 뿐이다.
그러나 게임용으로 들어가면 이야기가 달라진다. 일단 MDA는 그래픽 모드를 지원하지 않았으므로 텍스트로 이루어진 게임만 즐길 수 있었다. 당연히 게이머들은 쓰지 않았다. CGA는 그래픽 모드를 지원했지만, 640*200에서는 동시 발색 수가 2개였고 320*200에서는 동시 발색 수가 4개였다. 해상도를 더 낮춘 160*100에서는 동시 발색 수가 16개였지만 해상도가 너무 낮아서 선호되지 않았다. 이 그래픽 부분만큼은 애플 II를 포함해 그 어떠한 당대 주류 컴퓨터, 게임기보다도 떨어져서 게이머들에게 매우 큰 악평을 받았다. IBM도 이 문제를 완전히 손 놓고 있던 것은 아니었기에 게임용으로 CGA 컴포지트 모드를 지원했는데, 컴포지트 단자 연결 시 픽셀의 배치에 따라 색이 번지는 것을 이용하여 640*200 2색 모드를 160*200 16색처럼 보이게 하는 방식이었다. 그러나 그 대가로 화질이 열화했으므로 이 역시 완전한 답이 되지는 못했다.
IBM PC에서 이 그래픽 문제를 해결하고자 앞장선 것은 서드파티 업체들이었다. IBM PC는 BIOS를 제외하면 오픈 아키텍처였기 때문에 모든 사양이 공개되어 있어 서드파티 업체가 MDA 또는 CGA와 하위호환되면서 더 나은 성능을 제공하는 그래픽 카드를 만들 수 있었다. 그 가운데 가장 성공한 제품 중 하나가 MDA와 호환성을 가지는 미려한 텍스트에 고해상도(720*348) 흑백 그래픽 모드까지 지원하는 허큘리스 그래픽 카드(HGC)이다. 이 카드는 대한민국을 비롯한 한자문화권 국가나 기타 자형이 복잡한 문자를 많이 사용하는 나라에서 자국 문자를 표기하기 위한 용도로 많이 보급되었다. CGA도 이른바 슈퍼 CGA(SuperCGA)라고 하여 그래픽 모드의 320*200 해상도와 640*200에서 모두 동시 발색 수 16개를 지원하는 카드가 서드파티 업체에 의해 개발되었지만, 지원하는 소프트웨어의 부족으로 크게 성공하지는 못했다.
그리고 1984년, IBM PC AT의 발매에 발맞추어 IBM에서는 CGA의 낮은 동시 발색 수를 극복하면서 CGA를 하위호환할 수 있는 새로운 그래픽 카드인 EGA(Enhanced Graphic Adaptor)를 발매했고, 시장의 상당한 호응을 얻어 ATI의 'EGA Wonder'등 서드파티의 클론제품들도 여럿 발매되었다. 640*350의 해상도에 64색 팔레트 내에서 동시 발색 수가 16개인 준수한 성능이었고 서구권에서는 상당한 성공을 거두었다. 하지만 CGA에 비해 나아진 것이지 애플 IIGS나 아미가와 같이 동시대의 앞서가는 하드웨어에 비하면 해상도는 차치하고라도 64팔레트라는 컬러 공간은 많이 부족한 성능이었기도 했거니와 특히 한자문화권 국가에서는 40*25 정도의 텍스트 화면을 표시할 수 있는 해상도를 원했는데[32] 세로 350픽셀로는 그것이 불가능하여 아시아권에서는 별 재미를 못봤다. 만약 최대 세로 픽셀이 400이었다면 컴퓨터 역사가 달라졌을 것이다.
1987년 IBM은 IBM PS/2를 발표하며 VGA(Video Graphics Array)를 기존의 애드온 형태가 아닌 메인보드에 내장하는 형태로 집어넣었는데, 이것이 당시에 대단한 센세이션을 일으켰다. EGA보다도 고해상도인 640*480 해상도라 아시아권의 요구에도 맞아 떨어졌고, 표현 가능한 색은 여전히 16색이었지만 262,144 팔레트로 색공간이 어마어마하게 넓어지며 동시대의 경쟁기들에 뒤지지 않는 화려한 그래픽을 선보였다. 기존의 EGA와 CGA를 하위호환하는 것은 덤. 해상도를 CGA급인 320*200으로 낮추면 256컬러를 사용할 수 있어 굉장한 반응을 불러일으켰고, 많은 서드파티 업체들이 리버스 엔지니어링을 통해 VGA 호환 그래픽 카드들을 내놓으며 IBM PC 호환기종의 그래픽 카드 시장은 사실상 VGA로의 표준화가 이루어졌다. 현재의 그래픽 카드들 역시 VGA 모드를 하위호환을 위해 남겨두고 있으며 'VGA'라는 어휘가 '그래픽 카드'와 동의어로 사용되고 있을 정도이므로, 오늘날 그래픽 카드의 중시조는 바로 이 VGA라고 하겠다.
이후 IBM은 1990년에 XGA(eXtended Graphics Array)를 PS/2 시리즈에 내장하였고 92년에는 그래픽 카드의 형태로 XGA-2를 내놓았지만 1024*768에서 256색, 640*480에서 하이컬러(65,536색)를 표현하는 높은 성능에도 불구하고 VGA 때의 성공을 거두지는 못했다. 여러가지 이유가 있었겠지만 당시의 시장 상황이 가장 큰 원인이었다. VGA 호환 카드 시장은 가히 춘추전국시대를 방불케했는데, 베이스인 표준 VGA 부분은 IBM의 설계를 따랐지만 각 업체들마다 독자적인 확장을 가해서 800*600, 1024*768은 물론이고 1280*1024같은 당시로서는 대단한 고해상도를 지원하고 컬러 성능 역시 XGA에 못지 않는 일명 'S(Super)VGA'의 시대가 와 있었던 것이다. XGA의 발표는 이런 시장상황에 대항하기 위한 것이었다.하지만 SVGA는 SVGA대로 난맥상이었던 것이 제조업체들마다 독자적인 확장을 하다보니 이 확장된 부분은 서로 전혀 호환성이 없었다. 나중에 VESA(Video Electronics Standards Association/영상 전자 표준 협회)에서 표준안이 나오며 이런 난맥상도 정리되지만 이 시대의 하드웨어들은 꽤나 혼란스러웠다.
메인스트림의 흐름은 이랬지만 한편으로는 일반에 잘 알려지지 않고 역사의 뒤안으로 사라진 그래픽 카드들도 당연히 여럿 있다. 특히 1980년대에 일찌기 VGA보다 강력한 기능을 지원하는 오버 스펙 그래픽 카드가 제법 있었다. 성능은 당대 수준보다 한참 높았지만 가성비가 똥망이라 보급이 안 되고, 보급이 안 되다 보니 지원해 주는 프로그램이 드물어서 망한 게 대부분. 1984년에 이미 640×480 해상도에 256 컬러(4096 팔레트)를 낼 수 있는 준수한 성능의 PGC(Professional Graphics Controller)라는 카드가 EGA와 함께 나왔지만 전문가용이라는 이름 답게 가격이 '4,290 달러'나 되어서 널리 보급되지 못했다. 이 라인을 잇는 것이 1987년 VGA와 함께 나온 8514/A인데 이쪽 역시 1024*768에서 256색을 뿌려주고 그래픽 가속까지 해주는 굉장한 성능을 가졌으나 역시 비싸서 전문가 시장에 좀 팔리고 말았다. 그나마 가격은 좀 싸져서 1,290 달러. XGA는 사실 VGA가 아닌 8514/A 계통에서 발전한 카드이며 호환 카드도 제법 나왔다. SVGA 중에서도 8514/A 호환 기능을 가진 것도 몇 있었을 정도.
서드파티 쪽에서는 이미 1987년에 시대를 아득히 앞서가서 1280×1024에 24비트 트루 컬러를 제공했던 트루비전의 TARGA가 유명하다. 물론 가격이 '3000달러'에 육박했으므로 전문가 시장에서 사용되었을 뿐 일반 시장에 보급되기엔 너무나도 큰 가격이었다[33]. 1989년 텍사스 인스트루먼트가 내놓은 TIGA(Texas Instruments Graphics Architecture)라는 놈도 있는데 이쪽은 1986년 텍사스 인스트루먼트가 개발한 TMS34010/34020이라는 독자적인 칩셋[34]을 장착하고 역시 시대를 꽤 앞서는 그래픽을 구현했다. 하지만 이미 시대는 SVGA가 판치는 시대였기 때문에 역시 폭망. 그나마 다행인건 칩셋만은 아케이드 기판이나 유닉스 워크스테이션 등에 들어가 꽤 쓰였다는 것.
이렇듯 그래픽 카드의 성능 척도는 해상도나 색상이 이슈였기 때문에 단순히 VRAM을 늘리고 RAMDAC을 개선해서 더 높은 해상도에서 더 많은 컬러를 표시하는 것이 (S)VGA 시장의 방향성이었다. 아직까지 화면에 그림을 그려내는 연산은 온전히 CPU의 몫이었고 VGA의 '속도'는 시장에서 중요하게 여겨지는 요소는 아니었다.
5.2. 2D 가속기 시대 (1991~1995년)
1990년대에 들어서 Microsoft Windows나 IBM의 OS/2와 같은 GUI OS가 PC에도 도입되었고, 자연스럽게 컴퓨터를 이용한 멀티미디어 분야가 주목받게 되었다. 이에 맞춰 Windows API의 화면 표시 기능들을 가속해 주는 2D 가속 카드가 등장하게 되었다. GUI의 가속은 전술했던 8514/A나 XGA, TIGA 등의 고급 모델에서 OS/2를 염두에 두고 제공했던 기능이었으나 당시만해도 그것이 중요한 기능으로 여겨지지 않았다가 GUI OS의 보급으로 인해 시장에서는 서서히 가속(Accelator) 기능이 부각되기 시작하여 Windows 가속 기능이 SVGA 주류 모델들에 하나둘 씩 들어가기 시작했던 것이다. 1991년 5월에 출시된 ATI의 Mach8과 1991년 6월 10일에 출시된 S3 Graphics의 86C911이 대표적인 2D 그래픽 및 Windows GUI 가속기였다.그러나 2D 그래픽 카드에 있어 가속은 보조적인 역할일 뿐, 실제 그래픽 처리는 CPU의 처리능력에 의존하는 바가 컸으며 그래픽 카드는 단순히 '프레임 버퍼 제공' 정도의 역할이 메인이었다. 2D 가속 기능이 있는 그래픽 카드가 없는 것보단 낫지만 제약도 많았다. 예를 들어 DirectDraw 가속 카드의 경우 굉장히 기초적인(이미지 데이터를 프레임 버퍼에 복붙하는) 기능밖에 없기 때문에 반투명 처리 등의 특수효과를 구현하기엔 애로사항이 많다. 또한 동영상 가속을 지원한다는 그래픽 카드도 실제로는 색공간 변환(YUV→RGB)이나 크기 조절 정도만 가속이 되며, 동영상 재생 시 대부분의 성능을 요구하는 동영상 포맷 디코딩의 경우는 CPU나 전용 디코더 카드가 거의 전담하였다. 그래픽 카드가 실제로 디코딩에 참여하게 된 것은 DVD의 보급 여명기인 90년대 후반부터이며, 모든 디코딩 작업이 가능하게 된 것은 또 한참 뒤의 일이다. 어쨌든 시스템 메모리의 데이터를 VRAM에 넣어야 하는 만큼, 당시에도 고급형 취급 받는 그래픽 카드 중 VRAM 속도가 빠르지 않은 것은 없었다.
1994년부터 동영상 디코딩까지 가속 가능한 2D 가속 그래픽 카드들도 등장하기 시작했다.
5.3. 3D 가속기 시대 (1995~2006년)
정말 제대로 된 가속 기능이 들어간 것은 1990년대 중반 3D 게임의 시대가 왔을 때부터이다. 3D 게임이 개발되고 3D 게임에 필요한 계산 수요가 많아지면서, 3D 그래픽 가속 기능에 대한 요구도 나타나게 되었다. 1995년 11월에 출시된 NVIDIA NV1과 3Dlabs의 GameGLINT,[35] 그리고 12월에 출시된 필립스의 Paradise Tasmania 3D가 3D 가속 그래픽 카드들의 시초로 알려져 있지만, 셋 다 모두 소프트웨어 렌더링한테도 못 되는 수준이라는 오명을 씌운 형편 없는 성능이었다.그 뿐만 아니라, 초창기 3D 카드는 카드별로 설계가 다 달랐고, 오늘날의 DirectX나 OpenGL처럼 통일된 표준 API가 있던 시대도 아니라서 프로그램 레벨에서 카드별로 모두 독자적으로 지원해야 했다. 이렇다 보니 구매자들한테는 구매 단계부터 사용법까지 보급에 어려움이 많았고, 결국 극소수 하이엔드 유저들만의 전유물이었다. 이러한 현상은 DirectX의 3D 그래픽 라이브러리인 Direct3D가 등장한 1996년에도 지속되었고, Voodoo 시리즈가 성공을 거두었던 이유 중 하나도 독자적인 API들 중에서도 글라이드라는 걸출한 독자 API를 자사 전용으로 제공했던 데 있었다.
지금은 내장 GPU조차도 기본적으로 3D를 지원하는 시대이지만, 3D 그래픽 게임이 대두된 1990년대 중반까지만 해도 3D 그래픽 카드는 선택사양이었고, 기본적으로는 PCI 슬롯의 2D 그래픽 카드가 대세였다. 3D 게임은 그냥 소프트웨어 렌더링, 즉 CPU의 연산으로 때웠다. 심지어 일부 저가형 PCI 2D 그래픽 카드는 MPEG 동영상 재생 기능에도 문제가 있었다. 당시에는 온보드로 메인보드에 얹혀진 GPU가 거의 없어서 그래픽 카드는 필수였고, 그래픽 카드 없이는 PC를 부팅조차 할 수 없었다. 1997년부터 여러 그래픽 카드 설계 기업들이 독자적인 API의 지원을 점차 중단하게 되고, Windows 운영체제 차원에서 OpenGL과 DirectX 등의 API를 기본 제공할 정도로 3D 지원을 본격화하기 시작함에 따라 3D 그래픽 카드는 차츰 필수적인 컴퓨터 부품으로 자리잡게 되었으며, API도 OpenGL, DirectX, Glide로 정리되었다.
초기 3D 그래픽 카드 시장에는 기능적인 범위에 따라 오늘날의 그래픽 카드처럼 그래픽 카드 자체에 2D, 동영상, 3D 가속 기능 모두 포함된 컨버전스 형태를 취한 제품과 '3D 카드'라는 이름으로 별도의 3D 가속 칩셋을 장착한 전문적인 애드온 카드 형태를 취한 제품으로 시장 형태가 분화되어 있었다. 전자의 컨버전스 형태로 가장 성공한 제품은 NVIDIA의 RIVA 128이였고, 후자의 3D 애드온 형태로 가장 성공한 제품이 바로 3dfx Interactive의 Voodoo였다.
그래픽 카드의 연산 속도가 급격하게 빨라지고 VRAM의 대역폭도 점차 커지며 기존에 사용하던 인터페이스인 PCI의 대역폭이 부족해지자 1997년 8월에 그래픽 카드 전용 인터페이스인 AGP 규격이 도입되고, 1999년 10월부터 3D 가속에 필요한 지오메트리 처리 기능이 일반 소비자용 그래픽 카드에 내장, 2001년부터 프로그래머가 직접 프로그래밍 할 수 있는 영역이 확대되는 등 그래픽 카드의 역할이 매우 커졌으며, 2004년에 계속된 속도 향상을 받쳐주기 위해 AGP를 능가하는 직렬 버스 규격인 PCI Express가 도입되는 등 빠른 그래픽 성능을 받쳐주기 위한 외부 규격 역시 계속 발맞추어 발전되어 왔다.
5.4. GPGPU 시대 (2006년~현재)
2006년 11월에 출시된 NVIDIA의 GeForce 8 시리즈와 2007년 5월에 출시된 ( ATI를 인수합병한) AMD의 Radeon HD 2000 시리즈부터 그래픽 카드의 개념이 '그래픽스 특화 → 그래픽스 겸 GPGPU'라는 획기적인 변화가 있었다. 그래픽 카드로 3D 게임만이 아닌 다른 분야에서도 무궁무진하게 활용할 수 있게 되었는데, 이는 이전까지 새로운 그래픽 처리 기능이 추가되고 프로그래머가 개입할 수 있는 그래픽 프로그래밍 영역이 확장되는 정도를 넘어선 엄청난 패러다임 변화였다. 3D 그래픽 카드 역사상 현대 이전과 이후를 결정지을 정도로 큰 분기점인 셈. 훗날에 64-bit 배정밀도 연산, 테셀레이션, 비동기 컴퓨팅, 16-bit 반정밀도 연산, 텐서 특화 연산, 레이 트레이싱 등 새로운 기능들이 추가 지원되고 있지만, 기본 골격은 유지되고 있기 때문이다. 그렇다고 다른 분야에서만 효용성이 있었던 것은 아니고 그래픽 카드의 주된 분야인 게임에서도 성능 향상 효과가 컸는데, 이는 기존의 별도로 수행했던 버텍스 셰이딩과 픽셀 셰이딩 기능을 하나의 통합 셰이더 형태로 구현하여 유연성과 효율성을 모두 확보한 점이 가장 컸다.[36]그러나 2010년대 이후에 들어서는 굳이 외장 그래픽을 장착할 필요 없이 CPU 내장 그래픽만으로도 게임이나 일부 GPU 연산을 많이 사용하는 소프트웨어를 제외하면 대부분의 소프트웨어가 문제 없이 작동하는 시대가 되었다. 초창기엔 바탕화면 표시기 소리를 들었던 내장 그래픽 칩셋도 많이 발전하여 엔트리급 그래픽 카드 정도는 커버하는 성능을 보여주고 있기 때문. 초기엔 메인보드 칩셋에 GPU를 박았으나 현재는 CPU 내에 GPU가 들어가있는 형태가 주류이다. 인텔 CPU의 경우는 대부분이 CPU에 GPU까지 내장하고 있고 AMD의 경우는 이런 설계의 원조인 APU를 만든 회사임에도 APU 라인을 따로 운영하기 때문에 메인스트림 모델에는 GPU를 넣지 않는다. CPU에 GPU가 박혀있어도 메인보드 칩셋에 따라서 내장 그래픽을 지원하지 않는 경우도 종종 있어서 그래픽 카드가 반드시 필요한 경우도 있는데, 이런 경우는 대부분 외장 그래픽 카드를 반드시 달 것이라 전제하고 굳이 필요없는 그래픽 출력부를 빼버리고 나오는 모델.
2000년대 후반부터는 HDMI 오디오 출력을 위한 음성 코덱 때문에 그래픽 기능뿐만 아니라 사운드 카드의 출력 기능까지 기본적으로 내장하게 되었다. 더 나아가 2013년 후반부터 일부 라데온 Rx 200 시리즈 카드는 TrueAudio라는 사운드 가속도 지원하기에 이르렀고, 개발 편의성을 위해 2016년 중반 라데온 RX 400 시리즈 카드부터 별도의 칩셋이 아닌 GPU 내부 연산 유닛의 일부를 공유하는 방식으로 전환된 TrueAudio Next로 발전되었다.
6. 크기와 전력 소모의 역행
움짤로 보는 그래픽 카드의 변천사, RTX 3090 FE 크기 비교컴퓨터를 구성하는 부품 중 유일하게 기술이 발전할수록 크기와 전력 소모도 커지는 장치이다. 이제 어지간한 일반형 크기의 메인스트림 그래픽 카드는 방열판과 팬으로 인해 2~3개의 슬롯을 차지하고 6핀 혹은 8핀 케이블 1~2개를 요구하며, 최상위 라인업의 경우에는 슬롯 4개, 6/8핀 3개(혹은 신형 단자인 16핀 단자)를 먹기까지 한다. 그 열을 케이스 내부에 뿜어대는 걸 감당 못해 케이스 옆판을 방충망으로 바꾸기도 한다.
그래픽 카드가 점점 커져서 길이도 길어진 탓에 하드디스크 베이에 막히거나 케이스의 전후폭이 좁아 좋은 그래픽 카드가 있는데 장착을 못 하거나, 베이를 찢어서 억지로 장착해야 하는 상황[37]이 벌어지기도 해서 케이스를 고를 때 그래픽 카드의 길이도 고려 대상이 되었다. 그리고 커지면 커질수록 무게 또한 무거워지기 때문에 메인보드 기판만으로는 그 무게를 견디지 못해 케이스에 별도의 나사를 이용해 고정시키지만, 무게가 무거운 제품은 나사로 고정을 시켜도 앞 부분이 휘어 접촉 불량을 일으키고 심하면 PCI-Express 16x 슬롯을 휘게 만들고, 장기적으로는 VRAM 접합부가 떨어져나가는 문제가 발생 할 수 있기 때문에 필수적으로 지지대를 장착해야만 하는 시대가 되었다.
이를 막기 위해 거추장스럽지만 어쩔 수 없이 지지대 역할을 할 수 있는 물건을 넣어 줘야 한다. 이 때문에 전용 지지대 제품이 나오는 지경에 이르렀다. 백플레이트가 장착이 되어 나오는 제품도 발매되고, 메인보드가 그래픽 카드의 무게를 버티지 못해 PCI 슬롯 뒷면에 추가 보강을 할 지경까지 갔다. 그걸로도 모자라 라이저케이블을 이용해 그래픽 카드를 메인보드에서 이격시키기도 할 정도다. 나무젓가락을 적당히 잘라서 지지문제를 해결해버리는 경우도 있다.
전력 소모가 커지다 보니 2006년에 '그래픽 카드 전용 파워 서플라이' ( 예시 #1 예시#2)라는 것이 나온 적도 있었다. 그래픽 카드는 PCI-E 를 통해서 전원을 공급받고, 그래도 모자라는 전력을 보조 전원을 통해서 공급받는다. 이 파워 서플라이는 보조 전원을 지원해 주는 역할을 한다. 하지만, 기본 파워 서플라이의 용량이 너무 작으면 이런 파워 서플라이를 추가하더라도 그래픽 카드 구동이 안된다는 치명적인 단점이 있었다. 현재는 대용량 파워서플라이가 대중화됨에 따라 이런 제품들은 단종되었으나, 이 추세가 계속 될 경우 이러한 제품이 다시 나오게 될 가능성을 배제 할 수 없다. 최근에는 파워가 2대 달리는 케이스에 듀얼파워 커넥터같은 물건들도 있어[38] 그냥 기성 파워를 두개 쓰면 된다.
이미 HTPC의 경우 화면 출력에 쓰는 내장 그래픽의 성능도 게임만 안 돌리면 충분히 영화 및 인터넷에 쓸 만할 정도까지 올라가서 퍼포먼스급 그래픽 카드 수준, 더 나아가 스틱 PC라는 제품도 있을 정도로 어마어마하게 작은 크기의 HTPC가 나오는 수준이다.
그래픽 카드의 크기가 계속 커지는 이유는 그래픽 카드의 주요 부품인 GPU와 그래픽 메모리 때문이다. GPU도 CPU와 마찬가지로 공정 미세화가 진행되고 있지만, 공정이 미세화된 만큼 코어를 더 때려박아 결국 칩의 크기는 제자리걸음을 걷고 있다. 이는 GPU가 SIMD 구조이기 때문인데, 코어만 늘린다고 능사가 아닌 CPU와 달리 GPU는 코어를 때려박으면 때려박는 만큼 성능 향상이 된다. 2016년 기준 NVIDIA/AMD 양사에서 나온 GPU중 가장 코어 수가 적은 GPU가 라데온 RX 460에 사용된 Polaris 11인데, 이 GPU의 스트림 프로세서 수는 무려 1024개이다.[39]
그러한 이유로 아무리 공정 미세화를 시키고 저전력 설계를 한다 해도 칩 면적은 넓어지고 발열과 소비전력은 커진다. 이러한 GPU의 고발열화/고전력화가 가장 절정에 달했던 시절은 2010년 페르미 아키텍처 기반 GPU 중 GF100을 사용한 그래픽 카드. 지포스 GTX 480, 470, 465가 해당된다.[40] 테슬라 아키텍처 기반의 GT200을 사용한 지포스 GTX 280이 거대한 칩 면적에 TDP 200W를 훌쩍 넘더니 GTX 480에서 가히 정점을 찍게 된다. 이후엔 각 세대마다 TDP 250W급의 그래픽 카드가 매우 당연한 것처럼 쏟아져 나왔으며, 웬만한 메인스트림 그래픽 카드도 기본적으로 TDP 150W 정도는 깔고 들어갔다.
현재 VRAM으로 사용 중인 GDDR은 일반 DDR보다 훨씬 넓은 대역폭을 가지지만 발열과 전력 소모도 심해 GDDR4부터는 아예 램에 방열판을 안 붙일 수가 없는 수준이 되었다. 다만 대역폭 가지고 GDDR이 DDR을 대체할 수는 없다. 어차피 DRAM 자체의 속도란 게 한계가 뻔하기 때문에 대역폭이 늘어난 만큼 램타이밍이 늘어진 게 GDDR이라, 레이턴시는 큰 차이가 없다. 괜히 CPU용으로 GDDR 썼다간 성능 이득도 거의 없이 원가만 오른다. 16년도 현재도 GDDR로 DDR은 대체한 녀석은 게임 콘솔, 그것도 APU에 내장된 GPU의 성능을 뽑아낼 목적으로 채택한 PS4/PS4 프로밖에 없다는 게 명백한 증거. 다만 전성비로만 따지면 DDR보다 GDDR이 더 좋다. 이렇게 뜨끈뜨끈하고 전기도 잘 드시는 분을 8개 16개씩 붙이기도 하고, 1,300만 원짜리 RTX 6000 Ada에는 칩이 무려 24개씩이나 달려 나오니 크기가 작아질래야 작아질 수가 없고 전력 소모량이 높아지니 보조 전원 케이블도 적게는 6핀 1개, 많게는 8핀 3개 이런 식으로 덕지덕지 붙어야 된다.[41] 여기에 GPU 자체도 효율성은 높아지고 있지만 그 효율성을 상회할 정도로 성능 향상 폭이 커지므로 역시 전력을 잡아먹는 주원인을 제공한다.
근본적으로는 GPU의 전력소모량 문제가 해결되어야 길이 문제와 크기 문제도 동시에 해결이 가능할 것이다. 상기 예를 들었던 Fury X나 Nano의 경우도 전자의 경우 수랭쿨러를 이용했다는 점, 후자의 경우는 풀칩 Fury 중에서도 전압과 동작 속도를 낮추어 싱글 팬과 짧은 기판에 대응하게 했다는 점을 간과해서는 안 된다. 실제 컷칩 퓨리의 경우는 기존 200 시리즈와 크게 다르지 않은 거대한 쿨러/방열판을 자랑한다. 또한 HBM이 고클럭화될 경우 기존 GDDR보다 높은 전력소모량 및 발열량을 보인다는 연구결과도 있기에 더욱 신중해질 필요가 있다. (이는 위의 GPU의 고발열화 원인과 같은 얘기다. 간단한 예로 같은 성능에서 전력을 35% 덜 먹는다고 하면 꽤 큰 차이지만, 성능을 두 배로 올리면 결국 전력을 30% 더 먹는 결과가 나온다.
또한 현재의 반도체 공정이 기존의 공정과는 다르게 스케일링되는 만큼 전력 소모량이 줄지 않아 크기는 줄어들지만 면적당 전력 소모량과 발열량은 계속해서 커지고 있다.
현재의 그래픽 카드는 위와 같은 성능 상의 발전뿐만 아니라 컴퓨터 튜닝의 한 요소로도 발전하고 있다. 그래픽 카드의 쿨러의 심미적 측면이 강조되면서 개성있는 쿨러 디자인이 제안되기도 하고, PCB 자체를 특별한 색으로 제조하여 컴퓨터 튜너들의 관심을 얻기도 하고 있다. 이러한 심미적인 요소들은 한국에서도 큰 호응을 받고 있으며, 특히 일부 컴퓨터 관련 커뮤니티를 중심으로 이에 대한 사용자들의 활동이 이루어지고 있다.
다행스럽게도 2017년 기준으로 최신 그래픽 카드 자체 크기는 증가가 아닌 정체 단계에 접어들었다. 소비전력도 보조전원 6핀 단자 하나만 요구하는 등 예전에 비해 확실히 많이 작아졌다. 물론 쿨러 때문에 여전히 크긴 하지만, 라데온 프로의 경우 슬롯 한 칸만 차지할 정도로 작아졌다. 일반 그래픽 카드도 아니고 워크스테이션 컴퓨터에 쓰이는 그래픽 카드다. 기본적으로 쿨러 때문에 슬롯을 2칸[42]씩 차지하는 경우가 대부분이기 때문에 아무리 그래픽 카드 자체가 작아져도 냉각 때문에 그에 걸맞은 쿨러가 필요하다. 전력 소비는 기존 세대에 비해 많이 떨어지긴 했다.
2015년부터 TSV(Through Silicon Via)를 활용한 HBM이라는 새로운 구조의 그래픽 메모리가 도입되어 지속적으로 대형화되던 그래픽 카드의 문제에 변화가 일어날 것으로 보인다. HBM은 메모리를 층층이 쌓아올린 구조인데, 클럭은 감소하지만 I/O 핀이 크게 증가해 HBM1 기준 대역폭은 GDDR5를 상회하고, 전력 소모량도 동일 대역폭일 경우 3배 차이, 칩 크기도 동일 용량일 경우 94%가 작아진다. 실제로 라데온 RX 300 시리즈에서 피지칩을 사용한 제품군들이 HBM 메모리 도입만으로도 소형화에 상당히 가시적인 성과를 보여주었다. 이후 세대에서는 엔비디아와 AMD가 하이엔드 제품을 중심으로 좀 더 진보된 HBM 메모리를 도입할 예정이라 상위 그래픽 카드의 지나친 길이 문제가 해소될 것이 기대된다.
2021년 현재, 이 그래픽 카드 기판의 크기 문제는 엔비디아의 FE 암페어 카드에서 독자규격의 보조전원단자까지 채택해가며 HBM을 사용한 AMD의 Fury X, Vega nano에 견주는 체적의 실전압축 PCB를 선보여 제조사의 의지 여하에 따라 비싼 HBM을 사용하지않고서도 충분히 체적을 줄일 수 있음을 증명했다.
아예 컴퓨터 본체 밖에 그래픽 카드를 장착할 수 있게 해주는 확장 베이도 나와 있다. 단 expresscard/34를 통해 2.5Gbps의 속도로 데이터를 주고 받기 때문에 20% 정도 그래픽 카드 성능이 저하된다고 한다. 또는 케이스에 따라 라이저 케이블 등을 제공해 어떻게든 끼워넣을 수 있게 해주기도 한다. 이 경우에도 약간의 성능 저하는 있다.
한편, 다른 부품의 경우 모니터도 얇아지고, 케이스도 작고 가벼워지고, 하드디스크도 용량별 무게가 줄어들고 있다. 크기 자체는 3.5인치 베이나 2.5인치 베이에 맞게 나오지만 저장밀도가 높아져 같은 용량에 크기로 나누면 작아지고 있다. 그리고 80~90년대의 5.25인치 HDD가 도태되고 3.5인치 HDD가 데스크톱의 주력이 되었으며, 미니 PC나 데스크톱의 소형화 및 2.5인치 HDD의 고성능화, 그리고 SSD가 2.5인치 규격에 맞춰 나옴에 따라 데스크톱 PC(주로 소형 폼팩터)에도 2.5인치 HDD를 장착하는 것이 10년 전에 비해서는 훨씬 보편화되어 있음으로, 물리적인 크기도 줄어들어 간다고 볼 수 있다. 현재는 SSD가 M.2 단자로 이행되면서 면적은 자유시간, 두께는 껌 두세장 수준까지 줄었다.
그런데 여전히 NVIDIA와 AMD 둘다 지속적으로 전력소모량이 계속해서 올라가고 있다. 다른 부품들이 크기와 전력소모가 줄어드는 추세 속에서도 그래픽 카드만 지 혼자 거꾸로 가고 있는 것이다. 심지어 공정을 매 세대마다 개선했음에도 불구하고 # 당장 Nvidia의 10 시리즈에서 30 시리즈로 올라갈때마다 전력소모량은 지속적으로 올라간걸 알 수 있다. 전성비만 따지면 오히려 나쁜 수준이다. 3090이 350W, 3090 Ti와 4090은 아예 450W를 먹어치우니 현재로썬 그래픽 카드의 전력 소모량이 걱정될 수 밖에 없는 처지다. 하이엔드는 물론 엔트리급 모델들 조차 전력소모량이 지속적으로 올라갔기에 앞으로도 성능 개선을 하려면 전력 소모량을 올려야 한다는 얘기다. 이미 인텔의 14나노만 해도 알다시피 성능을 올리면서 전력소모량도 올리면 미친듯한 문제를 야기한다. 물론 그래픽 카드들은 공정개선을 하기 때문에 인텔의 14나노랑 대놓고 비교할 수 없지만 전력소모량이 전혀 개선이 안된다는건 문제가 있다. 2021년 기준으로도 그래픽 카드들도 여전히 무식한 크기를 가지고 있으며 세대가 올라갈때마다 더더욱 심해졌다. 심지어 위 전력소모량 문제도 싱글 그래픽 카드 기준이라서 멀티 그래픽 카드라면 답이 없는 수준이다. ARM CEO도 현 컴퓨터 전성비에 대해 지적할 정도이며 현재 상태론 차세대 그래픽 카드들은 500W 이상으로 올라갈 여지가 생긴다.
결국 그래픽 카드에도 전성비가 해결되는 혁신이 필요한데 현재로선 두 회사 모두 개선할 의지는 없어 보이고 특히나 현 기술력으론 가능할련지 의문이다. 그래픽 카드가 지속적으로 커지고 전력소모량이 높아지는건 앞으로도 좋지 않거니와 특히 노트북 제품들이라면 더더욱 탑재하기 힘들어지므로 확실히 전성비 개선은 시급해 보인다.[43] 그렇지 않아도 컴퓨터 시장은 노트북이 대부분 점령했다고 보아도 과언이 아닐정도로 점유율이 높기 때문에[44] 외장 그래픽 카드가 지속적으로 나쁜 전성비를 보여주면 자칫 노트북 시장이 정체될 가능성이 있다.[45]
노트북쪽이 왜 유독 심각하냐면 CPU와 GPU 및 기타부품 모두 합쳐서 100W를 넘어가면 배터리가 높은 전력량을 감당하질 못해서 전원 케이블로 연결해서 지속적으로 전력공급하지 않는 이상 모든 부품들의 전력 소모량을 크게 낮춰야 해서 성능도 덩달아 떨어진다는 큰 단점이 있기 때문이다.[46] 외장 그래픽 카드를 탑재한 모든 노트북들이 가지고 있는 문제점으로 외장 그래픽 카드의 전력 소모량이 100W를 심각하게 넘어간다면 그에 비례해서 성능이 무참하게 떨어진다. 어쩔 수 없는게 현세대의 배터리가 100W 이상을 감당하기 힘들 뿐더러 기술적 제약이 크고 특히 공항에선 아예 100W 이상의 배터리를 가진 노트북은 가지고 갈수도 없다. 추가적으로 높은 전력 소모량은 엄청난 발열로도 이어지기에 결국 노트북이라 할 수 없을정도로 크고 무거워진다. CPU만 해도 15W~45W 이상을 소모하기 때문에 결국 그래픽 카드의 전력 소모량을 50W대로 맞추지 못한다면 전력 소모량으로 인한 성능하락은 피할 수 없게 되며 배터리 성능도 당연하지만 엄청 깎일 수 밖에 없다. GTX 10 시리즈부터 외장 그래픽 카드와 크게 다를게 없는 그래픽 카드 칩을 넣기 시작했지만 그후론 전력 소모량이 크게 증가한탓에 모바일 RTX 3060만 해도 만만치 않는 수준의 전력 소모량을 보여주는데 상위 버전이라면 말할것도 없다. 이로인해 노트북들은 무게, 크기, 성능외에도 전력 소모량에도 민감하게 반응할 수 밖에 없다.
어쨌든 그래픽 카드가 유독 전력 소모량을 매세대마다 올리고 있는 상황인데 가득이나 환경 및 탄소 문제까지 겹쳐지게 됨에 따라 앞으로 무작정 전력 소모량을 더 높일순 없는 노릇이니 전성비 문제가 더 시급한 과제로 다가올 것이다.
전력 소모량이 하도 커지다 보니 이런 드립도 나오고 있다.
7. ASIC값
ASIC이란 단위전압의 GPU 클럭 달성율과 누설전류를 종합하여 산출한 값이다. 동클럭의 경우 ASIC값이 높을수록 더 적은 전압에서 작동이 가능해지고 누설 전류량은 증가한다. 공랭의 경우는 누설 전류로 인한 발열 제어가 어렵기 때문에 무조건 ASIC값이 높다고 좋은 것이 아니며, 수랭(또는 하드코어 쿨링)의 경우는 누설 전류로 인한 발열이 큰 상관이 없기 때문에 ASIC값이 높으면 좋다. 라이젠 시리즈의 경우 비슷한 개념으로 SIDD (static IDD)란 걸 쓴다. # (댓글 참고) 그러나 ASIC값이 그런 정도의 의미만 가지고 있었다면 이 문단이 만들어질 일도 없었다.2015년 7월, EVGA의 GTX 980Ti K|NGP|N을 ASIC값에 따라 제품 가격에 차등을 두는 사태가 발생했다. 2015년 3분기 그래픽 카드 시장을 토론장으로 만든 장본인이다.
K|NGP|N은 오버클럭커들의 꿈의 카드이며, 익스트림 오버클럭의 주역인 점을 감안하여 ASIC값에 따라 가격이 다른 것에는 문제가 없다는 것이 주된 의견이다.
하지만 문제는 일반 그래픽 카드에서조차 ASIC값을 묻는 사태가 발생하고 있다는 것이다. 위에서 말했듯이 일반 사용자에게는 ASIC값이 그다지 중요한 것이 아니며, ASIC값은 일반적으로는 절대 체감할 수 없다. 성능 차이가 거의 존재하지 않는 일반 그래픽 카드까지 ASIC값에 따라 값을 정가에서 가감한다는 것은 논란이 될 소지가 다분하다. (사실 ASIC값에 따라 공랭 오버도, 심지어 기본 사용 시 부스트 클럭이 더 높게 들어가는 사례도 있긴 하다. 하지만 그래봤자 1GHz 넘는 카드들 기준으로 정말 '엄청나게' 차이나 봐야 20MHz 정도 수준이다. 1100MHz 기준에서 20MHz는 1.8% 차이인데, ASIC 낮은 쪽이 70프레임이라면 높은 쪽은 71프레임 나온다는 얘기) 그리고 그것보다 더 성능이 후달리는 경우에는 대부분 불량품 취급하며 칩셋 자체를 제조단에서 폐기하거나, 가능하다면 문제있는 부분을 컷팅해서 하위 제품 칩셋으로 만들어버린다.
그래픽 카드/제조사 문서의 EVGA 문단 참조.
8. 온보드 그래픽과 CPU 내장 그래픽
On board, 즉 메인보드에 있는 그래픽 유닛을 의미한다. 과거에는 메인보드 칩셋에 그래픽 기능이 탑재되어 있었지만 AMD APU 라노 및 인텔 웨스트미어부터는 CPU에 통합되어서 메인보드는 단지 출력부만 담당한다. 다만 제온 E5/E7은 서버용 제품이라 CPU에 GPU가 없어서 보드에 " 화면은 띄워줄게" 정도 수준의 칩셋이 달려 있다. 2000년대 중후반에는 ATI Rage 기반의 ES1000이 주로 쓰였고, 2010년대부터는 주로 ASPEED 칩셋을 사용한다. 이런 서버 보드에는 현재 출력되는 그래픽 화면을 원격으로 볼 수 있는 IP KVM 기능이 자주 딸려 나온다.온보드 그래픽은 GPU를 메인보드에 붙이고, 램은 메인 메모리와 공유한다. 펜티엄 2나 3시절에는 AGP 슬롯이 없는 메인보드는 내장그래픽 코어가 담긴 노스브리지 칩셋 바로 옆에 2~16MB의 전용 비디오 메모리를 따로 붙여서 나왔다. 인텔의 i752(82810E)가 대표적 사례. 위에 서술된 서버용 그래픽 ASPEED AST2020 칩셋은 8MB의 전용 메모리가 붙어 있다. 온보드 그래픽을 채용한 컴퓨터를 보면 2GB(2048MB), 4GB(4096MB) RAM을 장착한 경우 사용 가능한 용량이 1920MB, 3840MB과 같이 뭔가 부족해 보이는데 온보드 그래픽이 사용하는 메모리 공간이다. 2013년에 780G 메인보드의 라데온 HD 3200 내장그래픽의 성능을 강화시키고자 싱글채널 128MB DDR3 그래픽 메모리를 붙인 보드도 있었는데 의외로 성능이 로우엔드 LP그래픽 카드를 단 거랑 똑같았다. 이를 사이드포트 메모리라고 불렀다.
강력한 그래픽 성능을 요구하는 작업을 하는 것이 아니라면 굳이 그래픽 카드를 사용할 필요가 없기 때문에 의외로 그래픽 카드가 아닌 온보드 혹은 내장 그래픽을 사용하는 경우가 많고, 노트북이라면 본체의 크기나 발열로 인해 그래픽 카드를 따로 장착하는 것이 어렵기 때문에 내장형 그래픽을 채택하는 경우가 많다.[47] 이 외에도 인터넷 주문일 경우 택배 배송 중에 외장 그래픽과의 결합이 느슨해질 수 있기 때문에 판매자 측에서 내장을 선호하는 경우도 있다. 스마트폰이나 태블릿 컴퓨터, 태블릿 PC와 같은 경우에는 GPU를 따로 두기에는 배터리가 부족해서 절대 다수가 내장 그래픽을 사용한다. 일체형 PC도 공간 및 발열 처리의 문제로 내장 그래픽을 사용하는 경우가 많다. 모바일스튜디오 프로처럼 쿼드로가 들어간 태블릿 PC도 있긴 하다. 안드로이드 스마트폰에 주로 탑재되는 ARM Mali GPU, 퀄컴 Adreno GPU, 줄곧 Apple의 iPhone, iPad 등, 모바일 기기의 그래픽을 책임졌던 PowerVR이 대표적이다. A11 Bionic 이후부터는 애플이 자체적으로 GPU를 설계하기 시작했다. 서버용 컴퓨터 또한 내장 그래픽이 이용되는데, 그 특성상 그래픽 관련 작업은 처리할 일이 있더라도 화려한 그래픽을 서버용 컴퓨터 자체의 디스플레이에 표시할 일은 없기 때문이다.
2010년대에는, 특히 샌디브릿지 세대부터는 내장 그래픽의 사양도 향상되면서 고사양 PC 게임의 최소사양까지 근접하는 성능이 되었으나, 램을 평균 512MB, 심하면 1GB 이상까지 잡아먹으므로 8GB 이상의 램 장착이 권장된다. 듀얼채널 구조로 해줘야 메모리 대역폭 문제로 인한 성능 저하가 줄어든다. 특히 AMD/APU에서는 램을 듀얼채널로 구성할 경우 1.5배 이상의 성능 향상을 보여준다. 인텔의 경우에도 APU 수준까지는 아니지만 성능이 상당히 크게 향상된다. 그래도 외장그래픽이랑 비교하면 Windows Aero 가속기에 불과하기 때문에 외장 그래픽은 여유가 있다면 적당한 걸 달아주는 것을 권장한다.
AMD와 엔비디아도 모바일 제품군으로 이쪽 전용 칩셋을 내놓고 있는데, 사실 이쪽의 대표 주자는 인텔이다. 당연히 시장에서 다수를 점유하고 있다는 것이지, 성능이 저 둘보다 뛰어나거나 기술적으로 앞서 있다는 뜻이 아니다. 2010년대 이후로 많이 나아졌지만 인텔의 그래픽 감속기와는 달리 AMD의 APU는 배틀필드 4를 중옵으로 돌리는 등 상당한 성능을 보여준다. 이에 자극을 받아서인지 인텔도 코어 i 시리즈부터는 CPU에 괜찮은 성능의 iGPU를 탑재한 제품을 선보이고 있으며, 2013년에 출시된 하스웰 프로세서에선 몇몇 최신 게임들을 옵션 타협을 통해 구동시킬 수 있다. 현재 인텔에서는 CPU의 성능 자체는 이미 일상 생활에 충분하다고 판단하고, 신형 CPU의 초점을 CPU 성능 향상보다는 전력 소모 및 발열의 감소와 내장 GPU 성능 향상에 주력하고 있다.
2015년 초에 출시된 브로드웰 기반 코어 i5 iGPU의 게이밍 성능은 AMD/APU의 iGPU를 뛰어넘었다. 연산 성능으로만 따지면 아직 AMD의 iGPU가 낫지만, EDRAM과 CPU의 성능이 받쳐줘 AMD의 APU보다 게이밍 성능에서 앞서가고 있다. 그러나 AMD는 DirectX 12 지원에 칼을 갈아 비동기 셰이딩 같은 최신 기술을 지원하는 등 최적화와 드라이버에서 앞서가고 있다.
스카이레이크의 내장그래픽은 하스웰에 비해 50% 성능 향상이 있었다. 특히 HD Graphics 530은 코어 i 시리즈뿐만 아니라 펜티엄 G4500, G4520에도 탑재되었는데 보급형 CPU의 내장 그래픽치고는 성능이 좋다. 펜티엄 G4400과 셀러론 제품군에는 HD Graphics 510이 탑재되었지만 하스웰 기반의 HD Graphics 4400과 동급이다.
2018년에 출시된 AMD APU 레이븐릿지가 하위 모델인 2200G 기준 인텔 UHD Grahpics 630보다 2배 이상, 상위 모델인 2400G 기준 3배에 가까운 성능을 가지고 출시되어 인텔의 iGPU와의 격차를 철저하게 벌리게 되었다. 라이젠3 2200G는 GT 740, GT 1030 D4에 근접한 성능을 보여 주고, 라이젠5 2400G는 오버클럭이 없는 상태에서 GT 1030 D5와 GTX 750 Ti, 심지어 옵션 타협 시 오버워치를 60프레임으로 구동할 수 있는 성능을 가지고 있다.
- 인텔의 내장그래픽
- 인텔 코어2 시리즈 및 이전 세대
- GMA X4500보다 이전 세대의 경우 성능의 경우 지포스 8300GS보다 성능이 나빠서 2000년대 초~중반의 3D 게임은 힘들다. 당장 펜티엄 4과 펜티엄 M 시기(2002~2003년)에 사용한 내장 그래픽(Extreme Graphics 2)의 경우 픽셀 셰이더 2.0도 지원하지 않아 2004년에 출시한 마비노기도 동작을 보장하지 못한다고 경고 안내가 나왔다.[48]
- G41, G43 칩셋 기반 메인보드의 GMA X4500 ≒ 지포스 8300GS G96(Rev. 1)급
- G45 칩셋 기반 메인보드의 GMA X4500HD ≒ 지포스 8300GS급
- 인텔 코어 i 시리즈/1세대 ~ 인텔 코어 i 시리즈/5세대
- 클락데일 기반의 HD Graphics ≒ 후기형 지포스 8400GS급
- 샌디브릿지 기반의 HD Graphics ≒ 초기형 지포스 8400GS급[49]
- 샌디브릿지 기반의 HD Graphics 2000 ≒ 초기형 지포스 8600GS급
- 샌디브릿지 기반의 HD Graphics 3000 ≒ 지포스 GT 220 DDR2, 지포스 9500GT급
- 아이비브릿지 기반의 HD Graphics ≒ 지포스 210, 8500GT, 9400GT급
- 아이비브릿지 기반의 HD Graphics 2500 ≒ 지포스 210, 8500GT, 9400GT급
- 아이비브릿지 기반의 HD Graphics 4000 ≒ 지포스 GT 620(= GT 430)급
- 하스웰 기반의 HD Graphics ≒ 지포스 8600GT, 9500GT, GT 610(= GT 520)급
- 하스웰 기반의 HD Graphics 4600 ≒ 지포스 9600GT, GT 240, GT 630(= GT 440)보다 약간 낮은 성능[50] → 오버워치 공식 최소사양 범위
- 인텔 코어 i 시리즈/6세대 이후
- 스카이레이크 기반의 HD Grahpics 510 ≒ HD Graphics 4400급
- 스카이레이크 기반의 HD Grahpics 530 ≒ 지포스 GT 730 DDR3[51]보다 약간 낮은 성능[52] → 배틀필드 4 PC판의 공식 최소사양 범위
- 카비레이크 기반의 HD Grahpics 610 ≒ HD Graphics 4600급
- 카비레이크 기반의 HD Grahpics 630 ≒ 지포스 GT 730 DDR3와 GDDR5[53] 사이 중에 DDR3에 가까운 성능[54] → Grand Theft Auto V PC판의 공식 최소사양 범위
- 커피레이크 기반의 UHD Grahpics 630 ≒ 지포스 GT 730 DDR3와 GDDR5 사이 중에 GDDR5에 좀 더 가까운 성능
- 로켓레이크 기반의 UHD Graphics 730 ≒지포스 GTX 650 정도의 성능
- 로켓레이크 기반의 UHD Graphics 750 ≒ 지포스 GT 1030 DDR4급(GT 1030 DDR5의 절반을 조금 넘는 성능)
- 엘더레이크 기반의 UHD Graphics 770 ≒ 지포스 GT 1030 DDR4와 GTX 650 Ti 사이의 성능
- AMD의 내장그래픽
- AMD A 시리즈 및 이전 세대
- 인텔 내장 그래픽에 비하면 내장 그래픽의 성능이 더 좋지만 출시 시기를 고려하면 2020년대 현재는 단순 작업용(모니터 출력/사무용) 외에는 사실상 사용이 불가능하며 유튜브 영상 역시 고해상도는 보기 힘들다. 당장 2007년 ~ 2008년에 나온 AMD 700 계열 칩셋의 경우 그나마 2004년에 나온 지포스 6600 수준으로 8400GS보다도 성능이 안 좋다. 그나마 AMD A시리즈의 경우에는 A6-3500 이하의 제품들은 UHD 해상도 동영상 재생이 어렵지만 그 이상의 제품이라면 UHD 해상도 동영상 재생은 가능할 가능성이 있고 CPU에 따라 플루이드 모션도 지원하는 경우도 있다. 자세한 내용은 AMD A 시리즈, AMD/칩셋, AMD 문서를 참고하는 것을 권장한다.
- AMD RYZEN 2000 시리즈 ~ AMD RYZEN 3000 시리즈[55]
- 레이븐 릿지 애슬론(3000G, 200GE) 기반의 RX Vega 3 ≒ 지포스 GT730 GDDR5와 비교 시 1% 우위로 사실상 동급. #
- 모바일 레이븐 릿지 및 피카소 기반 RX Vega 6 ≒ 지포스 GT740 GDDR5와 비교시 3% 우위로 오차 범위 이내로 사실상 동급. #
- 레이븐 릿지 2200G 및 피카소 3200G 기반의 RX Vega 8 ≒ GTX 550 Ti를 상대로는 15% 우위이고 GTX 650 Ti를 상대로는 42% 열세이며 GTX 750 일반을 상대로는 49% 열세이다.
- 모바일 레이븐 릿지 및 피카소 기반 RX Vega 9 / 10 ≒
- 피카소 3400G 기반의 RX Vega 11 ≒ GTX 750 일반보다 2% 소폭 열세이며 GT 1030 GDDR5보다는 7% 우위
- AMD RYZEN 4000 시리즈 이후[56]
- 르누아르 4350G 기반의 Radeon Graphics 6 ≒
- 르누아르 4650G 기반의 Radeon Graphics 7 ≒
- 르누아르 4750G 기반의 Radeon Graphics 7 ≒
- 세잔 5600G 기반의 Radeon Graphics 7 ≒ 지포스 GT 1030 GDDR5보다 미세하게 낮은 성능
- 세잔 5700G 기반의 Radeon Graphics 8 ≒ 지포스 GT 1030 GDDR5보다 미세하게 높은 성능, 단 DDR4 듀얼 채널 및 VRAM 8GB 적용 시 GTX 960보다 소폭 우위로 향상된다.
- 모바일 렘브란트 6800U 기반의 Radeon Graphics 680m ≒ 지포스 GTX 1050 GDDR5와 GTX 1050 Ti 사이의 성능.
- AMD RYZEN 7000 시리즈 기반의 Radeon Graphics ≒
- 호크포인트의 데스크탑 780m ≒ 1050TI 4GB보다 우위 #[57], 쿨앤조이 벤치기준 6400 CL32이상으로 램오버시 DX12이상 게임에서 1060 6GB보다 우위인 모습을 보인다. 어기에 GPU를 3100Mhz로 오버클럭 V램 8GB할당시 포르자에서 1650Super보다 우위 #, 단 DX11 게임에선 램오버와 GPU오버를 해도 1060 6G보다 떨어진다.
- 호크포인트의 데스크탑 760m ≒ 1050Ti보다 소폭 열세
이하는 일반적으로 조립 PC나 대부분의 완제품에서 볼 일 없는 Iris 제품군. 단, Iris 제품군의 경우 연산능력이 꽤나 좋아지면서 반대급부로 칩셋 자체가 아닌 eDRAM, RAM 채널, 시스템 메모리 할당량, CPU 터보 부스트 작동 여부, CPU 스로틀링 여부, 냉각 시스템의 성능에 따른 발열 해소 정도, 해당 칩셋이 장착된 플랫폼(PC, 미니 PC, 노트북, 태블릿 등), 해당 제품의 인텔 드라이버 최적화 수준 등과 같은 부수적인 사항에 따라 매우 크게 편차가 갈린다. 단, 실사에서는 응용프로그램의 인텔 내장그래픽 최적화 미비와 발열 문제, 메모리 공유 문제(로 인한 병목 문제) 등으로 인해, 위에 적은 것보다 십의 자리수를 한 단계씩(예시: GTX750→GT740) 내린 NVIDIA 계열 GPU와 성능이 비슷하다. 750급이 높아보일 수 있지만, 실상은 당시 그게 나올 즈음에 외장형은 엔비디아에선 파스칼 기반의 10xx시리즈가 나왔었다. 그리고 Iris Pro Graphics가 들어간 CPU는 구하기 어렵거나 가성비가 좋지 않기 때문에 예산이 정말 빠듯하지 않은 이상 적당한 미들급 외장그래픽을 다는 것을 추천한다.
내장 그래픽은 대략 4세대(약 8년)전의 외장형 메인스트림(RTX/GTX xx60)급 정도 성능이라고 보면 된다.[58] 그래서 2020년 이후로는 엔비디아에서 더 이상 RTX/GTX xx50 계열의 카드를 내놓지 않고 RTX/GTX xx60 시리즈부터 팔고 있다. xx50 계열 카드를 출시하느니 차라리 1세대 전의 xx60 그래픽 카드 재고를 할인해서 판매하는게 낫다.
사실 2021년 현재에는 APU기술도 상당히 발전해서 인텔 IRIS 시리즈나 AMD의 APU는 내장 치고는 나쁘지 않다. 특히 라이젠 APU 시리즈는. 현재 내장 끝판왕인 라이젠7 5700G[59]의 경우는 경쟁사의 11700(F) 수준 CPU 성능을 지니면서도 듀얼채널 DDR4 메모리를 사용하고 VRAM을 8GB로 할당했을 때 GTX960을 약간 상회하는 수준의 성능을 보여주었다. 테스트 영상을 보면 QHD 해상도에서 GTA 5 중간 옵션을 50~70fps로 무난하게 구동해낸다. 최하옵 놓고 프레임 드랍 간간히 와서 불리해지는 것만 감수한다면 배그도 어떻게든 돌릴 수는 있는 수준. QHD 기준 40~60fps. FHD 해상도라면 괜찮을 수도 있다. 하지만 저 APU 단품 가격이 40만원대 초반인건 감안해야 한다.
그럼에도 불구하고 컴덕들 사이에서 주목받는 이유는 그래픽 카드 채굴 대란 때문에 1660S가 80만원 하는 꼬라지와 내장그래픽이 없는 상위 모델인 5800X와의 성능차이가 고작 5%인 점을 보면 임시 땜빵으로 나쁜 선택은 아니기 때문이다.[60] 일단 60~70만원 정도로 APU 본체 맞춰서 대충 쓰다가 나중에 채굴대란이 끝나면 그때가서 50~60만원 더 주고 60Ti나 70시리즈 그래픽 달면 되기 때문이다. 1080p 게임 테스트 영상. 이쯤 되면 FHD에서는 외장그래픽 달았다고 구라 쳐도 되는 수준. 사실 960과 1660S의 성능차이 또한 2배 정도기는 하다.
IBM PC가 그래픽 기능을 하드웨어의 기본 기능으로 넣지 않고 그래픽 카드라는 옵션 장비로 빼버리기 전 초창기 PC 산업에서는 당연히 그래픽 기능은 메인보드에 내장되는 것이었고 하드웨어 기종마다 정해진 스펙을 가지고 있는 것이 당연했다. 오히려 IBM PC 쪽이 특이한 경우였으며 애플 II나 MSX 같은 8비트 컴퓨터는 물론이고 Mac이나 아미가 같이 IBM PC보다 나중에 나온 16비트 컴퓨터 역시 그래픽 칩셋과 출력계통이 메인보드에 박혀있는 형태였다. 심지어는 IBM이 만든 PS/2마저 내장 그래픽 회로인 VGA를 달고 있었지만 IBM PC 호환 기종이 PC 시장을 천하통일하다시피 하게 되면서 우리는 '그래픽 카드'라는 이름의 옵션을 당연시하게 되었던 것이다. 그러다가 다시 내장 그래픽이 PC에 달리는 것이 일반적인 세상이 되는 것을 보면 세상은 돌고 도는 것인 모양.
8.1. 관련 문서
9. 하이브리드 그래픽
그래픽 카드를 화면 출력이 아닌 연산만을 위해 사용할 수도 있다. 따라서 그래픽 카드를 PCIe 인터페이스에 달아놓고 무거운 연산을 그래픽 카드를 통해 처리한 뒤 내장 그래픽을 거쳐 화면을 출력하는 방법이 가능한데, 주로 노트북 등에서 전력 절감을 위해 이용한다. 이것을 NVIDIA에서는 Optimus라 부르고, AMD에서는 Enduro라 부른다.근본적으로 이 기술은 내장 그래픽을 거쳐서 화면 출력을 해야 하기 때문에 병목 현상의 심화가 불가피하다.
PCIe를 통해 연결만 하면 된다는 점을 이용해, 이 그래픽 카드를 밖으로 꺼낼 수도 있다. 이것을 eGPU라고 부르며 역시 주로 노트북에서 이용한다. 보통은 PCIe 규격을 지원하는 Thunderbolt 3 단자를 이용하여 eGPU를 많이 사용하지만, Thunderbolt 3 단자가 없는 노트북을 쓰는 경우를 위한 ExpressCard/mPCIe/M.2 슬롯을 이용한 제품도 있다. 단, 이러한 제품들은 하판을 열어 SSD나 무선랜카드를 뽑아 희생해야 한다.
eGPU를 이용한다면 윈도우의 버전을 윈도우 10 2018년 4월 업데이트 이상으로 올리는 것이 좋다. 이 버전 이상부터 디스플레이 설정 내에 응용 프로그램 별로 사용할 그래픽 카드를 직접 지정할 수 있게 되었기 때문이다.
10. 워크스테이션 전용 그래픽 카드
위 내용에 나와 있는 그래픽 카드는 주로 게임용이지만, 이와는 별도로 워크스테이션에서 사용하는 그래픽 카드가 있다. 이들은 전문적인 3D 작업(특히 PLM)이나, GPGPU 연산 작업에 주로 쓰인다. 방대한 양의 데이터를 처리하는 전문가용 카드 답게 VRAM 용량이 정말 크며, 에러를 감지하고 정정하는 ECC기능이 기본으로 들어가있다. 거기에 가상화를 위한 PCIe Passthrough 같은 특수한 기능도 들어간다. 그 외에 특수한 용도로 이용하기 위해 특정한 분야에만 특화된 기능이 여러개 포함되어있다. 예전엔 10비트 출력이나 색상출력 관련에서도 워크스테이션용 그래픽 카드가 더 유리했으나, 라데온은 R9 290x 이후의 모델, 엔비디아는 GTX10XX 모델 부터 기본적으로 10비트를 지원하게 되어서 전문가용으로서의 메리트는 사라지고 3D 렌더링, 아이피니티 같은 대형 다중화면 출력을 위한 용도가 주가 되었다.워크스테이션 그래픽 카드들은 대체로 성능에 비해 엄청 비싸다. 단적으로, 제일 싼 엔트리급 쿼드로 가격이 보통 지포스 미들레인지급과 비슷한 정도이니 하이엔드급으로 가면 가격이 몇 천을 넘어간다. 그럴리는 없겠지만, 비용을 감수하고 쿼드로를 게임용으로 사도 동일한 칩셋이 들어간 지포스 라인업의 성능이 그대로 나오는 것은 맞지만, 이를 통해 얻는 이점은 오로지 거대한 VRAM 용량 뿐이다. 많은 사람들이 "전문 작업 용도로 만들어져서 게임에선 성능이 떨어진다" 라고 하지만 칩셋이 같을 경우 정확히 그와 동일한 성능을 낸다. 지포스와 같은 칩셋을 쓰고 단지 VRAM을 더 얹고, 게임과 관계없는 고급기능들을 더 추가하여 만들어진게 쿼드로니 당연하다. 초창기 쿼드로는 아예 완전히 똑같은 칩셋을 박아넣고 BIOS와 드라이버에서 이걸 컨트롤하는 방식으로 작동했다. 때문에 일반 지포스에 롬라이팅을 통해 동급 쿼드로 그래픽 카드의 BIOS를 심고 쿼드로 드라이버를 깔면 지포스를 쿼드로로 변신시켜 사용할 수 있었다. 물론 현재는 불가능. 굳이 쿼드로에 들어갈 전문가용 고급 기능들을 지포스에 끼워넣을 이유도 없을 뿐더러 그렇게 할 경우, 엔비디아 입장에서 수익성이 좋은 쿼드로를 팔아먹을 수단이 사라지기 때문이다.
11. 교체
그래픽 카드는 고장이 났거나 더 높은 성능을 원할 시 사용자가 임의로 교체할 수 있다. 그래도 상당히 많은 것들을 고려하며 교체해야 하기 때문에 단순히 'XX사 XXXX 카드가 가성비 갑이더라' 같은 말만 믿고 사서 교체하는 것은 상당한 리스크가 따르는 행위이다. 모든 컴퓨터에는 정해진 한계라는게 존재하며 그래픽 카드 또한 그 한계에 맞춰 교체할 수 있는 한계가 정해져 있다. 많은 것을 알아봐야 하지만, 간단하게 추리자면 다음과 같다. 데스크탑을 기준으로 썼지만 전체적인 맥락은 노트북도 마찬가지다. 매우 소수이지만 노트북의 그래픽 카드 교체에 대해서 알고싶다면 Mobile PCI-Express Module 타입을 알아볼 것.- PCIe 인터페이스: 최신형 그래픽 카드는 거의 대부분 PCI Express 4.0 x16을 지원하는데, 일부 구형 메인보드의 경우 PCI Express 3.0 x16까지만 지원하는 경우가 있어서 최신형 그래픽 카드를 달더라도 그 성능을 100% 활용하지 못하는 경우가 이론상으로 존재한다. PCI Express 4.0 x16을 지원하는 그래픽 카드를 PCI Express 3.0 x16 슬롯에 꽂아도 정상작동은 가능하지만 대역폭에 차이가 있어 작동 자체는 해당 슬롯에 맞게 낮춰져서 동작하므로 컴퓨터의 메인보드가 PCI Express 최신 버전을 지원하는지 확인해야 한다…만 단일 카드 기준으로는 별 신경 안 써도 된다. 벤치마크 기준으로 유의미한 성능 저하 %가 나오기 시작하는 것은 원래 대역폭의 1/4 이하부터(PCIe 4.0 x16 카드 기준으로는 2.0 x16이나 3.0 x8이하)이다. 본격적으로 체감되는 것은 3.0 4배속 이하부터. 오히려 PCIe 버전보다는 보드 슬롯 위치를 확인하는 게 더 중요하다. 몇몇 슬롯은 CPU가 아닌 칩셋의 대역폭을 끌어 쓰는데, 대역폭과 별개로 레이턴시가 느리기 때문에 무조건 더 느려진다. 특히 스카이레이크 이전 세대까지는 2.0 4배속이 한계이기 때문에 이중고로 성능을 팍팍 까먹는다. 보통 맨 밑 슬롯은 피하는 게 좋다. PCI Express의 대역폭은 버전이 높아질 때마다 2배 높아진다. 즉 4.0 4배속=3.0 8배속=2.0 16배속 이런 식.
- 지원 파워: 그래픽 카드도 엄연한 부품이니만큼 구동시키면 전기를 잡아먹어야 한다. 문제는 고사양의 그래픽 카드일수록 잡아먹는 전력량이 높다는 건데 이게 컴퓨터의 본체가 공급받는 전력을 초과해버리면 당연히 컴퓨터가 버티지를 못해서 다운되곤 한다. 그것도 한두번도 아니고 지속적으로 수차례 반복되면 당연히 컴퓨터의 다운 때문에 다른 부품들도 점차 영향을 받아 망가지게 된다. 따라서 자신의 컴퓨터의 파워 서플라이가 지원하는 전력대 내에서 사용 가능한 카드를 알아보거나 아니면 원하는 카드에 맞춰 파워를 새로 사야 한다. (물론 또 그 파워가 내 케이스에 맞는 물건인지 별도로 알아봐야 한다) 다만, 표기 용량과 실제 공급 전력량의 차이가 큰 파워는 필히 주의할 것. 어중간한 사용 환경에선 별 지장이 없지만, R9 295x2같이 혼자서 500W씩 먹는 극단적인 경우에 한해서는 용량만이 아니라 레일 분배에도 신경쓸 필요가 있다. 멀티레일 파워인데 레일 분배 신경 안 쓰고 막 꽂았다가는 용량은 널널하지만 레일당 전류가 초과되어 꺼지는 경우가 발생하기 때문. 보통 멀티레일 파워에서 이런 경우가 자주 발생한다. 500W급에 단일 카드라도 파워 자체가 비교적 구세대 모델인 경우에도 이런 사태가 일어날 가능성이 높으니 유의. 특히나 LP파워를 쓸 경우 반드시 슬림형 그래픽 카드를 사는 것이 좋다. 어차피 슬림형 케이스에 일반 그래픽 카드는 들어가기도 힘들다. 컴퓨터를 잘 모르는 사람들이 가끔 그래픽 카드만 업그레이드하려다 저지르는 실수. 슬림형 그래픽 카드는 전력을 덜 잡아먹는 만큼 소음도 적지만, 반대로 성능도 떨어지기 때문에 보통은 케이스와 파워를 미들타워에 맞춰 업그레이드한 후 그래픽 카드를 본격적으로 업그레이드하는게 낫다. 물론 슬림형 그래픽 카드도 좋은 라인업으로 구매하면 유행하는 게임은 거진 잘 돌아가니 문제는 없다만 더 나은 프레임이나 고사양으로 즐기고 싶다면 케이스와 파워 업그레이드는 필수적이다.
-
형태 및 크기: 컴퓨터가 언제나 같은 모양만 존재할 리는 없고 제품마다 사이즈가 제각각이다. 그래도 대부분은 동일 규격(
ATX)을 지키며 만들어지지만, 슬림형 컴퓨터라면 이야기가 달라진다. 슬림형은 말 그대로 얇기 때문에 안에 들어가는 부품도 작아야 한다. 그런데 그래픽 카드가 일반형이면 당연히 사용할 수 없다. 따라서 구하고자 하는 그래픽 카드가 슬림형을 지원하는 모델인지 아닌지를 먼저 잘 살펴봐야 한다. 보통 LP(Low Profile - 박형(薄型)) 라는 문자가 이름에 들어있는 그래픽 카드면 슬림형 케이스를 위해 나온 모델이다(슬림 케이스가 아니더라도 사용은 가능하다. 예를 들자면 GT640 그래픽 카드는 일반형이지만, GT640 LP는 슬림형이다. LP형의 제품이지만 ATX 규격의 브라켓이 붙어올 수 있다. 그럴 경우엔 동봉된 LP브라켓으로 교체하면 된다. 추가로 노트북이나 울트라북 같은 포터블 컴퓨터들은 구조상 그래픽 카드의 교체가 아예 불가능한 경우가 대부분이다. 물론 상술한 eGPU를 동원하면 슬림형이건 노트북이건 어찌어찌 될 수도 있겠지만 추천하는 방법은 아니다.
한편 그래픽 카드의 가로 길이도 신경써야 한다. 간혹 케이스가 앞뒤로 좁은 일부 모델의 경우 고사양의 그래픽 카드를 끼울 수가 없는 사태가 발생하곤 한다( 지엠코퍼레이션 문서에 있는 사진이 대표적인 예). 아니면 하드 디스크 브라켓을 뜯어내면 공간이 확보되는 경우도 있다. 하지만 브라켓을 고정시켜 놓는 리벳을 뽑는 고생을 해야 하며, 하드디스크는 그래픽 카드에 밀려 케이스의 맨 밑바닥으로 쫒겨나야 한다. 하지만 정말 그 정도의 공간조차 없는 정도의 케이스를 사용한다면 그저 묵념… 애초에 그 정도로 막장인 초저가형 케이스를 사용한다면 케이스를 우선 교체하는 것이 현명하다. 이런 케이스는 십중팔구 제대로 된 발열 해소 대책도 없고 말 그대로 부품만 끼워 넣을 수 있는 수준일 가능성이 농후한데, 이런 곳에다가 그래픽 카드 같이 발열량이 엄청난 부품을 우겨 넣었다간 영 좋지 않은 결과를 보게 될 수도 있다. 컴퓨터 내부에는 열을 내는 부품이 상당히 많다는 것을 기억하자. 너무 돈지랄을 할 필요도 없지만, 그렇다고 아무거나 써도 된다는 소리는 절대 아니다.
- 가격: 당연하지만 좋은 건 언제나 비싸다. 자신의 지갑 사정과 잘 타협해서 사거나 정 좋은 걸 쓰고 싶은데 지갑 사정이 그렇다면 중고로 알아보는 등 발품을 뛰어야 한다. 초고사양으로 즐기고 싶은게 아니라면 대충 돌아가는 라인업에서 맞출 수도 있다. 중고라도 네이버 쇼핑 같은 곳에서 구매하면 보통은 꼼꼼히 검수 후 보내거나 리퍼품인 경우가 많지만 중고든 리퍼든 채굴품일지 개인이 사용하던 것일지는 알 수가 없으므로 마냥 안전하진 않고 Q&A에 깔끔한 그래픽 카드로 보내달라고 요청해도 채굴했던 걸 겉만 깨끗하게 청소해서 보낼 수도 있으므로 주의. 안전거래로 거래하면 하자가 있더라도 환불받을 수 있으니 참고. 결국 중고든 리퍼든 운이 좋다면 양질의 제품을 받을 수도 있지만 반대로 운이 나쁘다면 시한폭탄이 올 수도 있으니 가장 안전한 건 좀 비싸더라도 신품을 사는 거고 정 돈이 부족하다면 A/S가 1년쯤 남아있는 중고를 사던가 아니면 직접 만나 작동에 이상이 없는지 확인하고 사는 수밖에 없다.
이렇게 어찌어찌해서 그래픽 카드를 구하면 교체해야 하는데, 컴퓨터 내부를 막 휘저어야 하는 작업이라 잘못 건드려 일 나는거 아닌가 쫄을 수 있지만 막상 알고나면 그냥 전원선이나 스피커선 연결하듯 엄청나게 쉬운 작업이다. 그래픽 카드를 꽂는다고 표현하는데 이건 단어 그대로 그냥 '꽂는' 작업일 뿐이다. 간추리자면 다음과 같다.
- 우선 컴퓨터에 연결된 모든 외부 전선(전원, 모니터, 스피커선, 랜선 등)들을 다 뽑는다. 전원이 연결된 상태로 작업 시 감전의 위험이 있기 때문이며 무엇보다 이걸 꽂은 채로 작업을 진행하면 거치적거려서 귀찮다.
- 컴퓨터 덮개를 벗겨낸다. 문제는 모델마다 덮개 벗기는 방법이 제각각인데, 최근 나오는 대부분의 모델들은 손으로 간단히 돌릴 수 있는 나사를 쓰지만, 아직도 일반적인 십자 나사로 조여져 드라이버가 필요한 모델이 있기도 하고, 덮개가 씌워진 특수 나사로 조여진 물건도 있다. 아예 나사 필요없이 걸쇠로 고정된 경우도 있다. 그리고 나사가 있긴 있는데 실은 덮개가 아니라 파워나 다른 부품을 고정시키기 위한 나사일 수도 있다. 직접 봐가면서 '이 나사가 덮개를 잡고 있는 나사구나' 하는 걸 직접 봐가며 해체한다.
- 나사 해제가 완료되면 덮개를 벗겨야 하는데 나사만 풀면 쉽게 분리가 가능한 모델도 있지만 대부분은 좀 빡빡하게 빼야 하는 것들도 있다. 이 경우 우선 벗길 수 있는 면을 확인하고 그 면 위에 손을 얹은 후 컴퓨터 뒷면을 향해 힘차게 밀어내면 된다. 위 왼쪽 오른쪽이 전부 연결되어 한꺼번에 다 벗기는 모델도 있고, 오른쪽 면만 벗길 수 있는 모델도 있다.
- 이제 컴퓨터 속이 보이면 그래픽 카드 슬롯을 확인해본다. 먼지가 쌓여 더럽다면 적당히 정리해 주고, 기존 그래픽 카드가 꽂혀 있으면 그래픽 카드와 컴퓨터 뒷면(백패널)쪽에 그래픽 카드를 고정시키는 고정나사(혹은 고정장치)를 제거하고 본격적으로 그래픽 카드 제거 준비를 한다. 이 때 다른 케이블(대부분 별도 전원 케이블)이 꽂혀 있으면 먼저 제거를 해 주되, 절대 그래픽 카드를 그냥 뽑으면 안 된다. 대부분의 메인보드는 그래픽 카드가 슬롯에서 빠지지 않게 고정해 주는 안전장치를 가지고 있고, 이 안전장치는 보통 그래픽 카드에 가려 잘 보이지 않는다. 그것을 모른 채 그래픽 카드를 힘으로 뽑았다간 그래픽 카드 슬롯이 통째로 와장창 뽑혀나가는 대참사가 일어날 수 있으니 항상 안전장치의 유무를 확인한 후 제거를 해주도록 하자. 메인보드 A/S 사유 가운데 그래픽 카드 슬롯 파손이 순위권에 든다고 한다. 안전장치의 타입과 빼는 법은 TG삼보 답변 참조. 또한 이 걸쇠를 가까이 있다고 드라이버를 써서 누르면 안된다.[61] 손이 빗나가면 보드 회로를 긁거나 정전기를 먹여 보드를 고장낼 수 있다. 나무 젓가락이나 플라스틱 막대 등 뾰족하지 않고 비전도성인 물체로 누르도록 하자. 회로가 긁혔을 경우 기본 유상 AS에 수리거부도 흔하니 굉장히 주의해야 한다.
- 이제 새 그래픽 카드를 슬롯에 방향을 맞춰 꽂는다. 특히 케이블 연결 단자가 있는 부분을 조심해서 꽂는다. 만약 그래픽 카드에 연결할 케이블이 있다면 연결해준다.
- 다 되었으면 지금까지와는 반대로 작업한다. 다시 덮개를 위치시킨 뒤 앞으로 밀어서 부착하고, 부착할 때 덮개와 본체 사이에 틈이 벌어지진 않는지 먼저 확인한 다음, 나사를 조인다.
- 컴퓨터에서 뽑아낸 전선들을 제대로 연결하고 부팅하여 정상작동하는지 확인한다. 새 카드를 설치했으니 그에 걸맞은 드라이버를 제조사 홈페이지에서 다운받아 설치할 필요가 있다. 내장 그래픽이 있더라도 자동적으로 새 그래픽 카드를 메인 장치로 잡아 주니 걱정할 필요는 없다. 다만 그래픽 카드를 두 개 이상 꽂은 경우나 혹은 종종 기존 그래픽 카드를 잡는 괴이한 경우도 생길 수 있는데 이 경우 컴퓨터를 부팅하고 부팅 화면에서 Del이나 F2를 연타해 CMOS 화면(푸른색 화면)에 들어가 그래픽 설정을 조절해 새 카드를 잡도록 혹은 기존 카드를 잡지 않도록 지정하고 저장하면 된다.
12. 제조사
12.1. GPU
12.1.1. 메이저 제조사
||<-3><table width=100%><table bgcolor=#fff,#191919><table bordercolor=#555><#000>
주요 x86 아키텍처 컴퓨터용 GPU 개발사
12.1.1.1. 색감 차이 논쟁
지포스와 라데온의 색감 논쟁이 끊이질 않고 있고 실제로 차이가 있다는 의견이 다수이나 이는 과거 DirectX 9 시절까지만 해당한다. 그 때는 셰이더를 API에 내장된 함수로 처리하는 부분이 있었기에 회사마다 처리 방식이 조금씩 달라서 발생하는 것이었다. 하지만 지금은 프로그래머가 셰이더를 직접 짜기 때문에 그래픽 카드가 출력하는 화면은 일종의 프로그램에서 나온 결과물이므로 색이 달라서는 안되며 대부분 그래픽카드간 색상의 차이가 있다는 주장은 그저 소프트웨어상의 색상 설정값이 다르거나 동적 범위의 차이를 오인하거나 아예 심리적으로 달라야 한다고 믿는 경우가 대부분이다(이런 경우는 어떤 근거를 제시해도 '그래픽카드간에 색이 다르다 내가 분명히 봤다 라고만 대답한다) 제대로 된 그래픽 카드라면 기종과 상관 없이 같은 설정이라면 같은 색상을 출력한다.HDMI가 보급된 이후로는 DVI-D 시절과 달리 오히려 NVIDIA의 GeForce 시리즈 그래픽 카드로 화면을 출력해보니 AMD의 Radeon 시리즈보다 '색감이 떨어진다', '물빠진 색감이다' 라는 주장을 또 다시 흔히 찾아 볼 수 있게 되었다. 실제 라데온을 사용하다가 지포스로 넘어간 유저들이 바탕 화면에서부터 느끼는 이 문제 또한 원인이 있었는데, AMD 쪽과는 달리 NVIDIA 그래픽 카드 드라이버는 설치 후 초기세팅으로 HDMI 출력 동적 범위 설정에 '제한(16-235)'이 기본값으로 되어 있었기 때문에 모니터의 동적 범위와 다를 경우 색 표현과 밝기 표현에서 일부분이 생략되어 어둡고 물빠진 색감으로 보인다는 것이다.
그런 것은 설정의 문제이며, 특히 전문적 작업을 하는 사람들이 이런걸 그냥 두고 작업하면 못 쓴다.[62]. NVIDIA 제어판에서 설정 두 군데를 '전체(0-255)'로 직접 바꾸어 주면 색감이 확연히 다시 살아난다. 그리고 모니터 쪽에도 출력 동적범위 설정이 있는데, 정확한 색표현을 위한다면 마무리로 이것까지 바꿔서 일치시켜 주어야 한다. 모니터 버튼을 누르면 나오는 OSD 메뉴의 설정 중에서 'HDMI 블랙 레벨' 항목이 바로 출력 동적범위 설정인데, 전체(0-255) 설정이 되는 '중간/ 표준/ 높음'(모니터 제조사마다 명칭이 상이)으로 설정해 둬야 LCD 패널에서 완전한 색상이 나온다.
위의 지포스의 경우는 과거 페르미 시절까지만 해도 기본 드라이버 설정의 동적 범위가 CRT 모니터 기준인 16-235 가 기본 상태로 맞춰져 있어서 '물빠진 색상' 논란이 있었다.
http://www.monitor4u.co.kr/guide/content.asp?idx=241&act=view
10년도 전에 모니터 4유에서 계측기로 실측해서 증명한 바가 있다.
- 최신 고급형 그래픽카드들에 LCD 모니터를 DVI 포트로 연결했을 때에는 제품과 관계없이 모두 동일한 색감을 보였다. 단 특정 모델의 경우 (Quadro750GXL) 256 단계의 Gradation 품질이 예외적으로 좋지 않았다.
- LCD 모니터를 Analog RGB로 연결했을 때에는 톤 커브가 제품에 따라 약간의 차이를 보였으며 이에 따라 색감의 차이가 발생했다.
Gradation 품질이 예외적으로 좋지 않았고, Matrox P650은 톤 커브의 왜곡이 매우 심했다.
- Analog RGB라 하더라도 CRT 모니터에 연결했을 때에는 정상적인 감마를 가진 톤 커브가 표시되지만 감마의 크기는 그래픽카드에 따라 다를 수 있을 것으로 추정된다.
http://www.coolenjoy.net/bbs/37/143643
색상의 차이가 있다는 주장을 같은 모니터에서 2종의 그래픽 카드를 연결해 비교했으나 색상에 아무런 차이가 없는 점을 알 수 있다.
https://m.jjang0u.com/chalkadak/view?db=160&no=228407
https://quasarzone.com/bbs/qf_vga/views/46199
12.1.1.2. 차이가 크다
하지만 드라이버 세팅에 따라 색감의 차이는 충분히 있을 수는 있다. 우리 눈에 보이는 화면은 모두 드라이버를 거쳐서 나오게 되므로, 드라이버 외의 색감 차이가 없다는 말은 의미가 없는 이야기다. 내부적으로 동일한 색으로 처리되어도 최종 사용자에게 보여지는 화면에서 색감 차이가 난다면 양사 간 색감 차이가 있는 것이다. 물론 어느 쪽을 선호할지는 취향의 문제이다. 틀렸다는 것이 아니라 다르다는 것이다. 특히 현재는 단순 2D화면도 차이가 난다. 쿨엔조이에서 한 모니터에 동시에 두 개의 그래픽 카드에서 나온 화면을 연결해서 테스트를 해 본 결과, 동영상과 게임이 아닌 단색 비교에서도 경계선이 보이는 등 분명히 양사 간의 색감 차이가 존재했다. 이 때 엔비디아 카드는 동적 범위 제한이 걸릴 리가 없는 디스플레이 포트로 연결했다고 한다. # 이는 진정한 의미의 2D 드로잉은 모두 레거시 체제로 폐기되었고, 3D 상에서 2D를 그리는 체제로 바뀐 것 때문으로 추정된다.일단 기본적인 색 표현에 차이가 나는 것은 물론이고, 그래픽 카드 가속을 사용해서 동영상을 재생하면 내부 필터를 거치게 되므로 색감 차이는 더 심하게 나게 된다. 물론 어느 쪽의 그래픽 카드가 색감 표현에서 우수하다는 것이 아니라 색감 표현에 차이가 있다는 것일 뿐이다. 어느 쪽을 선호하는지는 개인의 취향이지만 색감 차이가 없다는 이야기는 거짓이다. 그리고 위에서 언급된 게임에서의 표현력 차이는 2D보다 심하게 나는 수준이다. 마비노기 영웅전같은 특이 케이스에만 해당되는 문제는 아니다. 예시 이미지를 보면 확실히 알 수 있다.[63] 동영상으로 보려면 여기에서 확인이 가능하다. HDMI 동적 범위 제한으로는 도저히 커버할 수 없는 상당한 부분에서 차이를 보인다. 특히 주인공 캐릭터의 뒷부분의 그림자가 엔비디아 카드에서는 생략되어 버렸다. 결론적으로 HDMI를 사용하건 사용하지 않건 양사 간의 색감 차이는 분명히 존재한다.[64]
12.1.1.3. 차이가 미미하다
망한 게임, 그것도 그래픽 문제가 다수 지적되는 게임 예시 하나 더 추가해봤자 마비노기 영웅전 같은 특이 케이스에만 해당되는 문제는 아니라는 논거는 될 수 없다. '차이가 있다'는 것 자체는 이미 DX9.0b/c HDR 시절에 입증이 끝났으니 이것도 뒷북이고, 오히려 유명한 게임들은 차이가 극히 적다. '차이가 없다'는 게 아니다. 동영상 역시 해외의 여러 테스트에서 카탈리스트 드라이버 특유의 동영상 후처리를 끄면 차이가 매우 적다고 결론난 지 오래이다. 이 역시 차이가 없다는 게 아니다. 오히려 옛날 테스트일수록 ' 라데온과 지포스는 취향차이 수준인데 인텔은 좀 아님' 수준의 결론이 난 경우가 절대다수이다.물론 카탈리스트 드라이버 특유의 동영상 후처리 자체가 기본값으로 활성화되어 있으니 제품 차이에 포함시키지 않을 이유는 없다. 이론상 지포스도 동영상 재생기 SW 차원에서 동일한 후처리를 하는 등 차이를 보정하는 설정을 하면 충분히 라데온과 동일한 영상을 출력할 수 있으나, 어디까지나 '이론상 가능하다는 수준의 얘기'일 뿐이고 '개인이 쉽게 구해서 세팅할 수 있는 물건'은 2018년 현재에도 존재하지 않는다. 그래도 후처리라는 것이 근본적으로 원본을 왜곡하는 것이기 때문에 라데온 애호가 기준으로도 호불호는 갈릴 수 있는 사항이며, 이를 비활성화하고 쓰는 사람들도 분명히 존재한다.
12.1.1.4. 과거엔 차이가 있었다?
윗 단락에 DirectX 9 시절까지만해도 차이가 있었다고는 하지만 그 시절에도 사실 미미한편이었는데 저 시절엔 이미 DVI 가 보편화 된 시점이라 충분한 상향 평준화를 이루었었기 때문에 취향 차라고 할 정도로 그리 큰 차이가 나지 않았다. 이러한 색감 논쟁은 사실 DX9은 커녕 훨씬 더 고대시절 아날로그 출력, 그러니까 RAMDAC[65]을 사용해 D-SUB로 출력하던 시절 얘기부터 있어왔다.물론 DirectX 9 시절 얘기를 한 것은 3D 게임에서 똑같은 코드라고 하더라도 그래픽 카드가 그것을 렌더링하는 결과물은 다 달라지는 것을 두고 원리를 모르는 사람이 '색감이 다르다'고 표현한 것을 일컫는 것이긴 하다.[66]
아무튼 DAC 라고 하면 바로 느낌이 올 텐데, 이 부품 자체가 값이 꽤나 나갈뿐더러 저가형과 고가형의 편차가 매우 큰편인데다 기판에 추가적인 설계를 요구해서 제조비가 훨씬 많이 들기 때문에 저가형과 고가형 사이에 차이가 발생하는 것이었다.[67]
그렇다고 해도 NVIDIA는 색감이 나쁘고 ATi 가 좋다는것도 그릇된 고정관념이자 편견에 가까운것으로 저 시절 실질적인 성능 손해 없이 가장 쉽고 그리고 많이 코스트 다운할 수 있는 법이 램댁을 싸구려로 바꾸는 것이기 때문으로, NVIDIA 가 직접 기판까지 통째로 설계하던 그래픽 작업 전문용인 쿼드로 제품군에는 고급 램댁이 들어갔으며 당연히 색감 문제 따윈 없었다[68]. ATi의 색감이 더 좋았던 이유는 레퍼런스 기판에 어느 정도의 성능이 나오는 램댁까지 같이 팔았기 때문이고 ATi 가 좋다던 것도 NVIDIA 에 비해 좋다는 것이지, 저 시절 진짜 고급 그래픽 카드였던 매트록스[69] 또는 시러스로직[70]에는 비비지 못한다.
12.1.2. 기타 제조사
- 퀄컴 - 100% 내장 그래픽이다. 자세한 사항은 퀄컴 Adreno GPU 참조.
- 삼성전자 - 100% 내장 그래픽이다. 삼성 Xclipse라는 이름을 가지고 있으며, AMD RDNA 아키텍처 기반이다.
- ARM Holdings - 100% 내장 그래픽이다. 자세한 사항은 ARM Mali 그래픽 참조.
- Aspeed - 서버용 바탕화면 표시기의 기능을 하는 I/O 칩셋 제조사이다. AST2400이 대표 제품.
- Digital Media Professional
- Apple - 원래는 아래 이메지네이션 테크놀로지스의 GPU를 가져다 썼지만, 2017년 A11 Bionic부터 자체 설계 GPU를 사용하기 시작했다. Apple Silicon 참조.
- Imagination Technologies - PowerVR 시리즈의 제조업체. 초기에는 PC용 제품(Kyro 시리즈)을 발매하기도 했으나 2000년대부터는 모바일 쪽으로 완전히 전향하였다. 또한 드림캐스트의 GPU로 PowerVR이 사용된 적이 있다. PowerVR은 Apple이 애용하여 iPhone, 아이패드에서 계속 채용되고있는 칩셋이다. 위의 퀄컴이나 ARM의 GPU보다 뛰어난 성능으로 iOS의 발빠른 레티나 디스플레이 채용을 위한 성능과, 전통적으로 안드로이드폰 대비 강력한 게임성능을 뒷받침해 왔다. 그런데 성능 격차는 좁혀지고 있고, 어째선지 애플을 제외하면 채용된 사례를 찾기가 거의 힘들다. 그나마 애플 제품의 판매량 덕분에 먹고 살았지만, 애플이 자체 GPU를 설계하기 시작하면서 주가는 반토막, 그나마 인텔 아톰 실버쏜 계열의 내장 그래픽 제작에 협력했었던 적이 있다만 결국 망했다. 어차피 UMPC 자체가 게임이나 하라고 있는 건 아니지만, 이쪽은 Windows Aero가 정상동작하지 않을 정도로 문제가 심각하다. 심지어 IT가 망하면서 Windows 10용 드라이버가 존재하지 않아 한동안 아티브 탭 3, 아티브 탭 5는 Windows 10 설치가 불가능했던 적이 있었다.
- S3 Graphics
- VIA
- 실리콘모션 - SSD컨트롤러로 유명한 회사. Aspeed처럼 서버/임베디드용 바탕화면 표시기를 개발한다.
- DM&P - 임베디드용 x86호환CPU인 Vortex86 제조사. Vortex86가 SoC이 답게 임베디드용 내장형 바탕화면 표시기를 개발한다.
- Moore Threads
12.1.3. 과거 제조사
- 매트록스 - 1990년대 중후반 고급형 2D 그래픽 카드의 대명사로 손꼽혔으나, 점차 대세인 3D 면에서 취약한 모습을 보이다 결국 멀티 모니터 수요층만을 위하는 제품[71] 위주로 돌려버렸다. 기본 모니터 포트가 4포트 이상이다. 다만 지금은 자체 설계 GPU가 아닌 메이저 제조사의 GPU를 사용한 제품을 생산한다. 그리고 서버에서 G200을 기반으로 한 관리용 내장 그래픽이 바탕화면 표시기로 2020년대에도 열심히 사용된다.
- 3dfx - Voodoo 제품으로 3D 게이밍 그래픽 카드 분야에서 한때 1인자였지만 얼마 안 지나 파산하고 NVIDIA에 인수되었다. 엔비디아는 3dfx의 기술을 받아들였다.
- ATI - AMD에 인수되었다. 다만 ATi의 모바일 GPU 사업부는 퀄컴이 따로 인수하였다. 출시되자 마자 반응이 좋았던 페넘 II 시리즈 같은 x86 CPU와, 잘 팔리던 라데온 HD3000, 4000 계열 데스크탑 그래픽 카드에 집중하던 당시의 AMD는 이를 그다지 대수롭지 않게 생각했으나 모바일 그래픽의 영역이 엄청나게 커진 현 상황을 보면 땅을 치고 후회할 일이 되고 말았다.
- Cirrus Logic - 애플에 인수되었다. DAC 회사로 유명하다.
- Creative - 사운드 블라스터 시리즈로 유명한 회사인데, 1990년대 중반에 독자적인 3D 그래픽 카드를 만든 적이 있지만 상업적으로 성공하지 못해 1990년대 후반부터는 3dfx나 NVIDIA 등의 칩셋을 기반으로 그래픽 카드를 만들었다. 2000년대 초반 Radeon 9700 기반 그래픽 카드를 끝으로 시장에서 철수하였다.
- Realtek/Avance Logic - 리얼텍은 1990년대 초반에 일찌감치 그래픽 카드 칩셋 사업에서 손을 뗐고, Avance Logic는 리얼텍보다는 좀 더 늦게까지 그래픽 카드 칩셋을 만들었으나 리얼텍에 인수되기 수 년 전에 철수하였다.
- S3 Graphics
- SiS - 과거는 그래픽 코어를 만들었으며 Trident의 그래픽 카드 사업부를 인수하기도 했지만 그래픽 칩셋 사업을 XGI 테크놀리지로 분사하고 AMD에 매각하고 칩셋 사업도 접었다.
- XGI Technology - 과거 SiS사의 그래픽 카드 사업부였고, Trident의 그래픽 카드 사업부를 인수합병하여 분사했고, 지금은 AMD에 매각되어 없다.
- Trident - 그래픽 카드 사업부를 SiS에 매각하고 철수했다.
- Tseng Labs - AMD(구 ATI)에 인수되었다.
- Western Digital - 지금은 하드디스크 제조사로 유명하지만, 1987년 VGA 규격이 발표되었을 때 VGA 호환 칩셋을 만든 원년멤버 중 한 곳이다.
- 허큘리스 컴퓨터 테크놀로지 - 독자적인 그래픽 컨트롤러 제조사였다. 이후 IBM의 VGA 규격이 시장을 휩쓸고 지나간 이후에는 벤더로 전환하여 ATi의 제품을 생산했었다. VGA의 영향력이 하도 컸던 탓에 VGA 기반의 그래픽 카드를 벤더끼리 개선시킨 VGA의 후속 규격이 역으로 벤더제 VGA 규격 제품들한테 성능에서 털리고 망해버렸다. 이러한 이유로 현재 출시되는 그래픽 카드들도 전부 VGA 호환모드를 지원한다.
- Rendition Verite
- Neomagic - 과거 노트북에 많이쓰인 저전력 그래픽칩셋 제조사였으며 그래픽코어와 버퍼용 DRAM를 내장한 원칩으로 유명했다. 제품군 브랜드로는 MagicGraph/MagicMedia를 사용했다. 2000년 노트북용 그래픽칩셋 사업을 철수하고 휴대폰이나 PDA용 SoC를 생산하다가 MercadoMagico이라는 인터넷 쇼핑물을 인수하여 쇼핑물 운영이 주력이 되었으며, 반도체사업은 부업이 되었다.
- NEC - µPD7220가 유명하고 PC-9801등 자사 PC규격에 사용될 그래픽 코어를 개발하고 생산했었다. 상술한 드림캐스트의 PowerVR도 생산은 NEC가 담당했었다.
- BitBoys - 좀 특이하게도 핀란드회사이며 과거 3dfx사의 Voodoo2의 성능을 4배를 가졌다고 주장한 Glaze3D를 발표하였으나 결국에 베이퍼웨어가 되었다. 그 후는 컴퓨터용 그래픽 칩셋 개발을 중단하고 모바일 그래픽 IP로 주력을 변경하였으며, 2006년에는 ATI가 인수하여 ATI Imageon 사업부로 전환되었으며, 이 사입부는 2009년에 퀄컴이 인수하여 Adreno 사업부가 되었다.
- 3DLabs - 워크스테이션용 그래픽 카드를 개발하던 회사. 2006년에 사업을 접었다.
- Microsoft - 우리가 알고 있는 그 마이크로소프트가 맞은데, 실제 상용화는 안되었으나 Microsoft Talisman 프로젝트를 위한 프로토타입을 개발한 적이 있다. 그리고 이 프로토타입은 Microsoft Direct3D 팀이 30년 동안이나 쌓여둔 테스트용 그래픽 카드를 전시하면서 발견되었다.
- IBM - IBM이 직접 컴퓨터 규격을 개발하고 생산하던 시절에 직접 그래픽 카드를 만든 적이 있다. MDA/ CGA/ EGA/ VGA/ XGA 이렇게. 그후 POWER기반의 워크스테이션용 GPU인 IBM GTX 시리즈도 생산하다가 IBM GXT4000P를 끝으로 접었다.
- 실리콘 그래픽스 - 자사 워크스테이션용 그래픽 코어를 개발한 적이 있다.
- Chromatic Research, LG반도체 - 원칩으로 GPU, 사운드카드는 물론 모뎀, 비디오가속기(미디어프로세서) 기능까지 구현하려는 MPACT! 시리즈로 유명하다. 한국에선 "헬파이어"라는 이름으로도 알려졌다. 주로 Chromatic Research가 설계하면 LG반도체가 생산하는 방식이였다. 그후 지금으로 치면 SoC처럼 CPU에 그래픽코어(GPU),사운드카드,모뎀,비디오가속기등 전부 넣은 x86호환 프로세서를 개발하려고 하였으나 본격적으로 3D그래픽스 발전하는 시대에 못따라가서 기존 MPACT!시리즈가 안팔리게 되고 자연스럽게 자금난으로 개발취소되었다. 이후 1998년 LG반도체는 현대전자에 인수되어 사라지고 Chromatic Research는 ATI에 인수되어 사라졌다.
- Tritech - 잠시 Bitboys사의 GPU를 라이선스 받아서 Tritech Pyramid 3D를 만든 적이 있다.
- Artist Graphics - 워크스테이션용 GPU 제조사. 주요제품으로는 GT Express Professional, 1000i, Netvision.
- Alliance Semiconductor - 워크스테이션용 GPU 제조사. 제품군 이름은 Alliance Promotion.
- ALI - ACER의 자회사로 AliCat 시리즈 GPU를 제조한 적이 있으며 그후 칩셋 내장iGPU도 개발한 적이 있다. 칩셋사업부를 ULi Electronics Inc.에 넘기면서 컴퓨터용 그래픽 칩셋 개발을 철수했다.
- Ark Logic - 1990년대는 활동하던 GPU 제조사. 대표적인 제품으로 Diamond Stealth64 Graphics가 있다.
- Chips & Technologies - 1990년대는 활동하던 x86 호환 CPU 제조사로 컴퓨터용 칩셋를 개발하면서 x86호환 PC용 GPU도 개발한 적이 있다. 1999년에 인텔이 회사전체를 인수하면서 역사속으로 사라졌다.
- Evans & Sutherland - 현재도 시물레이션 등 컴퓨터 그래픽 분야에 활동하는 회사답게 과거에 워크스테이션용 GPU도 생산한 적이 있다. 제품군 이름은 E&S REALimage.
- HP - 과거 자사 워크스테이션용 GPU를 생산한 적이 있다. 제품군 이름은 HP Visualize.
- Everex - 과거는 CGA 호환 그래픽 카드인 EV-659를 생산했었다.
- Hualon Microelectronics - 과거는 VGA 호환 그래픽 카드인 HMC HM86304를 생산했었다.
- Infotronic S.P.A. - 1990년대부터 2000년 초반까지 저가형 2D 가속 그래픽 카드를 생산하던 회사. 대표적인 제품으로 IMS14/IMSGP2000등이 있다.
- Integrated Micro Solutions / iXMicro - 1990년대 활동하던 GPU제조사로 주로 매킨토시에 사용되는 그래픽 카드를 생산했던 기업이다. 2000년을 끝으로 회사가 운영이 중단되어 사업을 철수했다. 대표적인 제품은 TwinTurbo시리즈 와 ix3D 시리즈.
- Intergraph - 과거 워크스테이션용 그래픽 카드 생산했던 기업이다. 제품군 이름은 Intergraph Intense3D.
- Number Nine Visual Techologies - 워크스테이션용 GPU 제조사. 제품군 이름은 Number Nine Imagine와 Number Nine Revolution.
- Oak Technology - 1980-1990년대 활동하던 GPU제조사로 OTIxxx시리즈 그래픽 칩셋을 생산하던 회사. 그 후 GPU를 제조중단하고 ODD용 컨트롤러로 잘나가다가 그 후 저렴한 가격으로 물량을 밀려나던 미디어텍등 타사제품에 밀려 어려움을 겪은 후 2003년 Zoran Corporation에 인수합병 돼서 역사 속으로 사라졌다.
- PHILIPS / NXP - 제품군 이름은 TriMedia. 타사제품와 달리 그래픽출력도 지원하는 CPU에 가까운 제품으로 필립스 반도체사업부시절부터 개발생산하고 NXP로 분사후까지 생산하다가 2010년은 사업부 자체가 해체되었다.
- Radius - 1990년대 활동하던 GPU제조사로 주로 매킨토시에 사용되는 그래픽 카드를 생산했던 기업이다. 1999년 회사 이름을 Digital Origin로 변경하고 소트프웨어 업체로 전환하면서 GPU 사업을 철수했다. 제품군 이름은 Radius Thunder.
- RAM - 과거 CGA호환 그래픽 카드인 RAM MCG2502를 생산했었다.
- Sun Microsystems - 과거 자사 워크스테이션용 GPU를 생산한 적이 있다.
- Weitek - 1980-1990년대는 활동하던 코프로세서 제조사였으나 그래픽 칩셋도 생산한 적이 있다. 제품군 이름은 Weitek Power. 회사자체는 1996년 Rockwell's Semiconductor Systems에 인수되어 역사 속으로 사라졌다.
12.2. 제조사
자세한 내용은 그래픽 카드/제조사 문서 참고하십시오.13. 관련 문서
[1]
AMD의 트루 오디오 등 그래픽 카드의 음성 연산 기능도 2010년대 부터 출시되었다.
[2]
특히 부동소수점 연산장치(FPU)가 이것과 관계가 깊다.
[3]
대표적으로
툼 레이더나
파이널 판타지 7 PC판 등이 있다. 당연하지만 3D 카드가 있을 때보다는 해상도가 절반으로 떨어지고 화질도 열화되는 등 그래픽 질이 나빠졌다.
[4]
CPU 에뮬레이션은 수천 명의 공장 노동자가 만들 물건을 설계자들이 직접 한땀한땀 만드는 것과 비슷하다. GPU에 비해 오작동 확률은 훨씬 적긴 하지만 수십~수백분의 1초 만에 지나갈 수백만 픽셀 중에 한두 픽셀 어긋난다고 티가 많이 나진 않는다.
[5]
HD 7990같이 가끔씩 레퍼지만 블로워 팬이 아닌 경우도 있다.
[6]
과거 래퍼런스 제품들은 블로워 팬이라고 그래픽 카드 내부로 바람을 불어주는 방식이 아니라 주변의 뜨거운 바람을 빨아들여서 외부로 내보내는 방식을 사용했다. 다만 20시리즈 부터 다른 비레퍼처럼 통상적인 쿨링팬을 사용한다.
[7]
1080 ti 기준 래퍼런스는 팬이 1개지만 비 레퍼는 2~3개
[8]
타이탄은 맥스웰 기반 타이탄 X까지는 타사에서 제조하고 제조사 브랜드로 판매하던 레퍼런스 모델들도 존재했지만 파스칼 부터는 이마저도 사라졌다. 사실 쿼드로 같은 모델도 사파이어에 레퍼런스 외주를 주는 AMD처럼 리드텍같은 타사에서 생산하며 판매만 엔비디아에서 한다.
[9]
AMD의 XT 모델, NVIDIA의 Ti나 Super 모델
[10]
CPU도 한때는 그래픽 카드처럼 확장 카드 형태로 나온 적이 있었는데, 대표적으로 1997~1998년 인텔
펜티엄 2, 1998년 펜티엄 2 기반의
셀러론, 1999년
펜티엄 3 초기형, 1999~2000년 AMD 초기
애슬론이 있다. 물론 그 시절 슬롯 타입의 CPU가 지금의 그래픽 카드만큼 복잡한 구성은 아니었고, 기껏 구성 요소라고 해봐야 CPU와 쿨러를 제외하면 외부 캐시 메모리 칩 뿐이었다.
[11]
CPU 기준으로 보면 GPU가 코프로세서 역할이기 때문이다.
[12]
이 때는 그래픽 카드가 따로 있고, 3D 가속기라고 해서 그래픽 카드 외에도 따로 꽂는 형식이었다. 이런 형태로 나오던 걸 통합시킨 게 현재까지 이어져오고 있는 것.
[13]
2006년에 ATI가 AMD에 인수합병되었다.
[14]
물론 엄밀하게 따지면 CPU의 명령어를 받아서 발행하는 커맨드 프로세서가 GPU계의 뇌에 해당되지만 연산하는 것도 뇌이므로 딱히 틀린 비유는 아니다. 굳이 추가로 비유하자면 형태를 구축하는 지오메트리 프로세서와 픽셀로 변환하는 래스터라이저는 우뇌에 대응할 수 있다.
[15]
실시간 레이트레이싱을 구현할 수 있는 레이트레이싱 전용 연산기 자체는 타 제조사도 있지만, 일반적인 그래픽 카드 범위 내에서는 NVIDIA의 RT 코어가 처음이다.
[16]
AMD 공식 홈페이지의 제품 사양에 ROP 스펙이 표기되고 있기 때문에 라데온 그래픽 카드 한정으로는 확인하기 쉬워졌다. NVIDIA랑 인텔은 여전히 표기하지 않고 있다.
[17]
이전 세대 중에 최상위 GPU였던 GK110의 L2 캐시가 1.5 MB였던 것보다도 0.5 MB 더 많은, 무려 2 MB나 탑재되었다. 훗날에 나온 2세대 맥스웰 마이크로아키텍처 중에서도 하이엔드 GPU인 GM204와 그 다음에 나온 파스칼 마이크로아키텍처 중 하이엔드 GPU인 GP104와도 같은 용량이다.
[18]
1920x1200 60hz 이하 해상도에서 DVI 단자와 호환성이 있다. 사실상 핀 배치만 조금 건드려주면 호환되는 수준. 따라서 DVI to HDMI 어댑터를 쓴다고 딜레이가 더 늘어난다거나 그렇지는 않다. 단자 모양만 다르고 같은 통신 규격을 사용하기 때문
[19]
병렬연산의 단점 중 하나이다. 쉽게 표현하면 복수의 프로세서들을 한개의 칩에 무지막지하게 때려박은 거다. 이 원리이기 때문에 인텔이 지금도 홍역을 치르고 있는 중인
CPU 게이트 같은 보안 문제가 그래픽 카드쪽에서는 잘 나지 않는 것이다.
[20]
메인보드에서 기타 칩셋들이나 I/O, 시스템 메모리에 할당되는 전원부 비중이 CPU보다 작은 것과 비슷한 맥락이다.
[21]
ISA 규격 그래픽 카드의 황혼기로 가면 기존의 16비트 ISA 슬롯 옆에 확장 슬롯을 붙인 VESA Local 규격 그래픽 카드가 생겨났으나, 오래지 않아 PCI로 대체되었다.
[22]
확장 인터페이스 브리지를 통해 출시된 그래픽 카드 중에 최후기로는 AGP는 NVIDIA의 경우 GeForce 7900GS/7950GT, ATI(AMD)는 Radeon HD 4670/4650/4350이며 레거시 PCI의 경우 GT610이다. PCI-E x1(1배속)의 경우 앞으로 늘어날 가능성이 있지만 일단은 GT730 PCI-E x1까지 보이고 있다.
[23]
일부 손상이 없을 경우에 한하여 분해시에도 AS를 유지시켜주는 회사가 없지는 않다.
[24]
Graphics Output Protocol로 VBIOS를 대체하기 위한 그래픽 카드 전용 UEFI이다. 메인보드로 치자면 VBIOS가 바이오스, GOP가 UEFI이다.
[25]
이렇게 되면 바이오스 롬 용량이 매우 커지게 된다. 현재 고용량 바이오스 롬 용량이 256Mb(32MB)인데 만일 그래픽 카드 바이오스가 없을시에는 메인보드 바이오스 롬 256Mb(32MB)로는 턱없이 부족할 것이다.
[26]
만일에 대비해서 필수로 기존 바이오스 롬을 GPU-Z를 통해 백업해야된다.
[27]
단색에서 많아야 4색까지 지원되는데 80열에 25줄의 문자열만을 보여줄 수 있었다. 단자 규격은
ISA.
[28]
이 사진처럼 단자가 한 줄로만 있으면 8비트 ISA, 옆에 약간 짧은 게 한 줄 더 있으면 16비트 ISA이다. 16비트 ISA 슬롯 옆에 확장 슬롯을 더 추가한 VESA 로컬 버스 규격도 있었다. (단, VESA 로컬 버스 카드 중에는 ATI Mach32 VESA처럼 16비트 부분 접촉부가 비어 있는 제품도 있었다.)
[29]
당시는 그래픽 칩셋에 3D 지오메트리 연산 기능이 없어 CPU가 그 역할을 대신하던 시절이라 발열이 매우 적었다. 3D의 경우 90년도 중반에 보조 가속 카드(3dfx Voodoo 등.)를 장착해서 연결해야했다. 심지어 지금은 흔하디 흔한 방열판조차 없이 나온 것들도 많았다. AGP 4x 그래픽 카드가 나올 때까지 이랬다.
[30]
기존의 ISA 규격을 대체하기 위해 VESA 로컬 버스와 PCI가 나왔으며, 다시 이를 대체하기 위해 AGP가 나왔다. 현재는
PCI Express로 다시 대체되었다.
[31]
예를 들면
MSX1 규격은 VDP로 TMS9918 상당품을 내장하고 256*192, 16컬러의 PCG 그래픽과 32 스프라이트를 표시할 수 있는 그래픽 성능을 가진다는 게 규격 자체에 명시돼있다. 마찬가지로
애플 II나
코모도어 64, ZX Spectrum 같은 당대의 컴퓨터는 모두가 각자 구분되는 독자적인 그래픽 하드웨어를 고정적으로 가지고 있었다.
[32]
MDA의 텍스트 컬럼 수가 80*25였고, 한자나 한글 같은 2byte 문자는
알파벳에 비해 가로로 2문자분의 공간을 차지하므로 40*25가 표준이 된다. 참고로 80컬럼이 기준이 된 것은 1970년대까지 쓰였던
천공카드 중 표준에 가까웠던 IBM 천공 카드가 80 컬럼이었고,
포트란이나
코볼 같은 초기 언어의 환경이 여기에 맞춰져있었기 때문으로, 손으로 코딩해서 천공카드로 찍어내던 시절의 흔적이다. 80컬럼을 쓸 수 없던
애플 II 같은 경우는 바이덱스 카드 같은 확장 카드를 써서라도 80컬럼을 지원했다.
[33]
여담으로 TARGA는 지금도 기술적 흔적을 남기고 있는데, 그래픽 포맷 중 .tga가 이 TARGA에서 사용했던 이미지 포맷이다. 오늘날에도 3D 그래픽스 등의 분야에서는 종종 사용되는 포맷.
[34]
의외로 텍사스 인스트루먼트는 예전부터 그래픽 칩셋을 만들어온 회사였다. TMS9918은 MSX를 비롯해서 수많은 컴퓨터와 게임콘솔의 VDP로 채용되었으며 이것을
야마하가 확장한 버전이
세가 마스터 시스템에 들어갔다.
[35]
Creative의 3D Blaster VLB라는 제품명으로 판매되었다.
[36]
Xbox 360에 탑재된 Xenos GPU도 통합 셰이더 형태로 구현되어 있었으나, DirectX 9 기반인 탓에 GPGPU 활용이 제한된 구조라는 차이점이 있다.
[37]
컴퓨터 본체 갤러리에서는 이런 이유로 컴갤빌런에 박제되면
울버린이라고 부른다. 비단 이것 뿐만이 아니라, 케이스의 일부를 억지로 찢으면 다 울버린이라 부른다.
[38]
기존에는 그냥 접점 연결 케이블 개조 등으로 연결하였으나 가상화폐 채굴 열풍으로 다수의 그래픽 카드를 사용하기 위해 제품화된 물건들이 나왔다.
[39]
GPU에서는 코어를 스트림 프로세서 또는 통합 셰이더라고 부른다. NVIDIA에서는
CUDA 코어라고 부르지만 기본적으로 동일한 의미이다.
[40]
초기 페르미 아키텍처의 고발열/고전력화는 TSMC 탓도 컸다. 수율이 너무 심각해 양품 자체를 거의 뽑지 못했고, 그마저도 엄청난 누설전류로 효율성이 떨어졌다.
[41]
다만 ATX 3.0 규격에서 16핀 보조전원이 추가됨에 따라 이 문제는 차차 해결될 것으로 보인다.
[42]
일부 고가 모델은 3칸을 먹는 경우도 있다.
[43]
노트북용 그래픽 카드는 이미 높은 전력소모량과 발열량으로 인해 성능을 크게 희생시켜야 겨우 사용하는 수준이며 이마저도 얇은 노트북들이라면 거의 힘든 수준이다.
[44]
오히려 조립식 컴퓨터나 데스크탑 컴퓨터의 점유율은 매해마다 줄어들고 있다. 특히 코로나 사태때 노트북 판매량이 훨씬 높았다는 점.
[45]
엔트리급 외장 그래픽 카드만 해도 무려 70~100W급이다.
[46]
또한 USB-C가 충전할 수 있는 최대 전력량이 100W이므로 그 이후부턴 큼지막한 전용 전원 케이블이 필요하다.
[47]
특히
울트라북,
2in1 노트북이라면 매우 높은 확률로 내장형 그래픽이다.
[48]
물론 2020년대 현재 마비노기는 과거부터 누적된 여러 패치로 인해 사양이 점차 무거워져 지금은 Intel Core i3 (1세대) 2.5GHz 이상이 권장 사양이라고 적혀있다. 그마저도 유저들의 수, 스킬 이펙트, 연출로 인해 렉이 과하게 걸리며 튕길 위험이 있어서 믿으면 안된다.
[49]
사실상 이
샌디브릿지 세대 이후부터 2000년대 초중반의 3D 게임들을 원활하게 구동할 수 있다고 보아도 좋다. 여담으로 지포스 8400GS 초기형(Rev. 1)이 후기형(Rev. 2)보다 3D 성능 면에서는 더 우월하다. 후기형이 초기형보다 더 나아진 면도 있지만 GPU 코어의 스펙이 다운그레이드되었기 때문에 3D 성능이 보다 낮아졌다.
GeForce 8 문서 참조 바람.
[50]
듀얼 채널의 RAM으로 구성해야 동급 성능이 된다. 코어 i3-41x0 계열 CPU에 내장된 HD Graphics 4400은 4600의 다운클럭 버전으로 아이비브릿지 세대의 상위 내장그래픽인 HD Graphics 4000에 가까운 성능이다.
[51]
또는 GK208 기반의 후기형 GT 630.
[52]
듀얼 채널의 RAM으로 구성할 경우 지포스 GT 730 GDDR3와 동급 성능으로 상향되며, DirectX 10 기준으로 대응하면 한때 하이엔드 라인이었던 G92 풀칩 기반의 8800GTS급 성능이다.
[53]
또는 GK208 기반의 후기형 GT 640.
[54]
듀얼 채널의 RAM으로 구성할 경우 지포스 GT 730 GDDR5와 동급 성능으로 상향되며, DirectX 10 기준으로 대응하면 한때 플래그십 라인이었던 G92 풀칩 기반 8800GTS ~ 9800GTX 사이의 성능이다.
[55]
AMD RYZEN 1000 시리즈는 내장 그래픽(iGPU)이 적용된 CPU가 없다.
[56]
내장 그래픽(iGPU)의 경우
위키백과(영문)에서 언급된 내용에 의하면 RX Vega 명칭에서 Radeon Graphics 명칭으로 변경되었다고 한다.
[57]
사이버펑크, 포르자 등에선 1060에 거의 근접한 모습도 보여주나 대부분의 게임에서 1060보다 훨씬 낮고 퀘이사존 10종 종합벤치 기준 약 35% 낮다.
[58]
예전에는 같은 세대 외장 GPU와 비교하여 GTxx10(펜티엄/셀러론)~GTxx20(일반적인 Core i 시리즈)~GTxx40(IRIS 계열) 정도 성능
[59]
현재는 북미에만 출시. 한국 리테일 출시는 3~4분기 예정. OEM용으로의 발매는 2021년 4월.
[60]
그러니까 나중에 외장그래픽을 사서 달아도 5800X 대비 40달러 저렴한 대신 5% 느린 CPU를 샀을 뿐인거다.
[61]
유튜브에서 드라이버를 쓰기도 하지만 이 사람들은 컴 조립이 일인 데다 교체부품이 많이 있어서 그럴 수 있는 것이다.
[62]
이런 걸 색감 문제로 치지 않는다느니, 색감을 애기할 정도라면 전문적 작업을 하는 사람이니 하는 건 전형적인
낭설이다. 뜻이 불분명한 인터넷 은어로 논쟁이 붙으면 꼭 이런식으로 용어 정의 자체를 제맘대로 하는
답정너가 출현하는데, 애초에 용어 자체에 엄밀한 정의나 범위 한계가 없어서 생기는 논쟁에 저런 선비짓을 하는 건 명백히 근거 없는 망상질에 불과하다.
[63]
[64]
그런데 이건 3D 렌더링의 문제이지 색감 논쟁의 핵심인 '그래픽 카드마다 색이 다르다' 는 아니다
[65]
램댁, 말그대로 RAM에 팔레트, 즉 물감을 저장해두고 그것을 DAC를 이용해 디지털 신호를 아날로그 신호로 변환해 화면 뿌려주던 부품이다.
[66]
이걸 해결하려면 게임 개발자가 적당히 역으로 왜곡을 넣어 눈으로 보이는 이펙트 강도를 비슷하게 맞춰야 하는데, 워낙 귀찮은 작업인데다 딱히 필요한 것도 아니라(원리를 알든 모르든 대부분 '그래픽 카드 차이'로 퉁치고 넘어가지 게임 문제라고 따지진 않았으니) 메이저 게임에서도 한쪽 기준으로만 맞춰놓고 나머진 심각한 버그가 아니면 내버려두는 경우가 절대다수였다.
[67]
일례로 라데온 8500 LE (9100) 의 경우는 램댁이 2개 달려있던 8500 모델에서 2차 램댁을 제거한 모델인데, 이것 하나 빼는것으로 30~40% 에 가까운 코스트 다운을 실현했으며, 순수하게 성능만 보자면 한참 뒤떨어짐에도 불구하고
매트록스가 2000년대 중후반까지 팔리던 이유도 바로 이것 때문이다.
[68]
굳이 자체 설계 제품이 아니더라도, 고급형을 내세운 그래픽 카드 제조사에서 제작한 NVIDIA 그래픽 카드는 고급 램댁과 커스텀 드라이버로 좋은 색감을 보여주었다. 대표적으로 90년대 말 ~ 2000년대 초 고급형 NVIDIA 기반 그래픽 카드 메이커로 유명했던 캐노퍼스(
에디우스를 제작하는 그래스밸리 고베 연구소의 전신).
[69]
파헬리아 이후 더이상 자체개발을 하지 않는다.
[70]
현재도 오디오 DAC로 유명하다. 아이폰 6s 이전 모델과 삼성의 갤럭시 모델에 들어가는 DAC 칩셋, 그리고 2019년
가성비를 무기로 출시되었던 대부분의
DAP속
DAC가 바로 이 회사의 칩셋이다.
[71]
수많은 모니터를 한 본체에 물려 놓고 돌리기 좋은 제품