Pierwszą kartą graficzną produkowaną na masową skalę, która implementowała ideę osobnego procesora do przetwarzania grafiki, podobnie jak we współczesnych konstrukcjach, był IBM Professional Graphics Adapter (PGA) z 1984 roku, przeznaczony dla komputerów IBM XT i IBM PC/AT[15][16]. W przeciwieństwie do współczesnych GPU, które przetwarzają dane równolegle, korzystając z wielowątkowości[17], PGA posiadał procesor 8088[16], który przetwarzał dane sekwencyjne z podstawowym pipeliningiem, zgodnie z ówczesną architekturą x86[18]. Aż do wczesnych lat 80. XX wieku, przed pojawieniem się rozwiązań zastosowanych w PGA, systemy graficzne były jednostkami zajmującymi się obsługą pamięci ramki do przechowywania i generowania obrazu, zintegrowanym buforem ramki[19][20].
W latach 90 modele kart graficznych miały ograniczoną wydajność i oferowały podstawowe funkcje graficzne i technologie 3d. Główni producenci tego okresu to: SGI cards; 3DFX (Voodoo); Nvidia(TNT); ATI (Rage); Matrox[21].
W 1996 roku 3dfx wypuszcza na rynek, pierwszy powszechnie dostępny akcelerator 3d o nazwie Voodoo Graphics, później znany jako Voodoo 1. Glide interfejs programistyczny opracowany dla tych kart, stał się popularnym standardem, na komputery PC zgodne z architekturą x86 w drugiej dekadzie lat 90., przed erą DirectX.
Pierwsza generacja[24] 1999 DirectX 7 Obejmuje postęp w technologiach 3D, większą wydajność, wprowadzenie akceleracji sprzętowej. Ukucie pojęcia GPU przez NVIDIA
Narodziny marki GeForce, która pochodzi od połączenia słów Geometry i Force. Na rynku pojawiła się karta GeForce 256, która bazowała na konstrukcji modelu Riva TNT 2. Producent zastosował jednak więcej jednostek obliczeniowych oraz sprzętową obsługę transformacji i oświetlenia (T&L), co można było wykorzystać w takich tytułach, jak Quake III Arena czy Unreal Tournament. GeForce 256 był również zgodny z DirectX 7. (foto: VideoCardz)
Druga generacja[23] 2001-2006 DirectX 8,9. Programowalne vertex (wierzchołki) i geometry shaders (cieniowanie geometryczne), Shader Model 1.0, 2.0 i 3.0. Seria ikonicznych GPU GeForce 3.
Nvidia wróciła do gry dopiero po wydaniu serii GeForce 6000, która konkurowała z modelami Radeon X, ale oferowała nowsze rozwiązania technologiczne - wprowadziła obsługę DirectX 9.0c i Shader Model 3.0, a topowe modele można było łączyć w trybie SLI. Na zdjęciu tandem dwóch topowych modeli GeForce 6800 Ultra. Co prawda w planach był też wyżej taktowany model GeForce 6800 Ultra Extreme, ale producent ostatecznie zrezygnował z wprowadzenia go na rynek. (foto: PC World)
Trzecia generacja[25] 2006-2009 DirectX 10, 11. CUDA (dla NVIDIA), Shader Model 4.0. Pierwsza seria GPU kompatybilna z DirectX 10 – NVIDIA GeForce 8.
Seria GeForce 8000 wprowadziła obsługę DirectX 10 oraz zunifikowanych jednostek cieniujących, a tym samym zapoczątkowała całkowicie nową erę kart graficznych. GeForce 8800 GTX przez długi czas dominował w rankingach wydajności, a chip G80 okazał się tak dobry, że Nvidia wykorzystała go w dwóch kolejnych seriach kart graficznych.
Czwarta generacja[26] 2009-2015 DirectX 11. Shader Model 5.0. Pierwsza kompatybilna seria GPU z DirectX 11 – AMD Radeon HD 5000.
Kolejny rok przyniósł generację Nvidia Maxwell. W tym momencie warto jednak wspomnieć nie o topowym modelu GeForce GTX 980 lub GTX 980 Ti, ale o nieco słabszym GeForce GTX 970 - mimo afery z pomniejszoną pojemnością pamięci wideo (3,5+0,5), karta spotkała się z ogromnym zainteresowaniem ze strony klientów. Do dziś jest to najpopularniejsza konstrukcja wśród użytkowników platformy Steam.
(ang. Accelerated Graphics Port, czasem nazywany Advanced Graphics Port) – zmodyfikowana magistrala PCI opracowana przez firmę Intel, zaprojektowana do obsługi kart graficznych. Jest to 32-bitowa magistrala PCI zoptymalizowana do szybkiego przesyłania dużych ilości danych pomiędzy pamięcią operacyjną a kartą graficzną. Wyparta została przez szybszą „magistralę” PCI Express.
Intel oficjalnie wprowadził opracowaną w 1996 r. magistralę AGP 1.0 (1x, 2x) na rynek wraz z chipsetem Intel 440LX dla procesora Pentium II (Klamath) w dniu 26 sierpnia 1997 r. Ze względu na silną konkurencję ze strony AMD, Cyrix i innych producentów procesorów na platformę Socket 7, Intel był zainteresowany promowaniem nowych procesorów ze złączem krawędziowym Slot 1 i nigdy nie udostępnił wsparcia magistrali AGP w swoich chipsetach dla Socket 7. Pierwszymi chipsetami umożliwiającymi uruchomienie kart AGP na płytach głównych Socket 7 były VIA Apollo VP3, SiS 5591/5591 oraz ALi Aladdin V.
Wersja AGP 2.0 (4x) ukazała się w roku 1998, a wersja AGP 3.0 (8x) w 2002 roku Po wprowadzeniu standardu PCI Express w 2004 r., AGP została przez nią w ciągu kilku lat całkowicie wyparta. Najbardziej zaawansowanymi i najszybszymi dostępnymi kartami ze złączem AGP są GeForce serii 7950 GT oraz Radeon serii HD 4670.
Standard magistrali oraz złącza kart rozszerzeń dla komputerów osobistych, wprowadzona w wersji ośmiobitowej, w 1981 roku wraz z wprowadzeniem komputerów IBM PC obsługiwanych przez procesory z ośmiobitową zewnętrzną szyną danych Intel 8088. Magistrala została rozszerzona do standardu 16 bitowego w komputerach IBM PC/AT wyposażonych w procesor Intel 80286. Magistrala w wersji 16 bitowej była zgodna z 8 bitową, ale większa szybkość taktowania mogła powodować niepoprawność działania kart rozszerzeń.
W latach 90 XX wieku standardy PCI i AGP zaczęły wypierać ISA. Mimo znaczącego spadku używalności, jeszcze na początku XXI wieku ISA stosowano dla celów specyficznych przemysłów czy wojskowości
Magistrala komunikacyjna służąca do przyłączania kart rozszerzeń do płyty głównej w komputerach klasy PC.
Po raz pierwszy została publicznie zaprezentowana w czerwcu 1992 r. jako rozwiązanie umożliwiające szybszą komunikację pomiędzy procesorem i kartami niż stosowane dawniej ISA. Dodatkową zaletą PCI jest to, że nie ma znaczenia czy w gnieździe jest karta sterownika dysków (np. SCSI), sieciowa czy graficzna. Każda karta, pasująca do gniazda PCI, funkcjonuje bez jakichkolwiek problemów, gdyż nie tylko sygnały, ale i przeznaczenie poszczególnych styków gniazda są znormalizowane. Karty dołączone do szyny PCI mogą się komunikować nawet bez udziału mikroprocesora.
Rozszerzenie standardu magistrali PCI, wykorzystywane najczęściej w konstrukcjach systemów serwerowych.
Szyna danych tej magistrali oferuje transmisję danych rzędu 8 GB/s, czyli około 15 razy szybszą niż najszybsze PCI. Magistrala ta jest kompatybilna wstecznie z PCI (zarówno stare karty pasują do nowych gniazd, jak i nowe karty do starych gniazd), istotne jest tylko dopasowanie napięciowe, jednak zastosowanie kluczy w slotach uniemożliwia pomylenie kart 1,5 V i 3,3 V.
32-bitowa szyna danych opracowana przez VESA. W przeciwieństwie do EISA Bus, VL Bus taktowana jest z zewnątrz z częstotliwością zegara procesora. Karty współpracujące z magistralami ISA (8 lub 16 bit) taktowane zegarem 8 MHz (pierwotnie około 4,77 MHz), nie mogły pracować z częstotliwościami większymi niż 10–12 MHz. Aby nie trzeba było takich kart wymieniać, projektanci płyt głównych z systemem VESA Local Bus zaprojektowali swoje łącze tak, że stało się ono rozszerzeniem standardowego 8/16-bitowego interfejsu ISA, taktowanego zegarem 8 MHz. Dzięki takiemu rozwiązaniu VESA Local Bus jest w pełni kompatybilna ze starszymi kartami rozszerzeń ISA.W efekcie, VESA Local Bus używana była głównie w płytach przeznaczonych dla procesorów klasy 486.
Magistrala komunikacyjna zaprojektowana specjalnie dla 32-bitowych komputerów wyposażonych w Intel 80386. Aby zapewnić jej kompatybilność z szyną ISA, taktowana jest zegarem 8,33 MHz. Dość duża prędkość transmisji danych (33 MB/s) jest nie tyle rezultatem częstotliwości taktowania, co szerokości szyny. Magistrala EISA obsługuje standard Plug&Play w przeciwieństwie do swojej poprzedniczki - ISA.
Standard EISA nie znalazł jednak szerszego zastosowania w komputerach 386. Nieco później stosowano go w serwerach z procesorami 486, np. ALR Proveisa.
16- i 32-bitowa magistrala skonstruowana przez IBM specjalnie dla komputerów PS/2 z procesorami 80386DX. Taktowana jest zegarem 10 MHz i z tego względu niekompatybilna z kartami typu ISA. Architekturę MCA wprowadzono w 1987 roku i utraciła znaczenie po dekadzie, gdy została zastąpiona przez magistralę lokalną PCI. Magistrala była pierwotnie 32-bitowa, ale wspierała też tańsze rozwiązania z szyną 16-bitową (obsługującą 16-bitowe karty rozszerzeń).
Standard interfejsu stworzony i promowany przez organizację VESA (Video Electronics Standards Association). Do jego zalet należy możliwość przesyłania zarówno sygnałów analogowych (a więc podłączenia tradycyjnego monitora), jak i cyfrowych, w tym także transmisji USB czy FireWire. 30-pinowe złącze P&D[2], choć drogie, ma największe możliwości. Jego uniwersalność okupiona została jednak wysoką ceną, więc jest ono stosunkowo rzadko stosowane.
Standard złącza pomiędzy kartą graficzną a monitorem komputera. Standard Digital Visual Interface został zaprojektowany przez grupę Digital Display Working Group (DDWG). Do grupy lobbującej za DVI można zaliczyć wiele firm związanych początkowo z DFP. Mimo że DVI nie zostało zaakceptowane jako standard przez VESA, ma ono bardzo dobrą perspektywę na przyszłość, ponieważ protokołem przesyłu danych cyfrowych jest również TMDS (PanelLink). W porównaniu z P&D i DFP, które posiadają tylko jeden kanał przesyłowy, DVI zawiera również drugi, co podwaja maksymalne pasmo przenoszenia (pixel rate). Pozwala to na osiągnięcie rozdzielczości ponad 1280x1024 pikseli. Inną zaletą DVI jest fakt, że może być również przenoszony sygnał analogowy. Dzięki temu, w razie potrzeby, mogą być podłączone również starsze monitory CRT.
Złącze DVI występuje w 3 wariantach:
DVI-I – przesyła zarówno dane cyfrowe, jak i analogowe. Po zastosowaniu właściwej przejściówki można je połączyć ze zwykłym złączem D-Sub karty graficznej.
DVI-D – przesyła tylko dane cyfrowe. Niektóre karty graficzne posiadają możliwość przełączenia się w tryb HDMI, używając złącza DVI, co pozwala na przesyłanie dźwięku. Nie jest to jednak zgodne ze standardem i wymaga zastosowania przejściówki DVI –> HDMI[2].
DVI-A – przesyła tylko dane analogowe.
60 pinowe złącze (4 rzędy po 15 pinów) z sygnałem przeznaczony dla analogowych i cyfrowych odbiorników.
Złącze LFH jest typowo używane do podłączania kilku monitorów do jednej karty graficznej posiadającej takie złącze.
Interfejs video przeznaczony dla urządzeń z wyświetlaczami LCD, plazmowymi, itp.
Interfejs mniej skomplikowany, a przy tym znacznie tańszy niż Plug & Display. Opracowany w firmie Compaq, a następnie zaakceptowany przez VESA. Wspierany przez takich producentów, jak Nvidia, ATI czy 3dfx, interfejs ten niewiele różni się od P&D. Zrezygnowano jedynie z drogich funkcji dodatkowych (USB, FireWire, transmisji analogowej). Podobnie jak w przypadku P&D, maksymalna rozdzielczość obrazu ograniczona jest do 1280 × 1024.
Nazwa magistrali rozszerzeń stosowanej w komputerach Amiga.
Magistrala Zorro oferowała obsługę DMA, bus mastering oraz autokonfigurację i automatyczne przypisywanie adresów (podobny do plug and play, stosowanego w komputerach osobistych, ale stworzony wcześniej).
W sloty te wyposażone były tylko modele z linii hi-end. Dla komputerów nie posiadających magistrali Zorro niezależni producenci stworzyli odpowiednie płyty rozszerzające je o te gniazda.
Historycznie istniały dwie szerzej znane technologie łączenia kart graficznych, w celu zwiększenia wydajności w grach. Pierwsza od Nvidia o nazwie SLI (Scalable Link Interface), wspierana do 2020. Druga od ATI później AMD, funkcjonująca pod różnym nazwami, w różnych okresach czasu jako: ATI Multi-Rendering (AMR); CrossFire; CrossFireX; Multi-GPU (MGPU)[41][42] (w kolejności chronologicznej). Rozwijana przez AMD do roku 2019[43]. Zarówno w przypadku AMD, jak i Nvidii, do trybu Multi-GPU wymagany był mostek łączący dwie karty.
Mniej znanym rozwiązaniem było ATI Hybrid CrossFireX, wprowadzone na rynek pod koniec 2007 roku wraz z chipsetami serii AMD 700. Później przemianowane na AMD Dual Graphics[44]. Pozwalało na łączenie dedykowanej karty graficznej z zintegrowanym procesorem graficznym[42], szybko porzucone przez producenta. Także za niszową można uznać SLI (Scan Line Interleave) od 3dfx, z drugiej połowy lat 90 XX wieku, mimo identycznego akronimu jak SLI (Scalable Link Interface) od NIVIDI to różne technologie. W przeszłości jeszcze trzy inne firmy wdrożyły w swoich produktach łączenie kart graficznych. Były to S3 Graphics z MultiChrome, XGI Technology z BitFluent Protocol i Metabyte z Parallel Graphics Configuration.
Współczesne połączenia dla wielu GPU:
PCIe
NVLink
NV-SLI
NVSwitch
GPUDirect