Integrerad grafik är på väg att bli bättre
Glöm inte att köpa ett dedikerat grafikkort, ganska snart kommer du att spela utan en. Åtminstone, om du är en del av 90% av dem som fortfarande spelar 1080p eller mindre. Nya framsteg från både Intel och AMD menar att deras integrerade GPU: er håller på att riva upp grafikkortsmarknaden.
Varför är iGPU så långsam på första platsen?
Det finns två anledningar: minne och dö storlek.
Minnesdelen är lätt att förstå: Snabbare minne motsvarar bättre prestanda. iGPUs får inte fördelarna med fina minneteknologier som GDDR6 eller HBM2, och i stället måste förlita sig på att dela systemminne med resten av datorn. Det här beror främst på att det är dyrt att sätta det här minnet på själva chipet, och iGPUs är vanligtvis riktade mot budgetspelare. Detta förändras inte när som helst snart, åtminstone inte från vad vi vet nu, men förbättring av minneskontrollrar som möjliggör snabbare RAM kan förbättra nästa gen iGPU-prestanda.
Den andra anledningen, dö storlek, är det som förändras 2019. GPU-dörrar är storväga större än CPU-enheter, och stora dörrar är dåliga affärer för kiselproduktion. Detta kommer ner till felet. Ett större område har större risk för defekter, och en defekt i munstycket kan betyda att hela CPU är toast.
Du kan se i detta (hypotetiska) exempel nedan att fördubbling av formstorleken resulterar i ett mycket lägre utbyte eftersom varje defekt landar i ett mycket större område. Beroende på var felet uppstår kan de göra en hel CPU värdelös. Detta exempel är inte överdrivet för effekten; Beroende på CPU kan den integrerade grafiken ta upp nästan hälften av munstycket.
Dysutrymme säljs till olika komponenttillverkare på ett mycket högt pris, så det är svårt att motivera att investera ett stort utrymme i en mycket bättre iGPU när det utrymme kan användas för andra saker som ökad kärnantal. Det är inte så att tekniken inte är där; om Intel eller AMD ville göra en chip som var 90% GPU kunde de, men deras utbyte med en monolitisk design skulle vara så låg att det inte ens skulle vara värt det.
Ange: Chiplets
Intel och AMD har visat sina kort, och de är ganska lika. Med de nyaste processnoderna som har högre defektfrekvens än normalt har både Chipzilla och Red Team valt att skära upp sina dörrar och limma dem ihop i posten. De gör det lite annorlunda, men i båda fallen betyder det att problemet med dysstorlek inte längre är ett problem, eftersom de kan göra chipet i mindre, billigare bitar och sedan montera dem igen när de är inpackade i faktiska CPU.
I Intels fall verkar det mest vara en kostnadsbesparande åtgärd. Det verkar inte vara att ändra sin arkitektur mycket, bara låta dem välja vilken nod som ska tillverkas av varje del av CPU-enheten. Men de verkar ha planer för att expandera iGPU, som den kommande Gen11-modellen har "64 förbättrade exekveringsenheter, mer än dubbla tidigare Intel Gen9-grafik (24 EU-er), avsedda att bryta 1 TFLOPS-barriären". En enda TFLOP av prestanda är inte riktigt så mycket, eftersom Vega 11-grafiken i Ryzen 2400G har 1,7 TFLOPS, men Intels iGPU har notoriskt lagrat sig bakom AMD: s, så det är en bra sak att fånga upp..
Ryzen APU kunde döda marknaden
AMD äger Radeon, näst största GPU-tillverkaren, och använder dem i sina Ryzen APU. Titta på deras kommande teknik, det här är mycket bra för dem, speciellt med 7nm förbättringar runt hörnet. Deras kommande Ryzen-chips ryktas för att använda chiplets, men annorlunda än Intel. Deras chiplets är helt separata dörrar, kopplade över sin multipurpose "Infinity Fabric" -koppling, vilket möjliggör mer modularitet än Intels design (till en kostnad av något ökad latens). De har redan använt chipletter med stor effekt med sina 64-kärniga Epyc-processorer, meddelade i början av november.
Enligt några senaste läckor innehåller AMDs kommande Zen 2-serie 3300G, ett chip med en åtta-core CPU chiplet och en Navi 20 chiplet (deras kommande grafikarkitektur). Om det visar sig vara sant, kan det här chipet ersätta grafikkort på ingångsnivå. 2400G med Vega 11-beräkningsenheter får redan spelbara bildräntor i de flesta spel på 1080p, och 3300G har enligt uppgift nästan två gånger så många beräkningsenheter som att vara på en nyare, snabbare arkitektur.
Detta är inte bara gissning; det ger mycket mening. Sättet på hur deras design läggs ut gör det möjligt för AMD att koppla ihop stort antal chiplets, de enda begränsande faktorerna är kraft och utrymme på paketet. De kommer nästan säkert att använda två tavlor per CPU, och allt de skulle behöva för att få bästa iGPU i världen skulle vara att ersätta en av dessa tippar med en GPU. De har en bra anledning att göra det också, eftersom det inte bara skulle förändras spel för PC-spel utan konsoler, eftersom de gör APUerna för Xbox One och PS4-serie.
De kan till och med lägga på lite snabbare grafikminne som en typ av L4-cache men de kommer sannolikt att använda system RAM igen och hoppas att de kan förbättra minneskontrollen på tredje genen Ryzen-produkter.
Oavsett vad som händer, har både det blåa och röda laget mycket mer utrymme att arbeta med på sina dör, vilket säkert kommer att leda till att åtminstone något blir bättre. Men vem vet, kanske kommer de bara att packa in så många CPU-kärnor som de kan och försöka hålla Moores lag levande lite längre.