AMD Radeon RX 5700 XT Confirmada a la funció 64 ROPs: Architecture Brief



AMD 'Navi 10' is a very different GPU from the 'Vega 10,' or indeed the 'Polaris 10.' The GPU sees the introduction of the new RDNA graphics architecture, which is the first big graphics architecture change on an AMD GPU in nearly a decade. AMD had in 2011 released its Graphics CoreNext (GCN) architecture, and successive generations of GPUs since then, brought generational improvements to GCN, all the way up to 'Vega.' At the heart of RDNA is its brand new Compute Unit (CU), which AMD redesigned to increase IPC, or single-thread performance.

Abans d’aprofundir més, és important confirmar dues especificacions clau de la GPU 'Navi 10'. El recompte ROP del silici és 64, el doble del silici 'Polaris 10' i el mateix que el 'Vega 10.' El silici compta amb setze rendiments (RB), aquests són quad-pumped, que funcionen amb un nombre de ROP de 64. AMD també va confirmar que el xip té 160 TMUs. Aquestes TMU es redissenyen per tenir un filtratge bi-lineal de 64 bits. El Radeon RX 5700 XT elimina el silici, mentre que el RX 5700 inhabilita quatre cuines RDNA, amb 144 TMU. El recompte ROP del RX 5700 no té canvis en el 64. La unitat de càlcul RDNA considera la major part de la innovació d’AMD. Els grups de dues CU formen una 'Unitat de Càlcul Dual' que comparteixen una cahe de dades escalar, una memòria cau d'instruccions de shader i una quota de dades local. Cada CU ara es divideix en dues unitats SIMD de 32 processadors de flux, un registre vectorial i una unitat escalar, cadascuna. D’aquesta manera, AMD va doblar el nombre d’unitats escalars del silici a 80, el doble del recompte de CU. Cada unitat escalar és similar en concepte d'un nucli de CPU i està dissenyada per manejar càrregues de treball indivisibles pesants. Cada unitat SIMD té el seu propi planificador. Quatre TMUs formen part de cada CU. Aquest disseny massiu de la jerarquia de SIMD i CU aconsegueix una duplicació de les taxes d’instrucció escalar i vectorial i l’agrupament de recursos entre cada dos CU adjacents. Els grups de cinc unitats de doble càlcul RDNA comparteixen una unitat prim, un rasteritzador, 16 ROP i una gran memòria cau L1. Dos grups d'aquest tipus formen un motor Shader i els dos motors de Shader es reuneixen en un processador de comandaments gràfics centralitzat que mariscal carrega de treball entre els diversos components, un processador de geometria i quatre motors de càlcul asíncron (ACE). El segon gran disseny de funcions 'Navi' de les generacions anteriors és la jerarquia de la memòria cau. Cada RDNA dual-CU té una memòria cau ràpida local que es fa referència a L0 (nivell zero). Cada unitat de 16 KB L0 està formada per la SRAM més ràpida, i fa coixins les transferències directes entre les unitats de càlcul i la memòria cau L1, obviant la memòria cau I i la caché K de la unitat de càlcul. La memòria cau de 128 KB L1 compartida entre cinc dobles CU és un bloc de 16 vies de transferències ràpides d'amortiment SRAM entre els motors d'ombra i els 4 MB de memòria cau L2.

En total, RDNA ajuda a AMD a obtenir un rendiment de 2,3x per àrea, 1,5x a guany de rendiment per watt. El silici 'Navi 10' mesura només 251 mm² en comparació amb els 495 mm² de la matriu GPU 'Vega 10'. Moltes d'aquestes guanys espacials també es poden atribuir al canvi al nou procés de fabricació de silici de 7 nm a partir de 14 nm. AMD also briefly touched on its vision for real-time ray-tracing. To begin with, we can confirm that the 'Navi 10' silicon has no fixed function hardware for ray-tracing such as the RT core or tensor cores found in NVIDIA 'Turing' RTX GPUs. For now, AMD's implementation of DXR (DirectX Ray-tracing) for now relies entirely on programmable shaders. At launch the RX 5700 series won't be advertised to support DXR. AMD will instead release support through driver updates. The RDNA 2 architecture scheduled for 2020-21 will pack some fixed-function hardware for certain real-time ray-tracing effects. AMD sees a future in which real-time ray-tracing is handled on the cloud. The next frontier for cloud-computing is cloud-assist, where your machine can offload processing workloads to the cloud.