La GDDR5 SDRAM (Graphics Double Data Rate, version 5) est un type de mémoire pour carte graphique qui se présente comme le successeur de la GDDR4[1]. Elle est disponible depuis pour le grand public dans certaines cartes graphiques de la firme ATI Technologies ainsi que dans toutes les cartes haut de gamme NVidia[2].

Historique modifier

Hynix Semiconductor a introduit dans l’industrie la première barrette de Gio de GDDR5, supportant une bande passante de 20 Go/s sur un bus de 32 octets, ce qui autorise des configurations de mémoire de 1 Gio à 160 Go/s avec seulement 8 circuits sur un bus de 256 bits.

Adoption modifier

Depuis lors de la sortie de la Radeon HD 4850 et 4870, la GDDR5 est utilisée dans les ATI Radeon à partir du milieu de gamme. La mémoire Qimonda offre une fréquence de 1,8 GHz dans ce dernier modèle. La firme Nvidia a commercialisé cette mémoire graphique en en sortant le GT216[3].

La Playstation 4 de Sony utilise 8 Gigaoctets de GDDR5, alors que sa rivale, la Xbox One de Microsoft, utilise la même quantité de DDR3, ce qui donnerait un avantage à la première[4].

GDDR5X modifier

En janvier 2016, le JEDEC a standardisé la SGRAM GDDR5X[5]. La GDDR5X vise une vitesse de transfert de 10 à 14 Gbit/s par broche, le double de la GDDR5[6]. Essentiellement, elle offre la possibilité au contrôleur de mémoire d'utiliser soit un mode double data rate qui a une mémoire tampon de prélecture de 8n, soit un mode quad data rate qui a une mémoire de prélecture de 16n[7]. La GDDR5 a seulement un mode double data rate et une mémoire de prélecture de 8n[8]. La GDDR5X possède également 190 broches par puce (190 BGA)[7]. Par comparaison, la GDDR5 standard a 170 broches par puce (170 BGA)[8]. Elle nécessite donc un PCB modifié.

Commercialisation modifier

 
GDDR5X sur la carte graphique 1080 Ti

Micron Technology a commencé à échantillonner les puces GDDR5X en mars 2016[9], et a commencé la production de masse en mai 2016[10].

Nvidia a officiellement annoncé la première carte graphique utilisant la GDDR5X, la GeForce GTX 1080 basée sur l'architecture Pascal le 6 mai 2016[11]. Les cartes graphiques utilisant la GDDR5X furent ensuite la Nvidia Titan X le 21 juillet 2016[12], la GeForce GTX 1080 Ti le 28 février 2017[13] et la Nvidia Titan Xp le 6 avril 2017[14].

Notes et références modifier

  1. (en)GDDR5 Pinout and Description, sur le site interfacebus.com, consulté le 21 décembre 2015.
  2. (en) AMD Radeon HD 4800 en GDDR5, Techconnect Magazine, publié le 21 mai 2008.
  3. AMD et Nvidia, quelque part en juin 2009, Le comptoir du hardware, publié le 16 octobre 2008.
  4. PS4 vs. Xbox One : les caractéristiques techniques, sur le site tomshardware.fr du 12 juin 2013, consultée le 10 juillet 2014.
  5. (en) « JEDEC Announces Publication of GDDR5X Graphics Memory Standard », JEDEC, (consulté le )
  6. (en) « JEDEC Publishes GDDR5X Specifications – Double the Bandwidth of GDDR5 With Lowered Power Consumption » (consulté le )
  7. a et b (en) « GDDR5X SGRAM: MT58K256M32 – 16 Meg x 32 I/O x 16 banks, 32 Meg x 16 I/O x 16 banks » [archive du ], Micron Technology, (consulté le )
  8. a et b (en) « GDDR5 SGRAM: MT51J256M32 – 16 Meg x 32 I/O x 16 banks, 32 Meg x 16 I/O x 16 banks » [archive du ], Micron Technology, (consulté le )
  9. (en) Anton Shilov, « Micron Begins to Sample GDDR5X Memory, Unveils Specs of Chips », AnandTech, (consulté le )
  10. (en) Anton Shilov, « Micron Confirms Mass Production of GDDR5X Memory », AnandTech, (consulté le )
  11. (en) NVIDIA Newsroom, « A Quantum Leap in Gaming: NVIDIA Introduces GeForce GTX 1080 », sur NVIDIA Newsroom Newsroom
  12. (en) « The New NVIDIA TITAN X: The Ultimate. Period. - The Official NVIDIA Blog », sur nvidia.com,
  13. (en) NVIDIA Newsroom, « NVIDIA Introduces the Beastly GeForce GTX 1080 Ti -- Fastest Gaming GPU Ever », sur NVIDIA Newsroom Newsroom
  14. (en) « The New Titan Is Here: NVIDIA TITAN Xp - NVIDIA Blog », sur nvidia.com,

Voir aussi modifier

Articles connexes modifier