Composants critiques

Les processeurs Deca-core et les cartes vidéo avec 12 Go de mémoire vidéo sont sans doute parmi les composants les plus en vogue de notre génération. Mais que savez-vous des puces qui ont rendu les véritables superordinateurs d’aujourd’hui possibles? N'importe quoi? Alors amène une chaise et écoute, snappers.

Sans ces puces, vous n'auriez pas Doom, Spotify, Facebook, Instagram ou même la possibilité d'ouvrir un simple document. Ces processeurs ont non seulement rendu l’informatique possible, mais ils ont également façonné l’histoire, de la montée du jeu en 3D à l’établissement d’une base de code standard pour les PC du monde entier..

Cet article fait partie de TechRadar Semaine du silicium. Le monde intérieur de nos machines évoluant plus rapidement que jamais, nous cherchons donc à explorer les processeurs, les GPU et toutes les autres formes du métal le plus précieux de l'informatique..

Précédent Page 1 sur 7 Suivant Précédent Page 1 sur 7 Suivant

Présentation de la norme x86

En 1979, le microprocesseur avait sept ans et Intel venait d'annoncer que le 8086 serait la première unité centrale de traitement 16 bits au monde. Les grosses perruques, dont la NASA et IBM, ont adopté la puce, permettant à Intel de dominer le monde de l'informatique. Cependant, le véritable héritage durable de ce processeur provient de la manière dont il a défini l’ensemble d’informations x86 en tant que norme dont l’industrie informatique avait besoin à ses débuts. Sans cette plate-forme universelle, l'amélioration exponentielle de la vitesse, de la capacité et du rapport qualité-prix des ordinateurs n'aurait jamais eu lieu.

Précédent Page 2 sur 7 Suivant Précédent Page 2 sur 7 Suivant

Bonjour le monde

Développé la même année que la puce 8086 d’Intel, le Motorola 68000 était un processeur 32 bits qui surpassait tout ce qui était en développement à l’époque. La puce était puissante et flexible, ce qui lui permettait d’être utilisée dans une grande variété de machines, y compris Apple Lisa et Macintosh, le Commodore Amiga, Atari ST et les armoires à arcades du monde entier..

Précédent Page 3 sur 7 Suivant Précédent Page 3 sur 7 Suivant (Crédit image: PC Gamer)

Le jeu en 3D monte

Avant que les joueurs n'aient à s'inquiéter de l'occlusion ambiante, de la tessellation ou de mille autres paramètres graphiques, l'apparence des jeux se résumait aux graphiques 2D et 3D. Jusqu'en 1996, vous disposiez de cartes graphiques pouvant alimenter à la fois les jeux plats et les jeux tridimensionnels, mais le 3dfx Voodoo 1 était le premier GPU à se concentrer uniquement sur la popularité croissante des jeux 3D, comme Doom et Quake..

Pour pouvoir jouer à des jeux en 2D, les utilisateurs devaient connecter une deuxième carte via un passage VGA, mais les joueurs étaient finalement trop occupés à manipuler les tireurs à la première personne pour s'en soucier. On peut soutenir que le Voodoo 1 a mis les jeux 3D sur la carte et qu'il était assez puissant pour suivre Unreal Tournament et Duke Nukem 3D, même s'ils ont été publiés des années après son introduction..

Précédent Page 4 sur 7 Suivant Précédent Page 4 sur 7 Suivant (Crédit image: Konstantin Lanzet / Wikipedia)

Le GPU est né

La Nvidia GeForce 256 a été la première carte graphique officiellement baptisée GPU en 1999. Techniquement, il existait de nombreux "GPU" avant, mais la nouvelle carte de Nvidia était en mesure d'assumer de nombreuses tâches, notamment la transformation, l'éclairage et le rendu. un minimum de 10 millions de pixels par seconde avec un processeur simple cœur. Auparavant, le processeur était responsable d’une part du lion des mêmes tâches. La relation permanente entre les GPU et les CPU était ainsi née..

Précédent Page 5 sur 7 Suivant Précédent Page 5 sur 7 Suivant (Crédit image: hothardware.com)

Dual GPUs montent

ATi Radeon Rage Fury MAXX était la première carte graphique à double puce de la société annoncée à la fin de 1999. Bien que 3dfx ait revendiqué l’honneur de créer les premières cartes graphiques à deux et quatre puces avec Voodoo 4 et Voodoo 5, AMD a créé une centrale à part entière en associant deux cœurs de GPU graphiques Rage 128 PRO à une mémoire "massive" de 64 Mo.

Au-delà de la simple puissance brute de la carte, le MAXX a introduit une nouvelle méthode de rendu des images alternées. Alors que les cartes 3dfx devaient charger chaque cœur graphique de dessiner les lignes de balayage alternées d'une image, les GPU à double puce d'AMD ont été conçus pour dessiner la totalité de l'image et faire correspondre la suivante à son partenaire. Finalement, cette même méthodologie de rendu de trame alternative a été transmise à tous les systèmes multi-GPU..

Précédent Page 6 de 7 Suivant Précédent Page 6 de 7 Suivant

Olympus tombe

Avec 2 688 cœurs CUDA, 6 Go de RAM GDDR5 et 7,1 milliards de transistors intégrés dans un cadre de 10,5 pouces, la Nvidia GTX Titan d’origine était l’un des Olympiens parmi les cartes graphiques. Annoncée en 2013, aucune autre carte n’a livré 4 500 gigaflops d’énergie brute..

Bien sûr, au prix de 1 000 dollars, il était extrêmement onéreux, et ce n’est pas vraiment une surprise si l’on considère qu’il a été conçu pour alimenter les superordinateurs de jeu. Indépendamment du fait que les joueurs aient l’argent nécessaire pour se le payer, le Titan a requis l’attention de tout le monde et, plus important encore, il a établi une nouvelle référence en matière de puissance graphique que chacun puisse suivre. Et, cette course ne montre aucun signe de ralentissement.

  • Maintenant, lisez tout sur les 10 plus grands moments de l'histoire de l'informatique
Précédent Page 7 de 7 Suivant Précédent Page 7 de 7 Suivant
Actions