Sur ce site, nous utilisons des cookies

log in

iBidules / Mac

GPU contre CPU: le match !

Évaluer cet élément
(1 Vote)

Vous avez surement remarqué que depuis quelques temps, les processeurs de dernière génération ne font plus la course aux Méga-Hertz comme il fut un temps. La faute à qui ? Certainement à une philosophie différente (multiplication des coeurs oblige), mais aussi à des contraintes techniques (finesse de gravure, etc). Alors faisons un petit état des lieux et essayons d’entrevoir ce que nous réservera le futur !

Gordon si tu nous entends ...

Avant de rentrer dans le vif du sujet, faisons un petit retour en arrière pour parler d'un personnage clé dans l'histoire de l'informatique: Gordon Moore. Derrière ce patronyme assez commun se cache en réalité le cofondateur d'Intel (oui oui la même société qui produit les processeurs de Macs et de PCs). Dès 1965, Gordon Moore affirma que la puissance des ordinateurs allait croître de façon régulière grâce aux capacités d'intégration toujours plus avancées des transistors. Il ira même jusqu'à dire que la puissance des machines doublerait tous les 18 mois (chose qui s’avéra tout à fait juste). C'est d'ailleurs suite à ces déclarations que l'on se mit à parler de « loi de Moore » (rapport à Gordon, vous l'aurez compris).



Mon processeur ? C'est le plus rapide !

Pendant des décennies, on assista à une véritable course aux Mega-Hertz. Tous les fondeurs de l'époque se mirent à se tirer la bourre. Alors qu'Intel régnait en maître absolu sur le monde des processeurs, AMD fit un jour son entrée sur ce marché et pris même un temps le dessus sur ce dernier. Après une période de disette, Intel repris la main avec le Pentium 4 (le même qu'Apple fournissait aux développeurs pour préparer la sortie de ses premiers Mac Intel). Aujourd'hui, entre AMD et Intel, autant dire que « la messe est dite ». Le second règne en maître absolu sur le monde des processeurs (I3,  i5, I7, Xéons, etc.), alors que l’autre tente tant bien que mal à survivre.


Mais depuis quelques temps, les fréquences de nos CPU stagnent. La faute à qui ? Certainement pas aux fabricants qui aimeraient pouvoir faire parler la poudre, mais tout simplement au fait que la fameuse « loi de Moore » n'est plus d’actualité. Et oui, qui dit intégration d’un plus grand nombre de transistors dit aussi miniaturisation. Mais pour miniaturiser toujours plus, il n'y avait pas 36 solutions: il fallait graver plus fin ! D'autres part, la dissipation calorifique et la consommation électrique présentaient également un problème. Alors que certaines limites semblaient avoir été atteintes, de nouvelles évolutions ont vu le jour. La fonction Turbo-boost d’Intel offre par exemple possibilité de solliciter un peu plus nos processeurs pendant une durée limitée afin obtenir un supplément de puissance de calcul.

La multiplication des petits pains !

Ne pouvant augmenter la fréquence à l’infinie, les fondeurs ont repensé l’architecture de leurs processeurs. Les premiers à dégainer ont été les ingénieurs d'IBM avec le tout premier processeur multi-coeur commercialisé en 2003. Cette nouvelle architecture sera reprise ultérieurement par d'autres acteurs majeurs du monde de l'informatique comme SUN ou encore HP. Mais il faudra attendre 2005 pour qu'AMD et Intel sortent leurs premiers modèles (des bi-coeurs). Il faut bien reconnaître que l'architecture multi-coeur était particulièrement novatrice et qu’elle ouvrait des perspectives encore insoupçonnées en terme de puissance de calcul. Le principe était relativement simple: si l’on ne peut pas augmenter la vitesse d’un processeur, on va en mettre plusieurs pour obtenir un regain de puissance.

Depuis, c'est la course au nombre de coeurs. On trouve (à l’heure ou j'écris cet article), des processeurs allant de 2 à 12 coeurs. Parallèlement à cette nouvelle architecture, Intel a développé une fonction particulièrement intéressante et qui fait encore aujourd'hui toute la différence: l'Hyper-Threading (appelé aussi HT). Le premier processeur d'Intel à avoir profité de cette technologie était le Pentium 4 Northwood. Pour simplifier les choses et ne pas vous embrouiller l'esprit, sachez qu'avec cette prouesse technologique, le fondeur vous permet de doubler le nombre de coeurs. Si vous possédez 2 coeurs physiques, vous pourrez grâce à l’Hyper-Threading, profiter de deux autres coeurs logiques. Ainsi, certains i7 ou encore les Xéons, peuvent offrir 8 coeurs (dont 4 logiques) ou encore 24 coeurs  (dont 12 logiques !). Nul besoin de vous faire un dessin: pour peu que vous utilisiez une application capable de gérer le calcul parallèle, vous allez faire parler la poudre !

"Euh, c'est quoi le calcul parallèle m'sieur ?"

Là encore, je vais simplifier les choses pour que vous puissiez assimiler le principe. Imaginez que l'on vous demande de trier des documents. Si vous êtes la seule personne à travailler vous allez mettre un certain temps. Mais si vous êtes deux ou plus, vous allez considérablement faire baisser le chrono. Voila une représentation certes simpliste de ce procédé, mais c'est à peu près ce qui se passe dans la réalité. Aujourd'hui de nombreuses applications (professionnelles ou non), ont massivement recours à cette fonction. Couplée à l'hyper-threading, les performances s'envolent en fonction du nombre de coeurs engagés dans la bataille.

Bien que l'architecture multi-coeurs soit un succès, nous pourrions bien connaître un revirement de situation. Si aujourd'hui les processeurs restent massivement multi-coeurs, ces derniers pourraient bien démocratiser une philosophie complètement différente. En effet, si la loi de Moore a vécu, les contraintes techniques comme la miniaturisation, la gravure, ou encore la la consommation d'énergie, pourraient bien avoir raison de l'évolution des processeurs. La solution: les GPU (Graphics Processing Unit).

Le GPU ? C’est plus fort que toi !

J'en vois déjà ricaner mais lisez la suite et vous changerez d'avis ! ;-) Tout d'abord qu'est-ce qu'un GPU ? Et bien c'est un processeur dédié et spécialisé que l'on retrouve sur une carte graphique, mais aussi sur une carte-mère ou encore au sein même d’un processeur. Initialement, ce dernier ne servait qu'aux fonctions d'affichage. Qui dit spécialisé dit hautement performant, et ce dans un certain nombre de tâches comme le rendu 3D, ou encore la décompression vidéo. Nombreux sont les fabricants à évoluer sur ce créneau et autant dire que la concurrence est rude.

Quand on pense carte graphique, on pense immédiatement à NVIDIA ou encore à ATI (même si d'autres comme Matrox ou S3 Graphics occupent eux aussi le marché). Mais la différence entre CPU et GPU ne s'arrête pas là. En effet, les GPU sont non seulement conçus sur les bases d'une architecture massivement parallèle, mais offrent aussi un plus grand nombre de transistors et de coeurs de calculs qu’un CPU. Pour vous donner un ordre d'idée, là ou le plus gros processeur de chez Intel (un Xeon), offre 12 coeurs, la dernière carte-graphique de chez NVIDIA (la TITAN X), vous en donnera ... 3584 ! Autant dire que c’est le K.O dès le premier round !

Et AMD dans tout ça ?

Le fondeur américain (anciennement ATI), se retrouve sur un marché ultra-concurrentiel. Proposant des solutions graphiques grand public mais aussi professionnelles, AMD est depuis quelques temps, distancée par son concurrent direct. Étrangement, Apple a choisi AMD plutôt qu’NVIDIA pour équiper ses machines. Si les performances sont nettement en faveur de cette dernière (il suffit de comparer les dernières GeForce GTX 1070 et Radeon RX480 pour s’en convaincre), la seule explication qui pourrait justifier ce choix doit être une histoire de gros sous. Peut-être qu'Apple arrive à préserver une marge conséquente en piochant dans le catalogue d'AMD en ayant des tarifs plus compétitifs que chez NVIDIA ? Personne n'est à même de le confirmer, mais personne n'est en position de pouvoir dire le contraire non plus !


Et alors ?

Et bien c'est justement là que les choses deviennent particulièrement intéressantes. Alors que nous atteignons pratiquement les limites de nos processeurs, la solution pourrait bien venir des GPU. Incroyablement plus puissants que des CPU (même lorsqu'ils sont plusieurs sur une même carte-mère), ils ont largement fait leurs preuves. Saviez-vous par exemple que les GPU étaient couramment employés dans les fermes de calculs ? Que ce soit dans la recherche, la biologie, ou dans tout autre domaine demandeur de puissance, ils sont incontournables.

« Metal » fait son chemin ...

Là ou certains logiciels font déjà usage du système « CUDA » de chez NVIDIA permettant au GPU de venir en soutien des tâches de calcul du processeur, Apple boude les solutions déjà présentent sur le marché. Mais il y a quelques temps déjà, la pomme a dévoilé sa solution maison baptisée « Metal ». Si l'on voulait faire un parallèle rapide avec des solutions existantes, nous pourrions la comparer avec « Direct3D » de Microsoft. Pour être bref, « Metal » permettrait de créer un pont entre les applications demandeuses de ressources, et votre carte graphique. Apple a annoncé « Metal » pour la première fois sur IOS 8 (comme quoi les utilisateurs d'IOS sont souvent servis les premiers), mais on sait aussi qu’El Capitan (10.11.x) en a été également pourvu. Cette solution est actuellement utilisée pour booster les performances graphiques de vos Macs (notamment en matière de jeu), mais serait susceptible d'évoluer dans le futur à pas de géant pour être utilisable dans d’autres contextes !

Apple semble avoir la ferme intention de donner aux développeurs n'ayant pas un niveau de compétences élevées, la possibilité d’accéder à une interface de programmation d'applications ou d'API, et donc de profiter de l'accélération graphique matérielle. Imaginez votre application favorite prendre un sérieux « coup de pied au cul » grâce aux ressources inutilisées de votre carte graphique ? Quand on sait que l'on a parfois « sous le capot » des unités graphiques très performantes et qu'elles ne servent qu'à afficher nos applis favorites, on se dit que le potentiel est énorme !

Le train est en marche !

Après la lecture de cette article vous aurez certainement une idée plus précise des formidables ressources inexploitées de votre GPU. Aujourd'hui, il suffirait d'un rien pour qu'une simple impulsion d'Apple lance « les hostilités » et démocratise l'usage de « Metal ». Les avantages seraient multiples, et ouvriraient de nouveaux marchés (et en fermeraient aussi au passage). Adieu l'usage de cartes DSP dédiées comme les UAD-2 et consorts et gloire aux formats natifs ! D’ailleurs Apple aurait tout à y gagner:

* Ne fabricant pas les processeurs de ses Macs, la pomme pourrait passer sur des solutions propriétaires comme les processeurs A9 par exemple, et intégrer « Metal » pour booster ses applications.

* Sur une machine de type Mac Pro, Apple pourrait proposer une unité financièrement plus accessible et tout aussi performante. Fini les Xéons hors de prix (un i7 suffirait), fini les 2 cartes graphiques pour le modèle « entrée de gamme » (une GeForce GTX1080 suffirait à donner des perfs stratosphériques !).

Désormais la balle est dans le camp d’Apple et ce pour deux raisons: avant tout nous redonner espoir (la communauté de la pomme en aurait vraiment besoin), mais aussi marquer sa différence sur le marché Pro qui se sent cruellement abandonné (Mac Pro à la ramasse, etc). Apple devrait prendre conscience d’un dernier élément loin d’être anodin: certes, on ne vit pas dans le passé, mais il ne faut pas oublier pour autant que c'est lui qui a fait de nous ce que nous sommes aujourd'hui.  Alors vivement le sursaut d'orgueil, car faute de quoi, les aficionados de la première heure pourrait bien changer de bateau et voguer vers d’autres horizons.

  • Type: Infos
Commentaires | Ajouter le votre
  • Aucun commentaire trouvé
Links to Best Bookmaker Bet365 it The UK

Réseaux Sociaux


 

Our website is protected by DMC Firewall!