APU : quand le CPU et le GPU décident de faire colocation
Histoire, fonctionnement, limites et futur de ces drôles de créatures hybrides
Il y a des technologies qui avancent à pas feutrés, comme si elles tentaient de se faire oublier. Et puis, il y a celles qui s’immiscent dans notre quotidien sans que l’on sache vraiment comment elles sont arrivées là.
Les APU – Accelerated Processing Units – sont exactement de cette espèce.
On les croise dans des laptops légers, des mini-PC silencieux, parfois même dans des consoles de jeux… et pourtant, peu de gens pourraient dire clairement ce qu’ils ont sous le capot.
Allez, on démonte ça ensemble.
(Pas littéralement. Même si oui, je sais, démonter un PC c’est toujours tentant.)

L’origine des APU : l’idée folle de tout réunir
Lorsqu’AMD a présenté ses premiers APU au début des années 2010, l’ambition était simple : faire tenir sur une seule puce un processeur central (CPU) et un processeur graphique (GPU), partageant la même mémoire, la même architecture globale, et travaillant de concert plutôt que séparément.
Avant ça, le CPU et le GPU vivaient dans deux mondes différents, séparés par des bus, des latences, et souvent par une certaine incompréhension mutuelle.
L’APU, c’était donc un peu comme installer deux colocataires dans le même appartement :
- fini les trajets interminables,
- fini la duplication d’informations,
- tout le monde partage le frigo (la mémoire),
- et idéalement, on s’entend pour optimiser les tâches.
D’un point de vue industriel, cette idée était brillante :
réduire la consommation, le coût et l’encombrement, tout en offrant des capacités graphiques plus qu’honorables.
Comment fonctionne un APU ?
Imaginez une grande salle de machines (oui, j’ai tendance à imaginer les composants comme des ateliers un peu vivants).
D’un côté, le CPU : logique, méthodique, chargé de gérer les calculs, les processus, la coordination.
De l’autre, le GPU : spécialiste des calculs massivement parallèles, l’artiste un peu hyperactif qui adore gérer des milliers de petits pixels simultanément.
Dans une configuration classique, les deux sont séparés et ont chacun leur mémoire.
Dans un APU :
- Le CPU et le GPU partagent la même RAM
→ Cela réduit les coûts et la latence. - Le GPU n’a pas besoin de mémoire dédiée (VRAM)
→ Il pioche dans la RAM du système, ce qui est à la fois pratique et limitant. - Un contrôleur mémoire unifié orchestre les accès
→ La partie la plus délicate : éviter que le CPU et le GPU se marchent dessus.
Résultat :
Un système très compact, idéal pour les appareils à faible consommation ou l’informatique embarquée.

Les limites des APU : là où la colocation commence à coincer
Aussi géniale que soit cette fusion, l’APU reste une solution d’équilibre.
Un compromis, parfois harmonieux… parfois un peu frustrant.
La mémoire, le point critique
Le GPU d’un APU utilise la RAM du système.
Or, cette mémoire :
- est moins rapide que la VRAM dédiée d’une carte graphique,
- est partagée avec tout le reste,
- peut devenir un goulot d’étranglement dans les jeux ou les applications intensives.
Les performances graphiques plafonnent
Même les meilleurs APU actuels ne rivalisent pas avec les cartes graphiques dédiées de moyenne ou haute gamme.
Les jeux modernes tournent, oui, mais en réduisant la voilure.
(À moins d’aimer les pixels façon jeu indépendant stylisé — ce qui n’est pas toujours un défaut.)
Chauffe et dissipation
Tout est dans la même puce, donc il faut gérer intelligemment la chaleur générée.
Quand le CPU travaille beaucoup, il peut limiter le GPU, et inversement.
Le futur : pourquoi les APU sont plus importants que jamais
Le monde informatique change.
Nos besoins aussi.
Et c’est précisément là que les APU montrent les dents.
Montée en puissance spectaculaire
Les APU modernes – notamment chez AMD avec les architectures RDNA et Zen – atteignent aujourd’hui un niveau impressionnant.
On voit émerger :
- des mini-PC capables de faire tourner des jeux AAA en 1080p,
- des laptops sans GPU dédié qui rivalisent avec des machines plus lourdes,
- des consoles portables (Steam Deck, Rog Ally…) entièrement basées sur des APU.
L’unification CPU/GPU devient LA tendance
Apple, avec ses puces M1/M2/M3, a montré qu’une architecture unifiée pouvait atteindre des performances bluffantes.
Ce n’est plus seulement un compromis économique :
c’est une philosophie de conception.
L’IA pousse à la fusion
Les APU modernes intègrent déjà des NPUs (Neural Processing Units) dédiées à l’intelligence artificielle.
On parle désormais de puces tri-hybrides (CPU+GPU+NPU), capables de gérer :
- l’IA locale,
- le rendu graphique optimisé,
- et le multitâche traditionnel.
Vers des architectures mémoire encore plus rapides
La prochaine étape ?
De la RAM intégrée beaucoup plus proche du GPU, voire des technologies unifiées façon HBM (High Bandwidth Memory), mais au format APU.
Le tout en continuant de réduire la consommation.
L’avenir s’annonce lumineux (et compact).

Conclusion : l’APU, c’est l’avenir du “juste assez… mais mieux”
Les APU sont nés d’une idée simple : faire plus avec moins de place, moins de chaleur et moins de consommation.
Pendant longtemps, ils ont été vus comme des composants “d’entrée de gamme”.
Aujourd’hui, ils deviennent une solution élégante, intelligente, et surtout adaptée à un monde où chaque watt compte.
Les prochaines années risquent d’être passionnantes.
Et je vous parie que dans dix ans, la frontière entre CPU et GPU sera presque invisible pour la majorité des appareils.
La colocation ?
Elle fonctionne plutôt bien, finalement.






