Tensor Processing Unit
accélérateur de calculs d'IA conçu par Google
From Wikipedia, the free encyclopedia
Un Tensor Processing Unit (TPU, unité de traitement de tenseur) est un circuit intégré développé par Google pour accélérer les systèmes d'intelligence artificielle par réseaux de neurones. À la différence d'un GPU (Graphics processing unit), ce circuit intégré ne contient pas de fonction pour le rendu graphique, mais uniquement des unités de calcul optimisées pour le calcul tensoriel sur un grand volume de données.

Présentation
Les TPU ont été annoncés en 2016 au Google I/O, lorsque la société a déclaré les utiliser dans leurs centres de données depuis plus d'un an. La puce a été conçue spécialement pour TensorFlow, une bibliothèque logicielle mathématique qui est utilisée pour l'apprentissage automatique dans des applications telles que les réseaux de neurones[1]. Cependant, Google utilise toujours les CPU et GPU pour d'autres types d'apprentissage automatique[2].
Les TPU ont été utilisés par Google pour entrainer l'IA Gemini 3 Pro, sortie en novembre 2025[3]. Ces puces présentent un coût d'exploitation inférieur à celui des GPU de Nvidia[4].
Histoire
En novembre 2025, Google annonce qu'il mettra en vente ses puces, notamment à Meta, faisant directement concurrence à Nvidia[5].
En avril 2026, Google lance deux nouveaux processeurs Tensor Processing Unit (TPU) de la famille Tensor (spécialement conçus pour le calcul tensoriel et les besoins de l'« intelligence artificielle agentique » de l'IA)
- la TPU 8t (dédiée à l'entraînement de l'IA), qui offre une puissance nettement accrue et une meilleure efficacité énergétique, permettant de réduire le temps de formation des modèles de pointe (mais inévitablement avec un effet rebond) ;
- la TPU 8i (optimisé pour l'inférence), qui améliore la rapidité d'exécution des agents spécialisés grâce à davantage de mémoire embarquée et à une architecture ARM entièrement intégrée. Ces deux processeurs visent à doper les performances de l'IA par watt consommé, et à optimiser les centres de données, tout en restant compatible avec les principaux frameworks utilisés par les développeurs »[6].