Nvidia accélère les prédictions d’apprentissage machine avec TensorRT

Selon Nvidia, la délivrance de prédictions à partir d’un GPU est également plus efficace qu’un CPU en terme de dépense énergétique et la latence dans les résultats est plus faible.

Plusieurs cartes Tesla P40 de Nvidia dans un chassis serveur 1U dédié au calcul intensif. (Crédit D.R.)Plusieurs cartes Tesla P40 de Nvidia dans un chassis serveur 1U dédié au calcul intensif. (Crédit D.R.)

Nvidia a livré une nouvelle version de TensorRT, un runtime spécialisé dans la livraison d’inférences utilisant des modèles deep learning via ses propres GPU. Les inférences ou les prédictions réalisées à partir d’un modèle peuvent être délivrées soit via le CPU soit via le GPU. Nvidia a bien sur fait le choix de gérer la livraison des inférences via le circuit graphique, espérant ainsi stimuler l’adoption de ses processeurs. Le fondeur veut aussi contrer la…

Il vous reste 71% de l’article à lire
Vous devez posséder un compte pour poursuivre la lecture

Vous avez déjà un compte?

Newsletter

Recevez notre newsletter comme plus de 50 000 professionnels de l’IT!

Je m’abonne

Go to Source