L'utilisation d'unités de traitement graphique (GPU) revêt une importance particulière pour le domaine de l'apprentissage profond. La raison est liée à la manière dont les systèmes d’apprentissage profond sont mis en place et à ce qu’ils sont censés faire.
Les experts définissent le deep learning comme un type d’apprentissage automatique dans lequel les algorithmes utilisent plusieurs couches pour une analyse progressive des données.
Certains citent des exemples particuliers, tels que les réseaux neuronaux convolutifs (CNN) avec leurs différentes couches impliquant un pooling maximum, un filtrage, un remplissage, une foulée et d'autres tâches.
Dans un sens plus large, des éléments tels que le traitement d'images et le traitement du langage naturel reposent sur des procédures multi-étapes et multi-algorithmes, dont beaucoup ressemblent aux réseaux neuronaux que les professionnels de l'apprentissage automatique apprennent à identifier et à analyser.
Comme nous l'avons noté dans un article précédent, les GPU sont généralement appréciés dans l'apprentissage automatique, en raison de leur capacité de traitement parallèle. À mesure que l'apprentissage automatique progressait, le monde du matériel passait également de l'idée d'un cœur de processeur individuel puissant à plusieurs unités avec traitement parallèle, capables de gérer plus efficacement et rapidement de grandes quantités de travail de calcul.
Avec des systèmes d'apprentissage profond intégrant des modèles génératifs de niveau supérieur tels que les réseaux de croyances profondes, les machines Boltzmann et les systèmes d'état d'écho, il existe un besoin spécifique de traitement parallèle et de conception de base spécialisée. On pourrait dire que l’utilisation de GPU est quelque peu similaire à l’utilisation de machines RISC avancées dans certains autres types de traitement – que la personnalisation des puces pour un usage particulier est tout à fait logique.
En plus de l’utilité des GPU pour l’apprentissage profond, ces mêmes types de processeurs deviennent également populaires dans le cadre d’un changement fondamental dans la structure informatique connu sous le nom d’informatique quantique.
Là encore, c'est la complexité et l'ordonnancement de plus haut niveau de la puissance de calcul qui nécessitent une capacité de traitement parallèle. En informatique quantique, les bits traditionnels sont remplacés par des qubits, qui peuvent avoir une valeur de 1, 0 ou une combinaison non spécifiée. Cette sorte de « morceau de Schroedinger » constitue la base d'un modèle informatique capable de bouleverser le monde de l'informatique.
Pour ceux qui s’intéressent aux technologies émergentes, il sera essentiel d’observer l’utilisation des GPU et de leurs successeurs dans des systèmes tels que les réseaux d’apprentissage profond et les configurations d’informatique quantique. De nombreux experts diraient que ces deux projets en sont à leurs balbutiements et qu’ils mûriront et donneront des résultats dans les années à venir.