Dell développe une technologie pour les ordinateurs quantiques afin de s’interfacer avec les systèmes conventionnels

Dell crée des blocs de construction pour assimiler les ordinateurs quantiques aux infrastructures informatiques conventionnelles en ouvrant les centres de données à de nouveaux types d’ordinateurs accélérés.

Le fabricant de serveurs a créé un modèle pour l’infrastructure de serveurs conventionnels afin de répondre aux besoins uniques des systèmes quantiques, qui sont considérés comme plus rapides et résolvent les problèmes différemment.

Le modèle informatique hybride classique-quantique implique une hiérarchie ordonnée avec des serveurs conventionnels agissant en tant qu’hôtes et gestionnaires d’ordinateurs quantiques connectés, qui effectuent le calcul différemment.

Le plan comprend également une couche informatique conventionnelle afin que les résultats pertinents des calculs quantiques – qui ne sont pas des réponses directes – puissent être renvoyés aux utilisateurs au sein d’une infrastructure informatique.

« Nous voyons déjà des domaines où nous pouvons optimiser et renforcer l’interaction intelligente entre l’infrastructure classique et l’infrastructure quantique pour faire des choses que nous n’avons pas encore envisagées », déclare Ken Durazzo, vice-président de la recherche chez Dell. HPCwire.

Le modèle d’informatique hybride, qui comprend du matériel et des logiciels, est construit autour des serveurs PowerEdge et des technologies d’informatique quantique d’IonQ. Les entreprises ont annoncé un système hybride, Dell Quantum Computing Solution, basé sur la conception de la conférence SC22. Le système sera disponible aux États-Unis et au Canada.

Les ordinateurs quantiques sont largement considérés comme un moyen de faire progresser l’informatique au-delà des PC et des serveurs d’aujourd’hui. Les ordinateurs quantiques effectuent plus de calculs en parallèle, offrant une augmentation significative de la puissance de traitement par rapport aux serveurs conventionnels.

“Comme nous l’avons vu dans ce voyage avec le quantique, nous avons réalisé que ce n’est pas l’informatique quantique comme avenir, c’est le classique et le quantique qui travaillent ensemble”, a déclaré Durazzo.

Durazzo a déclaré que les GPU haut de gamme sont taxés par des applications telles que la dynamique des fluides computationnelle et la chimie. Le modèle hybride de Dell implique l’exécution d’applications sur une infrastructure classique et les algorithmes de ces applications accélérés par l’informatique quantique.

“Nous avons identifié très tôt … qu’il existe des rôles clairs pour l’infrastructure classique, puis pour l’infrastructure quantique”, a déclaré Durazzo.

Le modèle hybride de Dell prend en compte les vastes quantités de données que les ordinateurs quantiques, qui exécutent des calculs à une vitesse vertigineuse, prennent en compte. L’infrastructure conventionnelle crée les conditions pour les calculs quantiques avant que les données ne soient transmises aux processeurs quantiques, qui ont leurs propres particularités dans la façon dont ils calculent et transmettent les résultats.

Par exemple, les systèmes conventionnels produisent des réponses résultant de calculs sur des circuits tels que les CPU et les GPU. En comparaison, les ordinateurs quantiques ne fournissent pas de réponses, mais fournissent plutôt des résultats probabilistes. Ceux-ci peuvent être n’importe quel nombre de résultats, livrés à un certain niveau d’ordre de classement de la pile.

“Une fois l’algorithme envoyé au QPU [quantum processing unit], le QPU renvoie les résultats du calcul. Ils n’envoient pas de réponse, ils renvoient des résultats de calcul. Ces résultats seront réinjectés dans le système classique et générés dans un résultat que l’utilisateur final pourra réellement voir venir de l’application », a déclaré Durazzo.

La base du modèle hybride est une configuration de serveur, de réseau et d’autres composants, où le programme s’exécute réellement et initie le transfert de données à grande vitesse dans les systèmes quantiques. Les données doivent passer par un processeur hôte intermédiaire, qui est davantage une couche d’instructions permettant aux systèmes conventionnels de s’interfacer avec les systèmes quantiques.

“Ce que le processeur hôte fait réellement dans ce cas, c’est prendre ce circuit, le compiler dans QASM, ou le langage d’assemblage quantique, puis le prendre pour programmer le QPU. Ce processeur hôte est une étape intermédiaire pour programmer le QPU et fournir le algorithme pour que le QPU s’exerce réellement », a déclaré Durazzo.

Au fil du temps, le processeur hôte pourra effectuer “des opérations de planification très intelligentes”, a déclaré Durazzo.

Par exemple, au lieu d’envoyer une tâche informatique quantique entière à un processeur quantique physique, le processeur hôte peut décomposer une tâche quantique et bifurquer son exécution entre un matériel quantique physique et un logiciel basé sur un simulateur quantique sur GPU.

“Nous verrons plus de modèles d’interactions entre les simulations classiques et les systèmes quantiques physiques réels, où l’orchestration intelligente et la capacité de comprendre où ces fonctions ou opérations spécifiques fonctionneront le mieux seront plus critiques”, a déclaré Durazzo, ajoutant “Nous sommes bien positionnés pour ce monde tel qu’il émerge.”

Un système classique essaierait d’interpréter une sortie quantique complexe et de formuler une réponse concrète à partir d’une application pour les utilisateurs finaux. Un système classique peut être équipé d’accélérateurs tels que des GPU, qui peuvent utiliser des techniques d’IA pour analyser la sortie quantique afin de générer des réponses pertinentes. Le modèle hybride utilise des piles logicielles standard qui incluent Kubernetes pour l’orchestration et QISKIT pour les applications quantiques.

“Nous l’avons également conçu pour permettre à un développeur d’applications d’écrire l’application ou l’algorithme une fois, puis de l’exécuter partout où il en a besoin”, comme dans un circuit quantique physique ou un émulateur quantique sur un GPU, explique Durazzo.

L’accès aux ordinateurs quantiques est déjà disponible via les clouds d’Amazon et de Google. Dell espère que son offre de services gérés permettra aux entreprises de passer plus facilement aux systèmes quantiques, ce qui peut être une tâche ardue.

La collaboration de Dell avec IonQ n’est que le début de son parcours dans son ensemble, et d’autres partenariats avec des fournisseurs d’ordinateurs quantiques pourraient être mis en place, a déclaré Durazzo.

Chaque fournisseur d’ordinateurs quantiques propose son propre type de qubit, et les clients sont impatients d’essayer différents systèmes pour trouver le matériel adapté à leur infrastructure. IonQ propose un qubit à ions piégés, Google et IBM travaillent sur des qubits supraconducteurs, et D-Wave propose un système de recuit quantique pour les tâches d’optimisation.

“Dans ce cas, nous vendons avec IonQ, mais nous pouvons facilement ajouter un support … [from] plusieurs fournisseurs pour permettre la protection des investissements ainsi que pour permettre l’expérimentation de ces différents systèmes quantiques, car ils se comportent tous très différemment », a déclaré Durazzo.

Leave a Reply

Your email address will not be published. Required fields are marked *