La technologie permet aujourd’hui de virtualiser totalement les stations de travail. C’est-à-dire externaliser logiciels, données et calculs, et se contenter d’un terminal, quel qu’il soit, pour lancer ses applications les plus exigeantes graphiquement…
Le terme de virtualisation est souvent associé aux problématiques de stockage de données ou d’externalisation des logiciels de bureautique sur des serveurs distants. Mais cette technologie s’adresse aussi aux stations de travail utilisées par les ingénieurs, les graphistes, les designers qui recherchent des performances optimales en termes de calcul numérique et d’affichage.
La virtualisation consiste à déporter dans un serveur ou un data center vos logiciels, vos données et les calculs numériques normalement confiés à votre propre ordinateur. Dans le cas des stations de travail, les applicatifs métiers sont très gourmands en ressources graphiques. Depuis 2012, Nvidia a développé l’architecture Keppler capable de virtualiser le calcul graphique sur des GPU distants. Ce qui permet d’exploiter en temps réel des logiciels comme NX, Solidworks, 3DSMax ou Rhino sur un terminal léger, voire une tablette numérique.
Dell s’est particulièrement investi dans ce domaine. Il a récemment ouvert au Texas un centre d’excellence sur la virtualisation des stations de travail pour tester ses solutions en situation opérationnelle. Il organisait il y a quelques jours une rencontre avec son partenaire Nvidia et des utilisateurs de station de travail pour présenter sa technologie.
Virtualiser, ou délocaliser ses problèmes ? (prtx810_prt7910_prt1700_prr7910_prmx800_family)
Première explication de Cédric de Bossoreille, responsable du développement Workstation chez Dell, « la virtualisation ne tend pas à remplacer les stations de travail que vous utilisez aujourd’hui. Elle la complète et répond à de nouvelles attentes des professionnels : mobilité, puissance à la demande, externalisation de l’infrastructure informatique et sécurité notamment ».
La technologie de virtualisation présente en effet de nombreux atouts. Commençons par les plus prosaïques. Déporter la puissance de calcul signifie pour l’utilisateur une diminution de sa consommation électrique, du bruit des machines, de la chaleur dégagée, et du risque de plantage découvert le lendemain d’un calcul lancé la veille au soir… Sébastien Jupille, designer freelance : « rajoutons un point de détail qui peut avoir son importance. Avec une station virtualisée, toutes vos données sont dans le data center, ainsi que les clés de sécurité des licences logicielles. En cas de vol de votre machine, vous ne risquez pas de perdre vos données ».
La sécurité des données, voilà un véritable sujet d’inquiétude pour les professionnels lorsqu’on leur présente le Cloud, les data Centers et la virtualisation. Pourtant, selon Dell, c’est justement un avantage propre à la virtualisation. La centralisation de vos fichiers dans un système adapté et administré par un support rigoureux garantit sans doute une sécurité supérieure aux situations très courantes dans les entreprises, et ceci quelle que soit leur taille : travail dans les transports en commun, clé USB baladeuse, utilisation de sa station de travail au domicile ou, en sens contraire, de son matériel personnel au bureau, vol de matériel, piratage de votre machine peu protégée, etc. Stéphane Quentin, responsable communication chez Nvidia France rajoute « en mode virtualisé, les données ne circulent pas entre votre PC et la machine. C’est un flux vidéo encodé des calculs assurés par la machine virtuelle qui transite par le réseau. Il n’y a donc aucun risque supplémentaire de perte ou de piratage de vos données. »
Faire tourner Catia sur son smartphone…
Passons maintenant aux avantages opérationnels de la virtualisation d’une station de travail. La solution est aujourd’hui disponible pour une large variété de logiciels d’ingénierie, de traitement d’image ou d’animation. Dell, Nvidia et les autres fournisseurs de ce type d’architecture travaillent avec Dassault Systèmes, Autodesk, PTC, Siemens… pour optimiser les couples machines/logiciels. Une partie importante de leurs logiciels est d’ailleurs certifiée ISV en mode desktop et en mode virtualisé. Evidemment, ces outils métiers exigent de la puissance graphique. La virtualisation est une réponse directe à ce besoin. On peut à partir d’une station de travail standard, d’un PC portable, voire d’une tablette numérique lancer des applications en mode virtualisé qui ne pourraient tout simplement pas fonctionner en mode local, car les ressources de calcul seraient insuffisantes. D’une part, on accède à de nouveaux outils sans devoir acheter une station coûteuse, d’autre part on diminue drastiquement les temps de calcul, enfin on y accède partout où il est possible d’avoir une connexion web. Sébastien Jupille, qui réalisait une démonstration de station de travail virtualisée pendant cette rencontre Dell Nvidia expliquait « cette technologie peut changer radicalement nos habitudes de travail. Jusqu’à maintenant, si un client me demandait d’apporter des modifications sur une scène de rendu en ray tracing, il me fallait minimum une journée de calcul pour obtenir le résultat. Désormais, la même intervention peut être effectuée sur une tablette Surface Pro chez le client en 15 mn ! » (OXO_Precision_Day_in_Life_Day2_00710_prt5810)
On peut rajouter que la virtualisation garantit un environnement de travail homogène pour tous les bénéficiaires, version logicielle, puissance de calcul et données, indépendamment de la qualité d’accès au réseau. Enfin, le « licensing » traditionnel laisse la place à un mode de commercialisation plus souple de souscription mensuelle, trimestrielle ou annuelle. D’ailleurs, Dell travaille avec les éditeurs pour proposer dans le futur des stations de travail virtualisées « as a service ». Une solution qui permettrait de disposer d’un surcroît de puissance à la demande, en fonction de ses besoins.
Virtualisation : architecture de demain ?
La technologie est récente et demande donc à s’affirmer sur certains points. En premier, il faut identifier les logiciels et leur capacité à tirer le meilleur partie des CPU et GPU virtualisés. Les clients devront s’appuyer sur leurs fournisseurs comme Dell pour dimensionner la solution virtuelle adaptée à leurs justes besoins. En second, il faut s’assurer de la qualité d’accès au réseau. Si vous êtes designer, que vous exploitez une tablette graphique et une machine virtualisée, un léger décalage entre votre coup de crayon numérique et l’affichage sur votre écran est inenvisageable. Enfin, le coût d’accès au service virtuel reste complexe à évaluer puisqu’il dépend directement de votre usage et de son évolution au cours de vos projets. La politique des éditeurs vis-à-vis du prix à l’heure d’utilisation des CPU, du nombre de runs lancés et de GPU utilisés pour un calcul est en effet obscure. Certains se dirigent vers un forfait à « l’heure consommée », selon une configuration type, mais rien n’est fixé ni généralisé.
Enfin, si la technologie est disponible, qu’elle colle parfaitement aux tendances, elle doit encore convaincre. Les vieilles habitudes ont la vie dure… Pourtant, Dell en est convaincu, « si la virtualisation des stations de travail est encore peu utilisée aujourd’hui, elle sera bientôt l’architecture de référence » affirme Cédric de Bossoreille.
cad184_pp30-31_solution-dell