gM
Retour / Back
Autonomic Computing



This page is written in French; if you're interested in it and wish my translating into English, do ask me!

Cette page introductrice est en cours de rédaction ; la rédaction en est retouchée et complétée jour après jour ; cette note disparaîtra lorsque je serai satisfait !



-> Les projets secrets d'IBM
-> L'appel d'IBM au monde de la recherche
-> Ce qu'un ordinateur doit acquérir pour devenir autonome
-> Six programmes clés pour relever le défi
-> Le PC est-il prêt pour l'Autonomic Computing ?



  Les projets secrets d'IBM   (http://www.research.ibm.com) :
(inspiré de SVM n°201 Février 2002 p.53 par Delphine Sabatier, Béatrice Perret du Cray, Stanislas Odinot et Patrick Zémour)
1981 IBM dévoile le premier Personal Computer - Pour la première fois dans l'histoire de l'informatique, un micro-ordinateur s'impose comme un standard de l'industrie.
2000 IBM, dans une conférence de presse, annonce la mort du PC - Le constructeur ne croit plus en la machine seule, mais en la croissance des réseaux informatiques.
2002 Premiers pas dans l'ère de l'Autonomic Computing - L'informatique est considérée comme un système global, dont la complexité doit être masquée par des progrès en terme d'autonomisation des tâches.
Un manifeste d'un trentaine de pages a été rédigé par Paul Horn, directeur de la division Recherche d'IBM monde, et envoyé à 75 000 chercheurs, scientifiques et ingénieurs du monde entier.
IBM a décidé la réorganisation de toute sa division Recherche (huit laboratoires, 3000 employés), avec une dotation de 2 milliards de dollars par an sur 3 à 5 ans, autour du nouveau défi technologique : l'Autonomic Computing (AC - le programme de recherche le plus ambitieux jamais entrepris). L'idée maîtresse est que ce n'est pas l'homme qui doit apprendre à s'adapter aux machines pour les utiliser, mais bien celles-ci qui doivent évoluer pour s'adapter aux futurs enjeux économiques et industriels du secteur. L'homme n'est pas né pour passer son temps à configurer, administrer, débogguer, surveiller, assurer la maintenance des systèmes informatiques. Aux machines et aux réseaux de prendre en charge la complexité qui a émergé à mesure de leur développement technique et de leurs conditions d'appropriation par les entreprises et plus largement par le grand public. Ils devront donc être autonomes et apprendre à se passer au mieux de l'homme.
L'obstacle au progrès, c'est la complexité. Et "au rythme (technologique, économique, éducatif) où vont les choses, il n'y aura jamais assez de personnes pour configurer et maintenir le fonctionnement opératoire de nos futurs réseaux informatiques", expose Eric Auvray, responsable de la division Serveurs et stockage chez IBM.

Top of page  
  L'appel d'IBM au monde de la recherche :
(une trentaine de pages rédigées par Paul Horn, directeur de la division Recherche d'IBM monde, envoyées à 75 000 chercheurs, scientifiques et ingénieurs du monde entier).
Pour se piloter, l'ordinateur doit se connaitre lui-même, c'est à dire disposer d'une représentation de ses ressources, de son état, de ses composants et de ses connexions et interactions avec les composants des autres systèmes qui l'environnent. De même, les machines doivent être capables de s'identifier comme telles pour se fédérer dynamiquement et en former de nouvelles. Un système doit pouvoir se reconfigurer automatiquement en réponse à des conditions d'utilisation imprévisibles. Il doit s'adapter à la demande, par exemple par duplication de logiciels et documents sur le réseau et par réallocation de ses ressources (mémoire, calcul, stockage, bande passante...). D'une façon plus générale, un tel système doit chercher automatiquement les moyens d'optimiser son fonctionnement.
Il doit aussi être capable de s'autoconserver, c'est à dire de maintenir son activité en surmontant les événements routiniers ou extraordinaires dus aux dysfonctionnements de ses composants. Cet "instinct de conservation" doit, de même, lui permettre de réagir à des attaques de toutes sortes (virus, hacking, piratage), en anticiper les menaces et en prenant les mesures adéquates.
Un système d'Autonomic Computing "connait" son environnement et le contexte environnant son activité, et agit en conséquence. Ce ne peut être une solution propriétaire : par définition, il fonctionne dans un monde hétérogène et adhère à des standards ouverts, par exemple, pour le partage, l'identification, la communication ou la négociation de ressources informatiques intra et intersystèmes. Enfin, il devra anticiper l'administration optimale des ressources nécessaires, tout en masquant aux utilisateurs la complexité de son fonctionnement.

Top of page  
  Ce qu'un ordinateur doit acquérir pour devenir autonome :
1 Apprendre à se connaître lui-même - Une parfaite connaissance de soi et de son environnement implique, pour un système informatique, que chacun de ses éléments indique son état et ses performances à un "organe" de supervision. L'humain, lui, se contentant d'un simple tableau de bord.
2 Détecter les pannes et les éviter - Si panne il y a, il faut qu'elle soit détectée. L'élément perturbateur doit alors être isolé, et ses tâches en cours déportées automatiquement vers un autre système. Mais l'idéal restera bien entendu toujours que le système puisse prévoir la panne.
3 Réparer les pannes et les erreurs commises - Puisque les pannes et les erreurs humaines ne pourront jamais être totalement évitées, des mécanismes de réparation sont essentiels et doivent être intégrés au système. Les ordinateurs aussi doivent avoir leur fonction annuler.
4 Garder la maîtrise des données - Si un ordinateur tombe en panne, ses disques durs ne seront plus accessibles. Les données doivent donc être conservées indépendamment des machines qui les traitent, et être partagées entre tous les systèmes.
5 S'optimiser, donc s'autoéduquer - L'ordinateur doit apprendre à optimiser de lui même le fonctionnement du système d'exploitation ou d'une base de données, à rechercher une meilleure voie de communication et, même, à tirer parti de ses propres erreurs.
6 Comprendre les intentions des humains - Autonomes ou pas, les machines travaillent quand même pour l'homme ! Elles doivent comprendre nos intentions, dénicher l'information où qu'elle se trouve et la présenter différemment selon l'appareil utilisé.

Top of page  
  Six programmes clés pour relever le défi :
-1-eLiza, ou l'informatique autogérée-. Lancé en avril 2001 chez IBM-Serveurs d'Entreprise, il s'agit de doter les ordinateurs serveurs d'IBM de fonctions d'autodiagnostic, de réparation, d'administration et d'optimisation automatique : Logiciels de supervision, duplication des matériels et données cruciales (technologie Raid de stockage sur disques, technologie Chipkill de détection et réparation d'anomalies de la mémoire, ordinateurs eServer p690 dotés de milliers de capteurs couplés à un logiciel de supervision, grappes de serveurs avec équilibrage des ressources).
Déjà acquis : . Les logiciels de supervision de réseau connaissent l'état et les performances de chaque élément (serveur, baie de stockage, routeur, PC de l'utilisateur...).
. L'architecture Parallel Sysplex optimise les ressources d'une grappe d'ordinateurs, permettant même de transférer un programme d'un ordinateur à un autre.
. Intelligent Resource Director assure la répartition dynamique des processeurs, mémoires, voies de communication, etc., selon les besoins des programmes.
Pour : eLiza fédère les travaux de plusieurs labos d'IBM, ainsi que d'universités Américaines et Européennes. Le projet bénéficiera d'un investissement de plus d'un milliard de dollars dans les cinq ans qui viennent.
Contre : Beaucoup des technologies de détection et de réparation d'erreurs coûtent cher à mettre en oeuvre, et resteront encore longtemps réservées aux gros ordinateurs.
-2-Grid Computing, pour partager la puissance-. D'ici 2 ou 3 ans des labos vers l'entreprise, l'idée est de tranformer un ensemble de machines interconnectées, géographiquement dispersées, en un système informatique fonctionnant comme une seule machine virtuelle, aux performances démultipliées.
Déjà acquis : . Les Grid sont utilisés dans plus d'une vingtaine de projets scientifiques internationaux.
. Un système de calcul distribué "grand public", Seti@Home, fédère des millions d'internautes à la recherche d'une intelligence extraterrestre.
. La dernière version de la boîte à outils Globus, sortie en novembre 2001, est compatible avec les eServers d'IBM.
Pour : Le Grid Computing est tout désigné pour développer une expertise en matière d'auto-administration de réseaux.
Contre : Le modèle distribué s'applique avant tout aux grandes organisations. Les systèmes grand public de partage de fichiers (peer-to-peer Gnutella ou Freenet) sont souvent synonymes de piratage et n'ont pas très bonne presse dans l'industrie.
-3-Océano, le Web sans les ennuis-. Né à la mi-99, Océano s'adresse aux fournisseurs gérant des fermes de serveurs Web (Web farms) : communauté de ressources (bande passante, capacité serveur, stockage), répartition automatique de la charge selon les besoins de chaque site.
Déjà acquis : . Mutualiser les ressources diminue les coûts de revient de l'hébergeur, qui peut répercuter cette économie auprès de ses clients.
. Plusieurs grands constructeurs et sociétés de service gèrent déjà des fermes de serveurs Web.
Pour : Un site Web qui connait une popularité passagère garde des temps de réponse acceptables. Et cette montée en puissance ponctuelle n'implique pas l'achat de nouveaux matériels.
Contre : La confidentialité : en sous-traitant la gestion de son site Web à une société tierce, l'entreprise lui confie ses bases de données, informations stratégiques s'il en est.
-4-Storage Tank, un stockage autonome et infaillible-. Résultat de 3 années de développement dans les labos d'IBM, Storage Tank est un système de gestion et d'administration des SAN - Storage Area Network, dans lesquels un réseau d'entreprise supplémentaire relie les disques et les systèmes de sauvegarde (avec passerelle vers le réseau reliant les PC et les serveurs) ; mutualisation de l'espace disque, automatisation des sauvegardes.
Déjà acquis : . Le marché des SAN est en pleine croissance : HP, CompaQ, Network Appliance, EMC, Veritas sont également sur les rangs.
. L'automatisation des sauvegardes économise du temps machine, consacré à des tâches informatiques plus "nobles".
Pour : Contrairement à une architecture classique, où les données sont liées à un serveur, ces dernières restent accessibles même si l'ordinateur devient indisponible. Et les réseaux en fibre optique Fiber Channel sont réputés pour leur fiabibité.
Contre : Le gain financier, théorique, reste à démontrer. Et chaque constructeur propose pour l'instant une solution incompatible avec les équipements de ses concurents.
-5-Smart, des bases de données intelligentes- Dans son centre de recherches d'Almaden, au coeur de la Silicon Valley, IBM perfectionne son gestionnaire de bases de données DB2 : optimiseurs de requêtes...
Déjà acquis : . Les bases de données savent stocker des données informelles non structurées, comme des textes, des images, de la musique, des vidéos.
. Les optimiseurs de requêtes analysent la question et prennent des décisions pour sélectionner rapidement les fiches répondant aux critères demandés.
Pour : Les progrès réalisés dans l'optimisation des requêtes sont réguliers, et les améliorations du logiciel profitent tout autant aux énormes bases de données qu'à celles, plus modestes, gérées par de petits PC.
Contre : A l'heure actuelle, les requêtes "intelligentes" sur des données multimédias (musique, images, vidéos...) restent, pour l'essentiel, confinées au stade expérimental.
-6-Sabio, pour classer l'inclassable- Labos d'IBM, MicroSoft... à intégrer au logiciel Raven de Lotus : classement par catégories, recherche par catégorie, par mot-clé pour atteindre la pertinence de l'annuaire Yahoo!.
Déjà acquis : . Les portails d'entreprises tiennent déjà compte de documents de provenances diverses : textes Word, feuilles Excel, docs PDF, pages HTML...
. Les moteurs de recherche de l'Internet démontrent que l'analyse de documents non structurés (comme une page Web) produit des réponses souvent très pertinentes.
Pour : Ces logiciels permettent de localiser efficacement l'information et/ou celui qui la détient.
Contre : Pour que l'outil soit efficace, la mise en commun des documents implique leur décentralisation. Les utilisateurs ne doivent donc plus stocker des documents sur leur disque dur.

Top of page  
  Le PC est-il prêt pour l'Autonomic Computing ? :
Autodétection, autoréparation, configuration automatique... le PC cherche à nous faciliter la vie. Suffisamment pour tenir les promesses de l'Autonomic Computing ?
Tout ce qui rend déjà le PC intelligent -matériel-
Le processeur -Les processeurs du PC ont adopté depuis belle lurette des algorithmes de prédiction pour optimiser l'exécution des instructions. Sur les PC portables, le processeur étant l'un des éléments qui épuisent le plus les batteries, la gestion de l'énergie est devenue cruciale. Des dispositifs (Powernow!, Speed Step) adaptent donc la consommation électrique du processeur ainsi que sa température en modifiant la fréquence ou la tension de la puce.
La mémoire -Quand elles embarquent une petite puce supplémentaire (appelée ECC), les barettes de mémoire ont la faculté de contrôler toutes les données entrant et sortant. Bien que la probabilité pour qu'une donnée soit fausse reste très faible, le composant ECC saura retrouver la bonne valeur d'une (mais d'une seule) cellule mémoire corrompue.
L'alimentation -L'alimentation ne se cantonne plus à délivrer de l'électricité. Elle communique notamment avec la carte mère et, depuis la norme ATX 2.01, elle peut être surveillée (tension, ventilation...) par le Bios.
Le graveur -Equipés des technologies Burn Proof et autres Just Link, nos graveurs savent, en observant l'état de leur mémoire tampon, éviter le ratage d'une gravure. Si le niveau des données stockées devient faible, le graveur éteint le laser, attend que sa mémoire soit de nouveau pleine, puis reprend la gravure là où elle s'était interrompue.
Le jeu de composants -Compagnon du processeur, le jeu de composants (Chipset) gère pratiquement tous les éléments placés sur la carte mère. Pour gagner du temps, certains embarquent une mémoire tampon, d'autres jouent sur les signaux électriques en les inversant. Des technologies comme l'Hypertransport des chipsets nVidia nForce réduisent le nombre de bus et augmentent la rapidité des débits.
L'interface EIDE -Sur les PC et les périphériques de stockage (disques, CD, DVD...), cette interface offre des mécanismes de surveillance et de récupération des données. La technologie Smart effectue ainsi des prédictions sur d'éventuelles pertes d'informations. Sur les PC serveurs, des technos comme le Raid dupliquent aussi les données et reconstituent tous les fichiers d'un disque tombé en panne. Bientôt, l'interface Serial ATA apportera la connexion et l'autoconfiguration, sans avoir à éteindre le PC.
Le Bios -Il n'est pas si loin le temps où l'on devait bricoler pour installer un processeur ou un disque dur. Dorénavant, dans ce petit composant, le logiciel Bios s'occupe de tout : détection de la mémoire et du processeur (fréquence, vitesse de bus, voltage, température), gestion des disques, des cartes d'extension, de l'économie d'énergie, etc. Relié à des capteurs, il sait même déclencher des alarmes si la température des composants augmente trop.
Les prises USB -Premier représentant du Plug & Play, ("on branche et çà marche"), le connecteur USB a ouvert la voie aux périphériques autoconfigurables et dont la présence est décelée sitôt qu'on les branche au PC. Comme dans le cas de la prise Firewire, l'appareil est opérationnel sans avoir à redémarrer. Et çà, c'est une sacré avancée !
A vrai dire, côté hard, c'est moins le PC en tant que poste de travail qu'en tant que serveur que l'industrie cherche à améliorer. Les prochaines évolutions seront les liaisons haute vitesse avec les périphériques et le réseau (ATA, 800 Mbps, devrait laisser la place au Serial ATA, 1,5 Gbps ; PCI devrait laisser la place au 3GIO ; etc.).
Tout ce qui rend déjà le PC intelligent -logiciel-
XP : "Multitâche préemptif" (Win98 est en "multitâche coopératif") ; séparation des zones mémoires allouées aux programmes ; empêchement du remplacement des fichiers système ; outils d'analyse, d'optimisation et de réparation automatique des disques ; reconnaissance automatique du matériel ; Windows Update ; Driver Update ; uPnP = Universal Plug'n'PLay ; sans fil ; reconnaissance d'écriture manuscrite ; reconnaissance vocale ; etc.
Retour / Back   Top of page