version francaise english version

Le calcul distribué sur Internet







Quelques dates clefs

1996/10/13 - GIMPS - 21398269-1 est premier
1997/01/28 - RC5-48 cassé par une équipe restreinte
1997/06/16 - DES cassé par Deschall - C'est la première preuve que le calcul distribué sur Internet est viable.
1997/08/24 - GIMPS - 22976221-1 est premier
1997/10/19 - RC5-56 cassé par Bovine - C'est la confirmation de l'intérêt du calcul distribué sur Internet
1998/01/27 - GIMPS - 23021377-1 est premier
1999/06/01 - GIMPS - 26972593-1 est premier
2002/07/14 - RC5-64 cassé par Distributed.Net
demain - Jusqu'où irez vous !!!

 

Sommaire

  1. Généralités
    1. Introduction
    2. Comment ça marche ?
    3. Le futur
    4. Une classification des projets
  2. Les projets
    1. DES (RSA)
    2. DES II (RSA)
    3. RC5 (RSA)
    4. CSC (C & S)
    5. GIMPS
    6. Factorisation des nombres de Fermat
    7. Recherche des règles de Gollomb optimales
    8. Factorisation des nombres composites
    9. SETI
    10. ClimatePrediction
    11. Autres projets
  3. Loadwatcher
  4. Autres sites sur le calcul distribué

1. Généralités

1.1. Introduction

La dernière fois que vous avez jeté un oeil à la charge CPU de votre ordinateur qu'avez vous vu ? 30% ? 20% ? Non. Ca devait plutôt se rapprocher de 0%. Bien sûr il y a des pics de temps en temps, quand vous visionnez un fichier vidéo, pendant une compilation, quand une page html est trop chargée en gif animées...

Si j'en crois mon expérience la charge moyenne d'un ordinateur personnel est inférieure à 10% (à moins que vous ne participiez déjà à l'un des projets ci-dessous). Que de cycles CPU perdus ! Multipliez par le nombre d'ordinateurs sur Internet et vous aurez une idée de la puissance CPU inutilisée. Lorsque Bovine a cassé RC5-56 la puissance mobilisée était équivalente à celle de 38000 Pentium 200. Cela peut paraître énorme, c'est énorme, mais ce n'est finalement qu'une infime fraction des quelques millions d'ordinateurs connectés à Internet.

L'objectif des projets décrits sur cette page est de mettre à profit cette puissance CPU inutilisée. Les plus avancés dans ce domaine sont ceux qui participent aux défis cryptographiques lancés par RSA: RC5 et DES. Mais ils ne sont pas les seuls et plusieurs projets scientifiques pourraient aussi en profiter.
Comme aussi bien la taille de l'Internet que la puissance des processeurs croissent de façon exponentielle on tient peut-être enfin une solution pour tous les problèmes NP :-).

1.2. Comment ça marche ?

Le principe de base consiste à découper le problème initial en une miriade de sous-problèmes indépendants. Par exemple pour les projets relatifs au décryptage l'algorithme de base consiste à tester toutes les clefs possibles, une par une. Chaque clef peut être testée indépendemment des autres. Si on disposait de deux ordinateurs, sur l'un on testerait les clefs paires (une clef peut être assimilée à un nombre) et sur l'autre les clefs impaires. Cela divise le temps nécessaire pour tester toutes les clefs par deux.

Pour étendre ça à l'échelle d'Internet on construit un système client/serveur et on procède de façon similaire. Prenons l'exemple de DES. Il y a 256 clefs à tester. On commence par en faire des petits paquets, par exemple 228 paquets, aka blocs, de 228 clefs chacun. Ensuite, sur une machine connectée à Internet en permanence, on installe un logiciel qui va distribuer ces blocs de clefs à la demande, c'est le "serveur". Chaque participant utilise ensuite un logiciel dit "client" qui va contacter le serveur, demander un paquet de clefs et commencer à tester toutes les clefs contenues dans ce paquet. Une fois toutes les clefs testées, il va recontacter le serveur pour lui indiquer le résultat de sa recherche: "j'ai trouvé la clef solution" ou "j'ai rien trouvé". La plupart du temps, toutes les clefs étaient mauvaises et il ne lui reste plus qu'à demander un autre paquet de clefs à tester. Le serveur se charge de garder la trace des paquets de clefs déjà testés et garde un ensemble d'informations qui permettent d'établir des statistiques indiquant qui a testé le plus de clefs, qui est le plus rapide, combien d'utilisateurs participent...

Mais lorsque ce logiciel teste toutes les clefs la machine doit être inutilisable !

Non. Cela grâce au multitâche préemptif que tous les OS modernes supportent. Cela inclut Unix et donc bien sûr Linux et FreeBSD, Windows NT, OS/2 et même Windows 95. Le logiciel client va démarrer avec une priorité très faible et ne sera donc exécuté que si aucune autre application n'a de travail à faire. Et c'est souvent le cas. Les applications passent leur temps à attendre soit une entrée au clavier soit que les données arrivent du disque dur. Pendant ces attentes habituellement le processeur se tourne les pouces.

Il n'est pas nécéssaire de se connecter à Internet très longtemps ni très fréquemment. La quantité de données à transférer varie suivant le projet mais les logiciels clients vous permettent généralement de télécharger du travail pour plusieurs jours voire plus d'une semaine.

Il reste l'aspect mémoire. Les logiciels de décryptage utilisent très peu de mémoire et n'auront donc aucune incidence de ce coté. Les autres projets utilisent généralement plus de mémoire et il peut être préférable de les réserver aux machines les plus puissantes ou bien de les faire tourner lorsque l'ordinateur n'est pas utilisé, sous forme d'économiseur d'écran par exemple.

1.3. Le futur

Cosm ?

Ce qui est dommage c'est que jusqu'à présent chaque projet a recréé son propre mécanisme client/serveur alors que celui-ci est dans une très grande part indépendant des calculs effectués. A quand un squelette disponible gratuitement pour développer des projets de calcul distribué ?

Distributed.net disait développer un tel système à l'abri des curieux sous le nom de 'v3' mais après plus d'un an rien n'en est sorti. Puis en avril 1999 Adam L. Beberg a quitté Distributed.net pour lancer Cosm, c'est à dire 'v3'. Le développement semble à présent se faire de façon ouverte: le code est accessible via CVS anonyme.

Cosm représente un progrès considérable. Le but est de créer une architecture générale qui puisse être réutilisée par tous types de projets distribués. Cosm permettrait aussi de passer d'un projet à un autre sans avoir à aller sur chacune des machines pour installer et configurer manuellement un nouveau client. L'idée est que des chercheurs, des entreprises pourront utiliser Cosm pour écrire de nouveaux modules effectuant de l'analyse cryptographique, du raytracing, des calculs mathématiques ou bien physiques complexes sur une partie des données. Ils installeraient ensuite ce module ainsi que les données à traiter sur un serveur Cosm et leur travail s'arrêterait là. Le travail de ceux qui font tourner un client Cosm est de l'installer une et une seule fois sur toutes les machines. Lors de l'installation ils indiqueraient l'adresse d'un serveur auquel ils font confiance (leur propre serveur 'proxy' par exemple), et le client téléchargerait alors les modules Cosm authentifiés par ce serveur. Ainsi nul besoin de passer sur toutes les machines pour installer un nouveau client chaque fois que l'on change de projet.

Une entreprise pourrait ainsi installer Cosm sur toutes ses machines puis en revendre la puissance CPU à des laboratoires de recherche ou bien d'autres entreprises. Lorsqu'un contrat est signé il leur suffirait d'installer le nouveau module sur leur serveur Cosm interne. Ce module serait ensuite automatiquement distribué sur l'ensemble des machines et commencerait le travail immédiatement.

Pour en savoir plus:

1.4. Une classification des projets

On peut classer les projets distributés de plusieurs façons.

Tout d'abord en fonction de la quantité de données à échanger entre le client et le serveur. De ce point de vue les projets cryptographiques sont ceux qui requièrent le moins de bande passante. Ensuite viennent des projets comme GIMPS et Seti@Home. Tout à l'autre bout de l'échelle on trouve des projets tels que le raytracing distribué ou bien de la mécanique des solides. Ces derniers verront peut-être prochainement le jour mais probablement plus à l'échelle d'un intranet que de l'internet.

On peut ensuite les catégoriser par domaine: projets de cryptographie, projets à thème mathématique, projets scientifiques ou bien projets "industriels" (raytracing de scènes pour un film, étude de structure). Les projets industriels n'ont pas encore vu le jour (les cluster d'ordinateurs du type de ceux utilisés pour "Titanic" ne compte pas car ce sont des machines dédiées).

Finalement on peut établir trois catégories intrinsèques en fonction de la quantité de travail à effectuer. Pour les projets de cryptographie la quantité de travail à effectuer est importante mais finie. Une fois la clef trouvée il n'y a plus rien à faire (même s'il y a généralement un autre projet qui a démarré). Pour les projets de maths tels que GIMPS et la recherche des règles de Gollomb la tâche à accomplir est infinie. On peut toujours trouver un nombre premier plus grand ou trouver des règles de Gollomb optimales plus longues (encore qu'on ne sait pas s'il y a un nombre infinie de nombres de Mersenne qui soient premiers). Dans la troisième catégorie on trouve les projets du type de Seti@home. La quantité de travail est là aussi infinie. Tant que de nouvelles mesures sont faites il faut les analyser. Par contre il n'y a qu'une quantité finie de travail à effectuer chaque jour. De ce point de vue Seti@home est complètement différent des autres projets car il n'a besoin que d'un nombre limité de participants et ne peuvent pas tirer parti d'un nombre de participants plus élevé.

2. Les projets

Cette liste de projets n'est pas exhaustive. Je compte sur vous pour m'informer par e-mail de tout projet dont l'existence m'aurait échappée.

2.1. DES (RSA, Juin 1997)

SolNet
Deschall

Résultat d'un défi cryptographique lancé par RSA, c'est l'un des tous premiers grands projets de calcul distribué. DES est un algorithme de chiffrement utilisant une clef de 56 bits. Il a été créé par le gouvernement américain et celui-ci tente de l'imposer comme standard, notamment pour les échanges commerciaux.

Le problème est que cet algorithme est relativement facile à casser ce que RSA a voulu prouver en lançant ce défi. Ils ont chiffré un texte avec DES et ont offert 10000$ à qui pourrait fournir le texte décrypté et la clef. DES a été cassé par l'équipe Deschall à la mi-juin 1997 au bout de 96 jours.

Liens:

2.2. DES II (RSA)

Distributed.net - Projet Monarch
RSA - DES II Challenge
DES Cracker

Ce nouveau défi lancé par RSA porte de nouveau sur DES mais introduit un nouveau raffinement: le temps. Un nouveau défi est lancé tous les six mois mais désormais pour gagner le prix il faut trouver la clef en un quart du temps du défi précédent ! En fait on peut aussi gagner une fraction du prix selon le dépassement.

Lors de la première occurence de ce défi en juillet 1998 une machine dédiée contruite par EFF a battu Distributed.net en trouvant la clef en moins de trois jours. Lors de l'occurence suivante, en janvier 1999, l'EFF et Distributed.net ont coopéré et la clef a été trouvée par Deep Crack (EFF) au bout d'à peine plus de 22 heures.

Ce résultat est à comparer à celui du premier défi DES résolu en juin 1997 après 96 jours. On constate une accélération d'un facteur de plus de 100 en moins de deux ans !

2.3. RC5 (RSA)

RC5 Bovine Cracking Effort

RC5 est un autre algorithme de chiffrement proposé par RSA qui a l'avantage d'être paramétrisé. Il est notamment possible d'augmenter la taille de la clef pour améliorer la sécurité. RSA a lancé 12 défis similaires à DES. Ils consistent à décrypter des messages chiffrés avec des clefs de 40 à 128 bits. Les clefs de 40 et 48 bits ont été trouvées en 3,5 et 313 heures respectivement.

RC5-56, qui est l'équivalent de DES pour la taille de la clef, a été cassé le 19/10/1997 après 250 jours de travail. Distributed.net travaille à présent sur RC5-64.

Pour en savoir plus:

2.4. CSC

Distributed.net: Project CSC

CS-Cipher est un nouveau projet de crackage de clef. Ce défit a été lancé par Communications and Systems et a été relevé par l'équipe de Distributed.net. Après 'quelques semaines' de développement (plus de trente en fait) le projet est entré dans une phase de beta et a finalement démarré le 17 novembre 1999.

CS-Cipher est un algorithme de cryptage symétrique développé en Europe qui supporte des clefs comportant de 0 (sic) à 128 bits (à mon avis une clef de 0 bits c'est pas très sûr). Le défit actuel est basé sur une clef de 56 bits qu'il faudra retrouver d'ici le 17 mars 2000. J'allais oublier, il y a un prix de 10000 euros... à la clef!

Pour en savoir plus:

2.5. GIMPS

Great Internet Mersenne Prime Search

Les nombres de Mersenne sont de la forme 2p-1 i.e. (2^p-1). Pour qu'un nombre de Mersenne soit premier il est nécessaire que p soit premier. C'est une condition nécessaire mais pas suffisante, par exemple 211-1=2047=23*89. Par contre on sait vérifier de manière très efficace (vu la taille de ces nombres) si un nombre de Mersenne est un nombre premier ou non, ce qui explique pourquoi le plus grand nombre premier connu a souvent été un nombre de Mersenne. C'est d'ailleurs le cas actuellement. Les trois plus grand nombres premiers connus au monde ont été découverts par ce projet. Il s'agit de:

Ce projet comprend à présent une version client/server complètement automatisée du même type que Distributed.net. De plus EFF a mis en place des prix conséquents, 50 000$ et plus, pour le découvreur du premier nombre premier de plus de 10 millions de chiffres, de plus de 100 millions de chiffres...

J'ai développé un paquet Debian pour GIMPS. Il se trouve ici.

Pour en savoir plus:

2.6. Factorisation des nombres de Fermat

Factorisation des nombres de Fermat
Factoring status of Fermat numbers

Les nombres de Fermat sont les nombres de la forme F_n = 22n+1 (2^(2^n)+1). Fermat pensait que tous les nombres de cette forme étaient premiers. En effet un théorème nous dit que si 2n+1 est premier alors n est une puissance de deux, on aurait eu une suite donnant une infinité de nombres premiers... le rêve !

Aujourd'hui on sait que ce n'est pas le cas, F_5 étant le premier nombre de Fermat à ne pas être premier ! En fait on se demande même s'il y a des nombres de Fermat premiers lorsque n est supérieur à 5 ! Actuellement on en est à terminer la factorisation de F_16 à F_19 aucun facteur de F_20 n'étant connu.

2.7. Recherche des règles de Gollomb optimales

http://members.aol.com/golomb20/index.html
http://www.ee.duke.edu/~wrankin/golomb/golomb.html
Distributed.net: Project Kangaroo OGR

Pour résumer, les règles de Gollomb sont une variété particulière des règles, au sens double-decimètre, auxquelles il manque des marques. Le dessin ci-dessous devrait vous permettre d'imaginer à quoi ressemble une telle règle:

               0  1  2     4     6
               |__|__|_____|_____|

Pour construire la règle ci-dessus on part d'une règle de 6 centimètres (sur une page Web c'est des centimètres virtuels) et on efface la marque des 3 centimètres et celle des 5 centimètres. La règle ci-dessus permet de mesurer de manière exacte toutes les distances de 1 à 6 centimètres. Notez que sur cette règle il y a plusieurs façons de mesurer une distance de 2 centimètres (entre les marques 0 et 2 centimètres, entre 2 et 4 et entre 4 et 6). Ceci fait que ce n'est pas une règle de Gollomb.

Les règles de Gollomb sont telles que chaque distance ne peut être mesurée que d'une seule façon. On les classe ensuite en fonction de leur nombre de marques. On parle des règles de Gollomb à 3 marques, à 4 marques ou à 20 marques. On définit en plus les règles de Gollomb optimales qui sont les plus courtes des règles de Gollomb pour un nombre de marques donné. Trouver de telles règles a des applications en astronomie, dans le placement d'appareils de mesure de rayons X, et en cryptologie ! Ce sont ces règles que recherche ce projet.

Comme vous pouviez vous y attendre la difficulté qu'il y a à prouver l'optimalité d'une règle de Gollomb croît de façon exponentielle d'où l'intérêt de distribuer le calcul sur un grand nombre de machines. On connaissait des règles de Gollomb "efficaces" ayant 17, 18 et 19 marques. Ce projet a permis de confirmer leur optimalité. Ce projet a déjà permis de vérifier l'optimalité des règles de Gollomb de 20 et 21 marques et travaille à présent sur les règles de Gollomb de 22 et 23 marques. Il y a aussi un client en cours de developpement en coopération avec Distributed.net.

Allez, pour la route, la règle de Gollomb optimale ayant quatre marques est:

               0  1        4     6
               |__|________|_____|

2.8. Factorisation des nombres composites

http://www.ping.be/~ping6758/topic1.htm

Ca fait partie de la théorie des nombres parait-il. Il s'agit d'un drôle de jeu. On prend un nombre composite comme 10 et on le factorise en facteurs premiers: 10=2*5. On concatène ces nombres et on refactorise: 25=5*5. Et ainsi de suite jusqu'à ce qu'on tombe sur un nombre premier ! 55=5*11, 511=7*73, 773 est premier, fini. On tombe très vite sur de très grands nombres premiers. Par exemple en partant de 8 on tombe sur 3.331.113.965.338.635.107 en 13 étapes (je vous laisse vérifier). En ce moment on bute sur 49.

Comment expliquer ce genre de "jeux" ? Je pense qu'il faut partir des nombres premiers. Ce qui fascine les mathématiciens dans les nombres premiers c'est qu'ils tiennent une place très importante dans la theorie des nombres et que pourtant on ne sait pas comment créer une suite qui puisse tous les engendrer. C'est probablement là la source de tous ces "jeux".

Ce site contient aussi d'autres "jeux" relatifs à la théorie des nombres comme les nombres palyndromiques (121, 1331, ...).

Pour en savoir plus:

2.9. SETI

Seti at Home

SETI est un programme de recherche d'intelligence extra-terrestre. Cela consiste à enregistrer les signaux reçus par un radio-télescope pour toute une bande de fréquence. Ensuite on analyse ces mesures et on essaie d'y découvrir des motifs, un indice qui indiquerait que le signal n'est pas aléatoire. On peut voir ça un peu comme la fonction "scan" des récepteurs radio numériques sauf que là la bande de fréquence est nettement plus large et le signal plus difficile à analyser. C'est là que votre ordinateur intervient. L'analyse prenant beaucoup de temps ce projet se propose d'effectuer ce traitement de façon distribuée sur Internet (y aurait-il de la réduction budgétaire dans l'air ?).

Seti@home a finalement démarré, avec pas mal de retard, au début de 1999 et connait un énorme succès, comptant près de 500.000 ordinateurs participants. Ce succès est tel qu'il a entrainé au départ des disfonctionnements au niveau des serveurs. L'autre conséquence de ce succès, c'est que les données sont traitées plus rapidement qu'elles ne sont produites par l'enregistreur du radio téléscope d'Arecibo. Pour l'instant tout va bien parce qu'il y a plusieurs mois d'enregistrements à traiter avant de rattraper le retard. Mais que ce passera-t-il lorsque le projet commencera à traiter les données en quasi 'temps réel'. Seti@Home est resté muet sur le sujet pendant plusieurs mois mais a finalement fournit un réponse dans le FAQ 3.11. Ils disent que dans un premier temps ils enverront les mêmes données à plus d'un utilisateur. Ensuite ils essaieront d'acheter un deuxième enregistreur. Actuellement ils n'enregistrent qu'une bande passante de 2.5MHz sur les 100MHz captés par SERENDIP. Un deuxième enregistreur permettrait de doubler la bande passante analysée et donc la quantité de données à traiter.

Si vous participez à Seti@Home vous voudrez probablement obtenir les performances maximales or, de ce point de vue, la configuration standard est loin d'être optimale. En effet le mode par défaut affiche de beaux graphiques pendant le fonctionnement de Seti@Home. Or l'affichage de ces graphiques semble prendre autant de temps CPU que le traitement des données lui-même! (voir FAQ 2.2 et FAQ 90) Cet état de fait est déjà lamentable mais en plus il semblerait qu'ils refusent/retardent l'introduction de versions plus performantes de leur logiciel (voir 'What is wrong with the SETI@Home project?')!
Heureusement, pour le problème lié aux graphiques il existe quelques moyens de contourner le problème. La meilleure solution est d'utiliser le client en mode texte pour Windows NT. Si vous voulez utiliser le client graphique configurez le pour tourner en permanence et utilisez un économiseur d'écran du type 'blank screen'.

Pour en savoir plus:

2.10. ClimatePrediction

ClimatePrediction

Le but de ClimatePrediction est de prédire l'évolution du climat au 21ème siêcle. La technique classique consiste à rassembler les meilleures mesures disponibles, les meilleures estimations des paramètres gouvernant l'évolution du climat et de faire les calculs sur un super ordinateur.

Le problème c'est que cela ignore le principal problème: les conditions actuelles ne sont pas connues avec précision et, pire, des paramètres importants des modèles climatiques sont mal connus. Par exemple le taux d'absorption du gaz carbonique par les océans semble jouer un role important mais sa valeur n'est pas connue avec précision. C'est une des raisons pour lesquelles plusieurs prédictions climatiques contradictoires coexistent à l'heure actuelle. Une simulation effectuée à partir d'un jeu de paramètres qui ne reflètent pas la réalité ne sert à rien.

En fait si, cela peut servir, à condition d'en avoir un grand nombre: des milliers, des dizaines de milliers, voire plus. En analysant le résultat obtenu à partir de chaque jeu de paramètres on peut évaluer l'effet de chaque paramètre sur le résultat, déterminer la probabilité de chaque résultat et déterminer quels paramètres jouent vraiment un rôle important.

Mais un super ordinateur seul ne suffit pas à la tache. D'où l'idée d'effectuer chaque simulation en utilisant les cycles CPU inutilisés d'un grand nombre d'ordinateurs connectés à Internet. Le principe de fonctionnement est le suivant: ClimatePrediction distribue le programme de simulation ainsi que des données climatiques de référence et un jeu de paramêtres à tester. Le programme simule alors l'évolution climatique sur une période de 15 ans puis retourne les résultats à ClimatePrediction.

Evidement votre ordinateur n'est pas aussi rapide que les super ordinateurs qui font la météo chaque jour. Mais les simulations climatiques sur le long terme utilisent des modèls plus simples et nettement moins détaillés. L'équipe de ClimatePrediction indique qu'une simulation prendra tout de même environ six semaines sur un ordinateur 1.4GHz fonctionnant 24h sur 24.

Pour en savoir plus:

2.11. Autres projets

Entropia
Folderol
Folding@Home
United Devices
Popular Power
Process Tree Network
Find-a-Drug

Le sociétés ci-dessus visent plusieurs types de clients.

C'est dans cette dernière catégorie que tombent les projets suivants:

Ces projets sont effectivement des projets à but non lucratif dans le sens où ces sociétés ont fournit leur kit de développement gratuitement. Mais les vrais gagnants de l'opération sont les sociétés pour lesquelles sont effectués ces calculs: il est clair que si votre ordinateur trouve un traitement contre le Sida, vous n'aurez aucun droit sur ce traitement (à moins que peut-être dans certains pays...). Par contre la société ayant organisé ce projet va obtenir des brevets dessus qui si le traitement est vraiment efficace vaudront des milliards. Donc de leur point de vue, ces projets sont très intéréssants: pour une mise minime, le coût du développement du logiciel et un peu de suivi, ils disposent d'une énorme puissance de calcul, et d'un énorme pactole en cas de succès.

Il existe une exception: Folderol dit vouloir placer tous les résultats de leur recherche dans le domaine public. Vous n'avez donc aucune excuse pour ne pas participer.

Mais en définitive il n'y a rien de neuf par rapport aux autres projets: il faut participer pour l'honneur et le bien commun, pas par appat du gain.

3. Loadwatcher

Généralement les clients tels que ceux décrits ci-dessus se font complètement oublier. Cependant sous Unix il se peut qu'ils prennent du temps CPU même lorsqu'un processus prennant beaucoup de temps CPU tourne sur votre machine. C'est pas énorme, de l'ordre de 5-8% mais cela peut irriter.

Pour cela il y a deux solutions. Soit vous avez Linux et vous patchez le kernel en utilisant le patch sched_idle pour les kernels 2.0.x sur LinuxMama. Soit vous utilisez loadwatcher. Loadwatcher est un outil qui surveille à intervalles réguliers la charge CPU et qui arrête le process spécifié lorsqu'une certaine valeur est atteinte. Par exemple si le process id de Distributed.Net est 2134 (prennez bien le pid du thread qui prend le temps CPU sous Linux) vous pouvez utiliser la commande suivante: loadwatcher -r 0.5 -s 1.5 -p 2134. Cette commande dit a loadwatcher de suspendre le process 2134 dès que la charge CPU dépasse 1.5 et de le redémarrer lorsqu'elle repasse en-dessous de 0.5. Par défaut loadwatcher effectue son test toutes les minutes.

Loadwatcher a de nombreuses autres options qui pourront vous être utiles. Vous devriez arriver à le compiler sans aucun problème sous Linux, Solaris et la plupart des autres systèmes Unix.

loadwatcher.c

4. Autres sites sur le calcul distribué

fgouget@free.fr Cette page est hébergée gratuitement par Free.fr