Newsgroups: comp.parallel.mpi
From: ubeda@ens-lyon.fr (Stephane Ubeda)
Subject: JIP'94
Keywords: FORMATION PVM
Organization: Ecole Normale Superieure de Lyon
Date: 31 Aug 1994 06:09:45 GMT
Message-ID: <3416r9$4c8@cri.ens-lyon.fr>

//////////////////////////////////////////////////////////////////
//                                                              //
//             JOURNEES INDUSTRIELLES DU PARALLELISME           //
//                                                              //
//                          Auront lieux                        //
//                                                              //
//                      du 4 au 5 octobre 1994                  //
//                                                              //
//        au Laboratoire de l'Informatique du Parallelisme      //
//                                                              //
//           a l'Ecole Normale Superieure de Lyon               //
//             46 allee d'Italie 69364 LYON CEDEX 07            //
//                                                              //
//////////////////////////////////////////////////////////////////


//////////////////////////////////////////////////////////////////
//                                                              //
//     JIP'94 Rhone Alpes                   THEME               //
//                                                              //
//////////////////////////////////////////////////////////////////


Le parallelisme est devenu un enjeu economique essentiel. Aujourd'hui, les 
prix et les performances du materiel rendent clairement l'approche du calcul
 parallele rentable au plan industriel, alors qu'il y a quelques annees encore 
ce concept n'interessait que les laboratoires de recherche. Il est  capital 
de transferer et de developper notre savoir-faire en France et en Europe sur 
ce theme. La Communaute Europeenne a lance le programme HPCN ("High Performance
 Computing \& Networking"), tres oriente sur les applications du calcul 
parallele. En France, un certain nombre d'initiatives se mettent en place avec,
 ORAP (ORganisation Associative Parallele) pour la volonte de coordonner les 
activites dans ce domaineet RAPID (Reseau de ressources pour les Applications
 Paralleles de l'Industrie) qui met a disposition de la communaute nationale 
les machines paralleles des centres de recherche ainsi qu'une assistance a 
leur utilisation. 

Cependant, de nombreux industriels utilisateurs hesitent encore a investir 
dans cette technologie, la considerant comme une solution encore trop coteuse 
ou trop complexe a mettre en oeuvre. Elle necessite donc un effort particulier 
de formation et de transfert des laboratoires de recherche vers le monde de 
l'industrie. Ces Journees Industrielles du Parallelisme Rhne-Alpes sont
 constituees de presentations de perspectives industrielles apportees par le 
parallelisme, d'un cours de programmation d'ordinateurs paralleles sur un 
logiciel standard et largement disponible sur les machines du marche ainsi 
qu'une table ronde constructeurs-entreprises-chercheurs.

//////////////////////////////////////////////////////////////////
//                                                              //
//     JIP'94 Rhone Alpes                PROGRAMME              //
//                                                              //
//////////////////////////////////////////////////////////////////


 ===============================================================
 | Mardi 4 octobre 1994           | Mercredi 5 octobre 1994    |
 ===============================================================
 |  9h00-10h30 Etat de l'art      |  9h00-12h30 Cours PVM      |
 |  Intervenant : M. Cosnard      |  Intervenant : R. Mancheck |
 | 11h00-12h30 Environnements     |     Presentation Generale  |
 |  Intervenant : F. Desprez      |                            |
 | 14h00-15h30 Solution Indus.    | 14h00-17h30 Cours PVM      |
 |                                |  Intervenant : R. Mancheck |
 | 16h00-17h30 Portage            |     Application            |
 |  Intervenant : M. Gengler      |                            |
 | 18h00-19h00 Forum constructeurs| 18h00 Cloture              |
 | 20h00-22h00 Repas et Discussion|                            |
 ===============================================================

           Un repas est prevu le 4 octobre au soir, 
                suivi d'une discution ouverte.



==================
| Etat de l'art  |   (Michel Cosnard, Directeur du LIP)
==================

Ce premier cours presentera un tour d'horizon du parallelisme
d'aujourd'hui et ce qu'il peut apporter a l'industrie. En partant des
architectures disponibles actuellement, il explorera les outils permettant
l'acces a ces machines et survolera les differentes techniques
de programmation de ces dernieres. Cette presentation se terminera
par des renseignements concernant les organismes pouvant faciliter l'acces
aux industriels aux techniques du parallelisme, notamment, l'ORganisation
Associative pour le Parallelisme (ORAP), ayant pour but
de faciliter le developpement d'applications paralleles et
RAPID, le reseau regroupant les centres informatiques
dotes en machines paralleles.


==================
| Environnements |  (Frederic Desprez, LABRI)
==================

Les ordinateurs multiprocesseurs, qu'ils soient distribues, paralleles
ou massivement paralleles, ont atteint un degre de maturite 
suffisant pour envisager leur utilisation dans le monde industriel. Le 
marche est en attente de  methodes et de logiciels permettant d'exploiter 
la performance de ces machines.

Ce cours sur les environnements a pour but de faire une synthese de ce qui 
existe actuellement en matiere d'outils de developpement portables pour 
des applications industrielles et notamment pour le calcul scientifique. 

 
-  Bibliotheques de calcul : BLAS, LAPACK, ScaLAPACK, ... 
L'utilisation de bibliotheques pour le calcul scientifique en 
sequentiel ou en vectoriel est maintenant une chose admise. Qu'en 
est-il pour le calcul sur des reseaux de  stations et sur des machines 
paralleles a memoire distribuee? Nous  repondrons a cette 
question en presentant les bibliotheques utilisables aujourd'hui.

-  Decomposition en graphe de taches : Hence. 
La plupart des algorithmes 
paralleles peuvent se decomposer en un graphe de taches. Hence est un
outil qui permet de manipuler ces graphes et de les placer sur une 
architecture donnee.

-  Visualisation de traces d'execution : Paragraph.
La comprehension du comportement d'un programme parallele peut se faire 
a l'aide d'outils de visualisation de traces d'execution. Paragraph est 
un de ces produits et son utilisation est quasiment indispensable a
l'obtention des performances maximales sur les machines paralleles.

-  Une bibliotheque de communication : Les BLACS.
Les Basic Linear Algebra Communication Subroutines sont un ensemble de 
routines de  base en communication adaptees au  calcul matriciel et donc 
aux mouvements de  donnees rangees sous forme de tableaux 
bi-dimensionnels. Ces routines sont de deux types : routines de communication 
point-a-point simple et routines  globales, avec ou sans calculs. 

-  Un standard pour les interfaces de communication : MPI.
Il s'agit de la  definition de l'interface standard aux appels de routines 
de communication. Celle-ci regroupe toutes les fonctionnalites de PVM et 
d'autres. Elle est nee  
d'un groupe de travail reunissant les chercheurs, les constructeurs et les 
utilisateurs. Certains prototypes commencent a voir le jour.

-  Compilateur paralleliseur : HPF. 
La programmation de problemes  reguliers a l'aide de Fortran sur des
machines paralleles a memoire distribuee  peut se faire en 
decrivant la distribution des donnees ainsi qu'en ajoutant quelques  
directives de compilation. High Performance Fortran est la definition des
extensions a apporter a Fortran pour en faire un compilateur pour 
machines  paralleles a memoire distribuee.


===========================
| Solutions industrielles |    (Dubois, Societe ESI)
===========================

Par rapport a la situation d'il y a quelques annees seulement, le calcul
parallele offre des possibilites tres interessantes pour les applications
industrielles en general et pour la simulation du crash en particulier. Les
constructeurs d'ordinateurs ont adopte principalement l'architecture MIMD
(Multiple Instruction stream - Multiple Data stream) a memoire partagee ou
distribuee. Toute une gamme de performances est offerte, ou au moins
envisageable, depuis les reseaux de stations de travail, offrant une grande
flexibilite et un rapport performance-prix seduisant, jusqu'aux machines
integrees a la puissance de Tera-flop. Un grand progres a ete fait
egalement dans la definition et la conception des systemes d'exploitation
et des environnements de programmation. Neammoins, le portage d'un code
industriel demande une restructuration profonde et une optimisation poussee
afin d'exploiter les possibilites offertes.

Cet expose se concentre sur les conditions prealables au portage et a
l'optimisation du code de simulation de la resistance au crash PAM-CRASH
sur les machines MIMD a memoire distribuee. Les caracteristiques du code
affectees par la parallelisation, comme l'integration explicite dans le
temps, le maillage d'elements finis non structures et le calcul du contact,
sont presentees. Les strategies de parallelisation adaptees et l'interface
de programmation sont detaillees. Les gains possibles sont documentes pour
la version initiale du code, ainsi que l'effet de l'utilisation d'un outil
de decoupage du maillage.

===================
| Portage de code |        (Marc Gengler, EPFL)
===================

Terpsichore est un programme de calcul de stabilite
tridimensionnelle d'un gaz obeissant aux lois de la
magetohydrodynamique. Ce programme a ete developpe au Centre de
Recherche en Physique des Plasmas (CRPP) a l'Ecole Polytechnique
Federale de Lausanne (EPFL). Ecrit specifiquement pour tirer profit
des caracteristiques des super-calculateurs vectoriels a memoire
partagee, le programme a atteint des performances de 1,9 GFlop sur un
Cray YMP a huit processeurs, ce qui lui a valu le ``Cray Award 1989''
du programme le plus performant.

Conscients du fait que l'avenir appartient essentiellement aux
machines a memoires distribuees, les physiciens du CRPP et des
informaticiens du Departement d'Informatique de l'EPFL ont porte
Terpsichore en 1991 sur une machine a memoires distribuees du
type Intel iPSC/2. La difference en puissance de calcul entre les
deux machines en question etant de trois unites de grandeur, le but
recherche ne consistait pas a d'ameliorer les performances du
programme mais a acquerir une premiere experience d'un tel portage
et a montrer que les performances atteintes en termes
d'acceleration sur une machine a memoires distribuees pouvaient
etre satisfaisantes. L'interet de ce portage etait aussi grand
pour les physiciens que pour les informaticiens, les premiers faisant
connaissance avec les nouvelles machines et leur programmation, les
seconds s'assurant que leur nouveau concept de machines atteignait les
performances escomptees. 

L'expose decrira le portage de Terpsichore en essayant avant
tout de montrer quels efforts et competences ont ete indispensables
de part et d'autre. L'etape la plus cruciale du travail consiste a
distribuer convenablement les donnees sur les memoires des
differents processeurs car ce choix determine implicitement le
calcul a effectuer par les processeurs, chaque processeur traitant
les donnees qu'il possede, ainsi que la messagerie indispensable
pour amener les donnees necessaires au calcul mais detenues par un
autre processeur vers le processeur qui en a besoin. Le choix de la
distribution des donnees presuppose une bonne connaissance de la
structure globale du programme et necessite la plus forte interaction
entre les concepteurs du programme et les personnes en charge de son
portage. Une fois la distribution arretee, la transformation du
programme est un travail plutot mecanique qui necessite certes une
grande attention mais ne fait appel qu'a des transformations locales
du code source.

=======================
| Forum constructeurs |
=======================

 Les constructeurs et distributeurs d'architectures
paralleles sont invites a presenter leur gamme de produits et des
solutions adaptees au monde industriel. Ces representants participeront
ensuite a une table ronde o\`u les industriels demandeurs de puissance
de calcul pourront directement leur adresser  leurs problemes.

Seront presents, les societes CONVEX, CRAY, MATRA CAP SYSTEMES et SUNNYTECH.

======================
| Cours intensif PVM |       (Robert Mancheck, Univeristy of Tennessee)
======================

Ce cours, dispense par  Robert Mancheck
du Computer Science Dept. de l'Universite du Tennessee,
presentera les aspects les plus importants 
de PVM en partant des bases jusqu'aux fonctions avancees et
a l'utilisation des outils autour de cet environnement. Des
exemples d'utilisation en algebre lineaire et en imagerie
viendront illustrer le cours.

Le programme sera le suivant :

- Presentation de PVM.
- Gestion des processus.
- Gestion des buffers.
- Communications point a point.
- Communications globales.
- Environnements XPVM, Hence, Xab et Paragraph.
- A propos de l'heterogeneite.
- PVM sur Paragon, portabilite et performances.


//////////////////////////////////////////////////////////////////
//                                                              //
//     JIP'94 Rhone Alpes        RENSEIGNEMENTS/INSCRIPTIONS    //
//                                                              //
//   JIP'94 Valerie Roger       Tel : 72 72 80 37               //
//   LIP ENS-Lyon               Tel : 72 72 80 80               //
//   46, allee d'Italie         Email : valerie@lip.ens-lyon.fr //
//   69364 LYON CEDEX 07                                        //
//                                                              //
//////////////////////////////////////////////////////////////////














