Home | Sitemap | deutsch  | Legals | Data Protection | KIT

Parallelisierung (ToDo-sk: Verlinkungen)

Bei der Erstellung von parallelen Programmen können verschiedene Programmierkonzepte verwendet werden.
 
Mit MPI (Message Passing Interface) wurde "message-passing" als Hilfsmittel zur expliziten Kommunikation zwischen voneinander unabhängigen Prozessoren mit eigenem lokalen Speicher in standardisierter Form realisiert. Die Nutzung von MPI ist jedoch nicht auf Systeme mit verteiltem Speicher beschränkt, da viele Hersteller (Cray, SGI, NEC) auf ihren "shared memory" Maschinen MPI in optimierter Form anbieten. MPI wird an folgenden Rechnern angeboten: AIX-Cluster, Linux-Cluster, sx8R.
 
Bei OpenMP handelt es sich um eine direktivengebundene portable Parallelisierungsmethode für Systeme mit gemeinsamem Hauptspeicher. Die S
pracherweiterung OpenMP ist für die Programmiersprachen Fortran, C und C++ verfügbar und wird heute als Standard für die Programmierung von "shared memory Systemen" akzeptiert. OpenMP ist auf demLinux-Cluster und dem AIX-Cluster verfügbar.
 
Parallelverarbeitung beruht auf Kommunikation und Synchronisation zwischen vielen Einzelprozessen und erzeugt damit neue Quellen für Fehlersituationen und Leistungsengpässe. Als Werkzeuge für die Entwicklung und Optimierung paralleler Programme steht das Softwarepaket Vampir zur Verfügung.
 
Stand: 26.02.2007 10:27:00/BiGa