RZ-News Januar/Februar 96


IMPRESSUM

Herausgeber: Prof. Dr. Adolf Schreiner
Redaktion: Ursula Scheller, Klaus Hardardt
Erscheinungszeitraum: monatlich
Tel.: 0721/608-4865
e-mail: scheller@rz.uni-karlsruhe.de, hardardt@rz.uni-karlsruhe.de
Rechenzentrum der Universität Karlsruhe
Postfach 6980
Zirkel 2
76128 Karlsruhe

INHALT

Bill Gates an der Uni Karlsruhe

Das Karlsruher Rechnerkonzept

ATM-Netz der Universität in Betrieb

Das neue Breitbandwissenschaftsnetz B-WiN

Karlsruher WWW-Server weiter auf Erfolgskurs

Von A nach B mit WWW
Karlsruher Stadtkarte "online"

IBM 3090: die letzten hundert Tage

US-Konnektivität - zum wiederholten Mal

US-Netzverbindung über XLINK

Der Internet Software-Shop der ASK

MasPar noch nötig?

Anwendungssoftware
Erste Fortran-Anwendungen auf dem IBM RS/6000 SP
Neues von MATLAB/SIMULINK
Zell-Bibliotheken für CADENCE DFW verfügbar
Mikroelektronik/Mikrosystemtechnik
Entflechtung von Leiterplatten - top-CAD 8.0 ist da
Sichern von IBM-3090-Dateien auf CD-ROM
Anschluß privater PCs an das KLICK-Netz
Numerische Untersuchungen zum Temperaturverhalten der Kuppel der Frauenkirche zu Dresden

Veranstaltungen
Blockvorlesung Programmieren II
Supercomputing: Ausbildung am Vektorrechner und Parallelrechner
Anfängerkurs Word für Windows/Version 6.0
WordPerfect für Windows/Version 6.1/Kurse
Einführungskurs SAS
Einführungskurs LaTeX

RZ-Publikationen

Kurz berichtet ...
Nachtrag zum Win95-Artikel in der RZ-News Dezember-Ausgabe/95
Neue CD-Preise

Personalia

Vorträge, Workshops und Kurse auf einen Blick


Bill Gates an der Universität Karlsruhe (TH)


Das Karlsruher Rechnerkonzept

Prof. Dr. G. Schneider

Die Leistungssteigerung im Bereich der Workstationprozessoren in den letzten Jahren hat dazu geführt, daß immer mehr Routinerechnungen auf dezentrale, bei Benutzern aufgestellte Workstations verlagert werden konnten. Dadurch entstand bei diesen Nutzern auch eine Vertrautheit im Umgang mit leistungsfähigen UNIX-Workstations, die dazu führte, daß selbst bei Problemen, die für die eigene Workstation zu groß waren, der Sprung auf die zentralen Höchstleistungsanlagen eines Rechenzentrums nur ungern vollzogen wurde. Die Umstellung der vorhandenen Programme auf die spezielle Architektur traditioneller Höchstleistungsrechner, den Vektorrechnern wie unser S600/20, erschien manchen zu aufwendig. Statt dessen wurde erheblicher Aufwand investiert, um die nicht mehr ausreichenden eigenen Ressourcen zur Lösung der anstehenden Probleme in der Forschung doch noch nutzbar zu machen. So werden beispielsweise mehrere vorhandene Workstations über das Campusnetz verkoppelt und arbeiten gemeinsam an einer Rechnung. Der erforderliche Datenaustausch kann dabei jedoch nicht so schnell wie eigentlich erforderlich abgewickelt werden, da das traditionell aus Kostengründen lokal eingesetzte Ethernet eine begrenzte Leistung hat.

Auch in der Wirtschaft ist ein ähnliches Verhalten zu beobachten. So scheuen sich kleine und mittlere Unternehmen aus denselben Gründen oft, die in der Region (bei der Universität) vorhandenen Großanlagen zu nutzen.

Das Karlsruher Rechnerkonzept basiert auf diesen Erkenntnissen und bietet einen zukunftweisenden Ausweg: statt teuerer Spezialprozessoren sollten in dem neuen Parallelrechner der Universität preiswerte Standard-Workstationprozessoren der höchsten Leistungsklasse zum Einsatz kommen. Außerdem war eine Architektur gefordert, die den Benutzern vertraut ist und damit eine Migration auf Großanlagen im Bedarfsfalle erleichtert.

Ein realisiertes Stufenkonzept für kleine und große Rechnungen:
Wenn das eigene Workstationcluster im Institut nicht mehr ausreichende Leistung bietet, kann auf zwei bestehende Cluster am Rechenzentrum gewechselt werden, die über eine verbesserte Kommunikations-Infrastruktur verfügen: ein Ethernet-Switch sorgt dafür, daß jeder angeschlossenen Workstation die volle Bandbreite von 10 Mbit/s zur Verfügung steht. Über diese Eigenbau-Parallelrechner - SP/0.5 und SP/1.5 - wurde in früheren Ausgaben der RZ-News ausführlich berichtet.

In unserem SP/0.5 kommen zehn Maschinen vom Typ RS6000, Modell 360 mit 50 MHz-POWER1-Prozessoren zum Einsatz, jede mit mindestens 96 MB Hauptspeicher. Messungen haben gezeigt, daß durch diese Vernetzungstechnik ein wesentlich verbessertes Kommunikationsverhalten erzielt werden kann, selbst wenn die erhaltenen Werte noch fern der Wunschvorstellungen liegen. Aber die Parallelisierung, insbesondere unter Zuhilfenahme von PVM (parallel virtual machine), kann auf solchen Rechnern schon erprobt werden.

Unser SP/1.5 als Teil des Ausbildungspools besteht aus 20 Rechnern vom Typ RS6000, Modell 3BT mit 66 MHz-POWER2-Prozessoren. Hier hat jeder Rechner 128 MB Hauptspeicher. Ein verbesserter Ethernet-Switch sorgt auch hier für eine durchaus akzeptable Kommunikationsleistung, so daß die theoretische Peak-Leistung des gesamten Clusters von 5,4 GFLOPS bei geeigneten Programmen auch erzielt werden kann.

Der Parallelrechner IBM RS6000 SP stellt eine logische Weiterentwicklung dieser Architektur dar.
Jeder Knoten verfügt über ein vollständiges UNIX-Betriebssystem und entspricht somit einer Workstation. In der Tat sind die Motherboards nahezu identisch mit denen in normalen IBM-Workstations; allerdings verfügen sie über Zusatzmodule, die ein Management einer großen Anzahl von solchen Knoten überhaupt erst ermöglicht. Beispielsweise kann die Anzeige der LEDs beim Booten über Netz beobachtet werden, ebenso wie die Temperatur und weitere Parameter, die für das reibungslose Funktionieren erforderlich sind.


Die Vernetzung dieser Knoten erfolgt dann aber nicht über ein langsames Ethernet oder FDDI, sondern über einen speziellen High Performance Switch mit speziellen Adapterkarten auf den einzelnen Knoten, wobei Protokoll und Leistungsvermögen den Anforderungen an schnellen Datentransfer angepaßt ist. Dadurch lassen sich Übertragungswerte erzielen, die 100 mal besser sind als beim Ethernet. Auch die Startup-Zeit, also die Zeitspanne zwischen Ansprechen eines Adapters und dem Beginn des Datentransfers, wurde deutlich reduziert. Damit gehen nicht mehr so viele Rechenzyklen verloren, wenn Daten zwischen Knoten bewegt werden, und eine Parallelisierung auf feinem Niveau wird möglich.

Im Grundsatz unterscheidet sich diese Architektur aber nicht von den bereits beschriebenen Workstation-Clustern. Daher ist es für die Benutzer relativ einfach, sich auf dieser Maschine einzuarbeiten. Konkret kann man sogar sagen, daß Programme, die für PVM geschrieben worden sind, ohne weitere Modifikation auf dem SP sofort lauffähig sind. Wer also den Vorlauf, den das Rechenzentrum mit dem SP/0.5 und SP/1.5 angeboten hat, genutzt hat, kann den neuen Rechner sofort und ohne Einschränkungen nutzen.

Das modulare Konzept des SP bietet einen weiteren Vorteil: Institute können eigene Knoten beschaffen und in den SP einbauen lassen. Das Management der institutseigenen Knoten würde dann vom Rechenzentrum durchgeführt, das Nutzungsrecht bliebe jedoch dem Institut zu 100% vorbehalten. Der Vorteil dieser Lösung gegenüber einer standalone-Workstation im Institut liegt (neben der Ersparnis beim Management) im direkten Zugriff auf das interne Hochleistungs-Kommunikationsnetzwerk im SP und der Möglichkeit zur transparenten Mitnutzung der anderen Knoten bei Bedarf. Wer Interesse an diesem Modell hat, kann sich gerne mit mir in Verbindung setzen.

Die Betriebsweise des Karlsruher SPs
Beim Betrieb unseres neuen Parallelrechners kommen modernste Konzepte aus dem Bereich der Informatik zum Einsatz: erstmals in Europa wird DCE/DFS die alleinige Grundlage für einen solchen Parallelrechner in dieser Größenordnung sein.

DCE (Distributed Computing Environment) ist ein herstellerunabhängiges Konzept zum Vernetzen heterogener Workstations. Traditionell wird NIS im UNIX-Bereich hierfür eingesetzt, aber die Sicherheitslücken sind hinlänglich bekannt und reizen den einen oder anderen zu unlauteren Versuchen. Im Gegensatz dazu setzt DCE auf moderne Verschlüsselungsverfahren und Authentifizierungsmethoden, um mit Sicherheit (nach derzeitigem Verständnis sogar mit absoluter Sicherheit - aber wer weiß?) feststellen zu können, welche Applikation auf welchem Rechner welchen Dienst anfordert.

Eine der wichtigsten Applikationen von DCE ist das Distributed File System DFS. Es weist gegenüber der NFS-Lösung einige wichtige Vorteile auf: neben der höheren Sicherheit ist ein Cache-Mechanismus implementiert, so daß einmal benutzte Dateien im jeweiligen Rechner vorgehalten werden. Der erneute Zugriff ist damit wesentlich schneller als über NFS. Beim Schreiben auf eine Datei werden die Kopien der alten Version in sämtlichen Caches gelöscht. Trotzdem ist der Schreibvorgang nach unseren Erfahrungen vergleichbar in der Geschwindigkeit mit der NFS-Lösung.

Bei diesem innovativen Einsatz handelt es sich nicht um einen ersten naiven Test. Grundlage für diese Entscheidung bildet vielmehr die Rechenzentrumserfahrung beim Einsatz von DCE/DFS im Ausbildungspool, wo diese Lösung einem intensiven Test durch über 1000 Anfänger unterworfen wurde und ohne Probleme die Anforderungen bewältigen konnte. Das parallel dazu eingesetzte NFS dagegen zeigte deutliche Performanceprobleme.

Diese DCE/DFS-Lösung erstreckt sich auch auf die beiden IBM-Rechnerpools im RZ. Damit wird ein transparenter Zugang auf die verschiedenen Knoten möglich. Dies wird die Einbindung des Parallelrechners in das vorhandene Umfeld für unsere Nutzer deutlich erleichtern. Langfristig wird es auch möglich sein, institutseigene Rechner in dieses DFS zu integrieren und sogar PCs mit aufzunehmen, die via ISDN von zuhause aus ans Campusnetz angeschlossen sind - erste Versuche in dieser Hinsicht waren vielversprechend.

Zur Jobsteuerung wird der LoadLeveler eingesetzt. Der Loadleveler verteilt die Jobs auf die freien Knoten und sorgt so für eine gleichmäßige Auslastung des Rechners. Der Witz dabei ist, daß auch die freien Knoten der beiden Rechnerpools integriert werden können. Damit können wir die turn-around-Zeiten für Skalarjobs deutlich verbessern, denn wie bereits angekündigt, wird der SP primär für Paralleljobs zur Verfügung stehen. Das Hauptproblem, daß beim Starten des Jobs dieser ein gültiges DCE-Ticket erhält, konnte von Mitarbeitern des RZ erstmals gelöst werden. Darauf sind wir ganz besonders stolz.

Da das DFS trotz aller beschriebenen Vorteile nicht die Durchsatzwerte erreicht, die ein Hochleistungsrechner voraussetzt, gibt es auf dem SP auch ein spezielles Filesystem PIOFS: Parallel IO File System. Dieses Filesystem ist nicht nur über mehrere Platten, sondern zugleich über mehrere Server-Knoten verteilt. Dadurch können nach ersten Messungen Durchsatzwerte erzielt werden, die deutlich über denen lokal angeschlossener Platten liegen. Hier zeigt sich ein weiteres Mal der Vorteil dezentraler Lösungen: der kombinierte Einsatz mehrerer Knoten erzielt höhere Leistungswerte als ein monolithisches System. Wichtig ist jedoch eine leistungsfähige Vernetzung. Da wir in der ersten Zeit nur einen ATM-Switch zur Verfügung haben, der einen Teil der Knoten verbindet, wird das PIOFS erst in wenigen Wochen voll nutzbar sein.

Die Karlsruher Konfiguration
Der Vollständigkeit halber wird hier nochmals die Konfiguration unseres Parallelrechners wiedergegeben. Es ist der derzeit leistungsstärkste IBM-Parallelrechner in Europa!

2 Wide Nodes 77 Mhz 512 MB Hauptspeicher
54 Wide Nodes 77 Mhz 256 MB Hauptspeicher
16 ThinNode2 66 Mhz 128 MB Hauptspeicher
1 HPS3 High Performance Switch


Diese Knoten verteilen sich auf 8 Schränke. Jeder Schrank ist ca. 2 m hoch und hat eine Stellfläche von 1 qm. In einen Einschub passen entweder 2 ThinNode2 oder ein Wide Node.

Auf eine Karlsruher Besonderheit gegenüber anderen SP-Installationen in der Bundesrepublik möchte ich besonders hinweisen: Für die Serverfunktionen haben wir bewußt ThinNode2 ausgewählt. Deren Speicherbandbreite ist nämlich geringer als bei den Wide Nodes, weshalb wir die Wide Nodes für die numerisch intensiven Probleme ausschließlich verwenden wollen. Jeder dieser Knoten kann theoretisch etwa 308 MFLOPs leisten - 280 MFLOPs haben wir tatsächlich bereits gemessen! Für die Serverfunktionen sind die ThinNode2 hingegen mit Sicherheit ausreichend - schließlich gehören die benutzten Prozessoren zu den leistungsfähigsten Workstation-CPUs. Damit ist unsere Anlage für die Lösung naturwissenschaftlicher Probleme optimiert.

Der Zugang zum SP erfolgt über einen Knoten, der über einen FDDI-Adapter und einen HPS-Adapter verfügt. Der Zugang zu den anderen Knoten erfolgt dann in wenigen Wochen über das schnelle interne Netzwerk (und in der Zwischenzeit über das interne ATM-Netz bzw. über das langsame Ethernet).

Die ThinNode2 wurden über zwei Schränke (die sogenannten Frames) verteilt, damit die Serverfunktionalitäten auch bei Wartungsarbeiten an einem Frame erhalten bleiben.


ATM-Netz der Universität in Betrieb

Prof. Dr. G. Schneider

Ohne großen Aufhebens ging im Laufe des Jahres 1995 das ATM-Netz an der Fridericiana in Betrieb. Zunächst war ATM ein Studienobjekt am Rechenzentrum, um die neue Zukunftstechnologie frühzeitig praktisch erproben zu können. Mittlerweile sind jedoch weitere, ausgewählte Partner auf dem Campus angeschlossen. Obwohl die Technologie noch sehr neu ist, läuft das Netz bereits erstaunlich stabil.

In diesem Artikel soll kurz erklärt werden, worum es sich bei ATM eigentlich handelt, wo seine Vorzüge und Nachteile liegen und inwieweit die ATM-Einführung die Nutzer auf dem Campus betrifft. Natürlich wird auch die vorhandene Infrastruktur kurz erläutert, auf die wir recht stolz sind, waren wir doch in Teilbereichen einmal mehr die Ersten im Ländle.

Was ist ATM?
ATM (Asynchronous Transfer Mode) ist entstanden aus dem Bedürfnis der internationalen Telekom-Gesellschaften, ein große Anzahl von Telefongesprächen auf einem Glasfaserkabel gleichzeitig abwickeln zu können. Das bedingt insbesondere, daß jedem Teilnehmer eine feste Bandbreite zugewiesen werden kann - schließlich möchte man ja nicht, daß aufgrund von Netzüberlastung die gesprochene Sprache leidet, zumal man für die Verbindung Geld bezahlt.

Für den einzelnen Teilnehmer ist dies durch ISDN bereits länger realisiert, wo eine Übertragungsgeschwindigkeit von 64 kbit/s bei einem Gespräch fest garantiert sind. Möchte man aber verschiedene Ortsvermittlungen und Telefonanlagen koppeln, so sind ganz andere Bandbreiten erforderlich: 155 Mbit/s und 622 Mbit/s sind hier der Regelfall.

Erfreulicherweise eignet sich die bei ATM benutzte Technologie auch für die Computeranwender, weshalb ATM mittlerweile auch im EDV-Bereich Einzug hält.

Bei ATM werden die Datenströme in Pakete zu 48 Byte aufgeteilt. Ein solches Paket erhält noch einen Kopf mit Informationen, bestehend aus 5 Byte. Diese Zelle mit 53 Byte geht dann auf die Reise zum Zielort. Da die Zellen sehr klein sind, sind sie auch schnell gefüllt. Dies ist für die gesprochene Sprache ein entscheidender Vorteil: es tritt keine hörbare Verzögerung auf. Wenn die Zellgröße 8000 Byte wäre, würde es etwa 1 Sekunde dauern, bis die Zelle voll wäre und zum Zielgerät geschickt werden könnte: ein nicht akzeptabler Qualitätsverlust. Aus Sicht des Datentransports sind kleine Zellen natürlich eher ein Nachteil, da der Overhead durch Kontrollinformationen recht groß ist. Im Fall von ATM werden also etwa 10% der Bandbreite garantiert durch Managementinformationen verbraucht (in der Praxis ist es oft mehr), bei einer Zellgröße von 500 Byte wäre dies bei gleicher Technik (5 Byte für Header) nur 1%.

Doch betrachten wir lieber die kommunikationstechnischen Vorteile der kleinen Zellen: sie können zum Beispiel schnell durch die ATM-Switches (so heißen die Vermittlungseinheiten) durchgeschleust werden. Das dabei genutzte vereinfachte Kommunikationsprotokoll ohne Fehlerkorrektur trägt weiter dazu bei, daß Verzögerungen auf dem Netz minimiert werden. Damit eignet sich ATM hervorragend für alle Daten, die innerhalb einer gewissen Zeit ans Ziel kommen müssen, wie eben Sprache und Video.

Ferner bietet ATM gegenüber dem im Netzbereich (auch im Universitätsnetz KLICK) eingesetzten Kommunikationsprotokoll TCP/IP den Vorteil der Bandbreitenreservierung. Ähnelt der Verkehr im IP-Netz eher dem Straßenverkehr, wo jeder unkoordiniert zum Ziel kommen will und daher gelegentlich im Stau steht, so kann man ATM mit dem Flugzeug oder der Bahn vergleichen. Hier sind die Sitzplätze fest reserviert und die Transportmittel in einen Fahrplan eingebunden, so daß die Fahrtzeiten kalkulierbar werden.

Im Datenbereich konnte man feste Bandbreiten bisher schon über Standleitungen bereitstellen, nur waren diese für einen längeren Zeitraum zu mieten und somit recht teuer. Das Reservieren von 1,43 Mbit/s für zwei Stunden an einem bestimmten Tag ist damit nicht zu realisieren. Nur im schmalbandigen Bereich kann man seit kurzem mittels ISDN bei Bedarf Bandbreiten dazuwählen und (auch nach der Tarifreform) auch teuer bezahlen.

ATM erlaubt es, eine hohe, feste Bandbreite für einen gewissen Zeitraum vergleichsweise kostengünstig zu mieten. So kostet beispielsweise eine Stunde mit 2 Mbit/s derzeit national etwa DM 400,-. Ähnlich wie beim Telefon muß man ferner eine Grundgebühr für den ATM-Anschluß sowie außerdem die breitbandige Standleitung zum nächstgelegenen ATM-Knoten der Telekom bezahlen. Dann kann man Verbindungen mit allen Teilnehmern aufbauen, die an das ATM-Netz der Telekom angeschlossen sind. In Deutschland sind dies derzeit ein paar Dutzend, aber mit stark steigender Tendenz. Die erfreuliche Nachricht hierbei ist, daß sich fast alle europäischen Telekoms dieser Technologie verschrieben haben und daher sich bereits jetzt ein funktionsfähiges Pilotnetz über ganz Europa erstreckt. Netzknoten stehen beispielsweise in Paris, Zürich, Linz und Madrid - und eben in Karlsruhe.

ATM und die Datenübertragung
Um diese Vorteile, insbesondere die hohe Übertragungsgeschwindigkeit von ATM, voll nutzen zu können, braucht man natürlich eine Workstation mit eigenem ATM-Anschluß und entsprechende Software, die ATM auch nutzen kann. Muß also nun alles auf dem Campus anders verkabelt werden und die gesamte Software neu beschafft werden?

Glücklicherweise ist eine solche Radikalkur nicht nötig. Der Investitionsschutz ist weitestgehend gegeben. Die vom Rechenzentrum verlegten Glasfaserkabel im Backbone-Bereich und die Kupferverkabelung (Twisted Pair) in den Gebäuden sind auch für die neue Technik nutzbar. Es müßten lediglich die gesamten Netzkomponenten ausgetauscht werden, was aber immer noch eine Millioneninvestition bedeutet. Und für die meisten Benutzerendgeräte sind derzeit nur teure ATM-Adapter und wenig ATM-fähige Netzsoftware verfügbar....

Statt dessen wird die Revolution ganz unbemerkt stattfinden. Man kann die bewährten IP-Datenpakete nämlich auf dem Backbone in ATM-Zellen einpacken und via ATM auf die Reise schicken. Am Zielort macht dann ein weiterer ATM-IP-Router wieder traditionelle Datenpakete daraus, die wie gewohnt über das Campusnetz zugestellt werden. Konkret beginnt dieser Schritt für das Wissenschaftsnetz, das die deutschen Universitäten verbindet, in den nächsten Wochen. In den RZ-News wird über diesen Meilenstein ausführlich berichtet.

Nach und nach wird sich ATM dann bis in die einzelnen Gebäude erstrecken. Damit wird der Gebäudeverkehr nach wie vor auf Ethernet/IP-Ebene abgewickelt, der Backbone des KLICK jedoch wird in den nächsten Jahren Schritt für Schritt von FDDI auf ATM migrieren. Wenn dann ATM-Komponenten in den Gebäuden stehen, wird es auch möglich sein, einzelne Benutzermaschinen direkt an ATM anzuschließen, sofern der Bedarf dafür überhaupt vorhanden ist.

Diese Vorgehensweise erlaubt es, die Verkehrsbeziehungen zwischen einzelnen Gebäuden optimal zu entzerren. Für Institute, die über mehrere Standorte verteilt sind, kann das Rechenzentrum dann logische Querleitungen mit festen Bandbreiten schalten, ohne daß neu verkabelt werden muß. Gleichzeitig wird der Backbone dadurch entlastet.

ATM ist derzeit auch das einzige Protokoll, das große Geschwindigkeiten sowohl im Nahbereich als auch im Fernbereich ermöglicht. Schon aus diesem Grund empfiehlt sich ATM als richtige Wahl für die Zukunft.

Zum Vergleich noch eine Übersicht über die verschiedenen im Einsatz befindlichen Techniken zur Datenübertragung:

Netztechnik Typische Distanzen Übertragungsleistung
Ethernet200m bis 500m 10 Mbit/s
FDDI100km100 Mbit/s
ATMmehrere 100km155 Mbit/s oder 200 Mbit/s, Labor: 2,4 Gbit/s


ATM an der Fridericiana
Die Erprobung von ATM-Techniken kann nur dann erfolgen, wenn man die Laborumgebung eines eigenen kleinen Testnetzes möglichst schnell verläßt und mit anderen Partnern kommuniziert. Daher war es nur logisch, daß das Rechenzentrum frühzeitig für die Universität einen ATM-Anschluß an das Netz der Telekom beantragte. Damit war die Fridericiana die erste baden-württembergische Universität mit einem ATM-Außenanschluß und derzeit noch immer die einzige, deren Anschluß regulären Vertragsbedingungen genügt. Daher kann zu jedem beliebigen Partner eine Verbindung aufgebaut werden, ohne daß ein spezielles Projekt vorliegen muß. Lediglich die anfallenden Verbindungsgebühren an die Telekom müssen bezahlt werden. Diese Möglichkeit wurde bereits mehrfach von diversen Kooperationspartnern der Universität Karlsruhe in Anspruch genommen.

Der Verbindungsaufbau nach außen ist derzeit freilich noch ein wenig umständlich. Rechtzeitig vorher wird an die Telekom ein Fax geschickt, das die gewünschten Verbindungsdaten enthält. Falls zum fraglichen Zeitpunkt entsprechende Bandbreite vorhanden ist, wird die Verbindung von der Telekom manuell geschaltet. Der Grund dafür ist, daß entsprechende Software, die ein automatisches Wählen bei Bedarf unterstützt, noch nicht in einer heterogenen Umgebung zuverlässig funktioniert. Hier und bei der fairen Verteilung der verfügbaren Bandbreiten sowie entsprechenden Abrechnungsmodellen ist noch erhebliche Forschungsarbeit in der Informatik zu leisten. Vorstellbar ist beispielsweise das computergesteuerte Versteigern von Kapazitäten im Mangelfall an den Meistbietenden.

Da unser ATM-Zugang mit dem Campusnetz verbunden ist, besteht für alle Forschungsgruppen an der Universität die Möglichkeit, über das bestehende Datennetz per ATM mit Partnern (national oder international) zu kommunizieren. Das Rechenzentrum ist gerne bereit, bei Bedarf Verbindungen zu schalten bzw. zu beantragen. Die anfallenden Verbindungsgebühren müssen allerdings vom Institut übernommen werden; das Rechenzentrum übernimmt bereits die Finanzierung des Anschlusses.

Bandbreitenreservierung über das Campusnetz kann, wie oben bereits ausgeführt, nicht vorgenommen werden. Allerdings ist auf KLICK im Regelfall genügend Reserve vorhanden, so daß an dieser Stelle keine Probleme auftreten werden. Unsere bekannten Teleseminare mit der Universität Freiburg haben dies eindrucksvoll bestätigt. Die IP-Pakete aus dem Institutsnetz werden bei Bedarf via ATM und nicht über die Standard-Außenanbindungen zum Ziel geschickt. Alternativ kann auch eine Workstation ins RZ verlegt werden und dort direkt an den ATM-Switch angeschlossen werden. Wenn Sie an der Nutzung unseres ATM-Anschlusses interessiert sind, möchte ich Sie bitten, sich mit mir in Verbindung zu setzen.

Abschließend folgt nun der Netzplan des derzeitigen Zustandes unseres ATM-Netzes. Ich möchte allerdings darauf hinweisen, daß sich dieses Netz natürlich im permanenten Umbau befindet und die Konfiguration sich daher ständig ändert. Da auf fast allen beteiligten Switches bereits die NUI 3.1 implementiert ist, funktioniert hier bei Bedarf der Verbindungsaufbau bereits vollautomatisch - ohne vorherigen Anruf beim Operateur.


Das neue Breitbandwissenschaftnetz B-WiN

Dr. Bruno Lortz

Im April geht aller Voraussicht nach das neue B-WiN des DFN-Vereins in Betrieb. Dieses Netz beruht auf der modernen ATM-Technik (ATM: asynchronous transfer mode). Über dieses Netz wird zunächst ausschließlich TCP/IP angeboten und somit stellt es den Backbone für den wissenschaftlichen Teil des deutschen Internets dar. Wichtig für die Universität ist, daß an dieses Netz Anschlüsse mit einer Kapazität von 34 Mbit/sec möglich sind. In Zukunft sollen auch 155 Mbit/s angeboten werden.

In der Anfangsphase werden nach derzeitiger Planung neben der Universität Karlsruhe weitere 42 Wissenschaftseinrichtungen mit 34 Mbit/s angeschlossen werden, darunter alle Universitäten des Landes. Diese Einrichtungen können aus der beiliegenden Karte entnommen werden. Die Kommunikation mit Partnern an diesen Institutionen wird dann auf eine neue Qualitätsstufe gehoben.

Ferner ist die Struktur des Netzes in erster Näherung aus der Karte gut ablesbar. An den eingezeichneten Standorten befinden sich in den Räumen der Telekom ein ATM-Switch und ein Router. An den Switch angeschlossen sind dieser Router, die jeweils nahegelegenen Wissenschaftseinrichtungen sowie die Übergangsleitungen zu den benachbarten Telekom-Switches. Bei der Telekom Karlsruhe sind die Universitäten Karlsruhe, Freiburg, Mannheim, Heidelberg, Kaiserslautern und Saarbrücken an den Switch angebunden sowie die Übergangsleitungen nach Stuttgart und Darmstadt.

Das Netzmanagement wird zunächst bewußt einfach gehalten: der Datenverkehr aller lokal angeschlossenen Einrichtungen wird über den Switch erst an den Telekom-Router geleitet, der dann für jedes IP-Paket entscheidet, über welche WAN-Leitung es zum nächsten Telekom-Router (via die zwei jeweils beteiligten Switches) geleitet wird. Dort beginnt das Spiel erneut. Somit erhöht sich die Anzahl der dazwischenhängenden Router (und damit der sogenannte hop-count) erheblich. Erst später werden zwischen den Routern virtuelle Verbindungen eingetragen werden, um die Verkehrslast zu optimieren.

Die Struktur des Backbones ist jedoch nicht näher bekannt, denn sie kann sich auch ändern. Damit ist auch die Leistungsfähigkeit nicht immer voll vorhersehbar. Zumindest am Anfang haben auch die Verbindungen im Backbone eine Kapazität von 34 Mbit/s - genauso viel wie die Zubringerleitungen. Aus diesem Grunde ist der mittlere Durchsatz eines Anschlusses vertragsgemäß auf 16 Mbit/s beschränkt. Bei Bedarf kann diese Beschränkung durch den DFN-Verein auch erzwungen werden, da ATM eben Verkehrsmanagement erlaubt. Damit hat sich die Kapazität unserer Außenanbindung im ungünstigsten Fall vervierfacht, im günstigsten Fall jedoch verachtfacht.

Das neue Netz erlaubt natürlich auch einen Übergang in das alte WIN, so daß die Konnektivität zu den übrigen Partnern erhalten bleibt. In absehbarer Zeit wird das alte WIN völlig im neuen B-WIN aufgehen, da das B-WIN auch Anschlüsse mit niedrigerer Leistung (2 Mbit/s oder gar 64 kbit/s) zuläßt. Damit entfällt die alte X.25-Funktionalität, die seit längerem nur noch eine untergeordnete Rolle spielte.

Erfreulich für uns ist, daß wir schon vor dem offiziellen Start dabei sind: Ab dem 16. Februar führt der DFN-Verein einen Abnahmetest für das B-WiN durch, an dem sich die Universität Karlsruhe beteiligen wird. Sobald die ersten Funktions- und Lasttests erfolgreich abgeschlossen sind, werden die am Test beteiligten Installationen den Benutzerbetrieb vom WiN auf das B-WiN umstellen. Dies wird voraussichtlich noch im Februar erfolgen. In dieser Pilotphase können naturgemäß noch kleinere Probleme auftreten, für die wir schon jetzt um Verständnis bitten: das Ergebnis der leistungsfähigeren Anbindung sollte es wert sein. In der Versuchsphase haben wir Kontakt mit dem DFN-Testzentrum in Erlangen. Ich gehe daher davon aus, daß alle Probleme schnell gelöst werden.

Was ändert sich für die Benutzer?
In der Regel ändert sich für die Benutzer nichts - Sie können die Umstellung also einfach beruhigt beobachten. Lediglich bei Auslandsverbindungen kann es bei einigen Betriebssystemen zu Problemen kommen (HP-UX, einige PC-Betriebssysteme), wenn nämlich die TCP/IP Konstante TTL (time to live) zu klein gewählt ist. Diese Konstante gibt an, wieviele Router auf dem Weg zum Ziel durchlaufen werden dürfen. Und da im B-WIN nun mehr Router beteiligt sind, reicht die TTL möglicherweise nicht mehr bis zu entfernten Orten jenseits des Großen Teichs. Dieses Problem tritt übrigens auch heute schon gelegentlich auf. Die TTL-Konstante sollte mindestens 60 betragen. Das Rechenzentrum wird rechtzeitig einen Lösungsvorschlag erarbeiten. Bedenken Sie aber, daß Ihre Partneranlage im Ausland das gleiche Problem haben kann und daher nicht mehr den Weg zurückfinden kann.

Was tun bei Problemen?
Wenn Sie Probleme mit dem B-WiN haben, sprechen Sie uns bitte an. Wir sind an allen Informationen, die mit dem Breitbandwissenschaftsnetz in Zusammenhang stehen, sehr interessiert.

Ansprechpartner:
Erik Weber, Tel. -2066, Email: Erik.Weber@rz.uni-karlsruhe.de,
Dr.Bruno Lortz, Tel. -4030, Email: Lortz@rz.uni-karslruhe.de.


Karlsruher WWW-Server weiterhin auf Erfolgskurs

Ulrich Weiß

Der Karlsruher World Wide Web-Server hat sich in den letzten Monaten als gute Informationsquelle erwiesen. Daß er nicht nur lokale Bedeutung hat, sondern bisweilen sogar bis ins All reicht (siehe RZ-News 11/95), bestätigen die bis zu 30.000 Anfragen pro Tag. Den steigenden Verlauf der Zugriffe für die offiziellen Bereiche der Universität, des Rechenzentrums und des Campusinformationssystems NICK über die letzten 13 Monate, zeigt Abbildung 1.

 Abbildung 1

Von besonderem Interesse waren dabei neben der Einstiegsseite vor allem die Startseite der Virtual Library. Dahinter verbirgt sich eine Sammlung deutscher Datenquellen, die bereits seit ihrer Erstellung am Karlsruher Rechenzentrum verwaltet wird. Diese Sammlung deutscher Datenquellen ist ein Teilgebiet der globalen World Wide Web Virtual Library, die über http://www.w3.org/hypertext/DataSources/bySubject/Overview.html erreichbar ist und als eine der umfassendsten Zusammenstellungen im WWW gilt. Die ständig wachsende Zahl an Einträgen der nach der Library of Congress Classification gegliederten Sammlung verdeutlicht die große Resonanz von Informationssuchenden auf diese in Deutschland einmalige Zusammenstellung.

Mit den "German News" beherbergt der Karlsruher WWW-Server ein weiteres Highlight. Diese täglichen Nachrichten werden an der Universität Ulm gesammelt und in Karlsruhe automatisch im World Wide Web publiziert. Die Abbildung 2 zeigt, daß neben der Hotlist und der WWW-Seite "In die große Weite Welt" das campusweite Informationssystem (NICK) mit seiner Einstiegsseite einen weiteren Anziehungspunkt darstellt.

 Abbildung 2

Unterscheidet man nach Herkunft der Anfragen, so kommen durchschnittlich 80 Prozent aller Requests aus dem deutschsprachigen Raum. Anfragen aus den USA bilden die Hälfte der verbleibenden 20 %, gefolgt von Zugriffen aus dem europäischen Umland. Betrachtet man die Herkunft aller lokalen Anfragen an den WWW-Server, so führen während des Semesters die NICK-Terminals im Rechenzentrum, der Universitätsverwaltung und der Universitätsbibliothek diese Hitliste an. Sie werden gefolgt von den beiden Studentenmaschinen (rzstud), auf die derzeit 9000 Studierende Zugriff haben.


Von A nach B mit WWW

Ralf Wigand, Ulrich Weiß

Karlsruher Stadtkarte "online"

Wo ist doch gleich die Hirschstraße? Und wie heißt die Straße bei der Schauburg? Wir wissen zwar nicht, was Ihr Apotheker in solchen Fällen empfiehlt, aber vielleicht versuchen Sie es mal mit der amtlichen Stadtkarte im WWW. Hier reicht bereits die Eingabe der ersten paar Buchstaben des Straßennamens, und mit einem Klick erhalten Sie den entsprechenden Kartenausschnitt geliefert.

 Abbildung 1

Die Realisierung dieses Projektes ist einer Kooperation des Rechenzentrums mit der Stadt Karlsruhe, genauer gesagt, mit dem Vermessungs- und Liegenschaftsamt, zu verdanken. Bei der Umsetzung waren einige Aspekte besonders zu berücksichtigen. So sollte die Ladezeit für einzelne Kartenausschnitte möglichst klein gehalten werden, was nur durch eine Verringerung der Bildauflösung zu erreichen ist. Andererseits durfte die Qualität nicht übermäßig leiden, denn was nützt die beste Karte, wenn nichts mehr darauf zu erkennen ist? Im gefundenen Kompromiß wurden Kartenausschnitte zu je 2x2 km mit 300 dpi digitalisiert und nachbearbeitet, so daß die Bildgröße stets bei 300 kByte liegt. Da die deutschen Umlaute noch nicht bis zu jedem Browser durchgedrungen sind, wurde das digitalisierte Straßenverzeichnis an die “Computerwelt” angepaßt und die deutschen Umlaute nach ae etc. gewandelt.

Nachdruck und Vervielfältigung sind nicht gestattet. Auch ein Einzelausdruck mit anschließendem Zusammenkleben dürfte sich als aufwendig erweisen, zumal die Karte für wenige Mark bei der Stadtinformation am Rondellplatz erhältlich ist.

Und wo gibt's das ganze?
Entweder direkt unter:
http://www.uni-karlsruhe.de/cgi-bin/stadtplan oder im Campusinformationssystem NICK unter "Informationen Karlsruhe" (wo auch sonst?).

Um einen kleinen Eindruck zu vermitteln, was unter anderem im “Netz der Netze” mittlerweile möglich ist, soll eine Suche nach der Durlacher Allee als Beispiel dienen.

Nach dem Aufruf der Startseite und der Eingabe von “Durlach” werden als Suchergebnis alle Straßen im Stadtbezirk Karlsruhe angezeigt, die mit “Durlach” beginnen, und dazu alle Quadrate, die die Straßen auf der Originalkarte (Abbildung 2) durchqueren.

 Abbildung 2

Nun können Sie entweder auf den Straßennamen klicken, um den ersten Kartenausschnitt abzurufen, oder Sie wählen direkt eines der Quadrate an. Wir klicken in diesem Beispiel 'mal auf den Namen “Durlacher Allee” und rufen damit das Quadrat K11 ab.

 Abbildung 3

Zur weiteren Navigation stehen nun mehrere Möglichkeiten zur Verfügung. Entweder läßt sich mittels der Pfeile (Abbildung 3, oben) einer der seitlich anschließenden Kartenausschnitte auswählen, oder aber automatisch der nächste Ausschnitt, den die gesuchte Straße durchquert. Zur Orientierung und Einordnung des Kartenausschnitts in die Gesamtkarte werden die angezeigten 4 Quadrate mit ihren Bezeichnungen oberhalb des Ausschnitts angezeigt. Daran läßt sich leicht erkennen, daß sich der Ausschnitt mit der Durlacher Allee (K11) unten links befindet, und tatsächlich - da verläuft die Durlacher Allee.


IBM3090: die letzten hundert Tage

Prof. Dr. G. Schneider

Seit geraumer Zeit wird in den RZ-News immer wieder darauf hingewiesen, daß unser Dinosaurier, die IBM3090, nach langen Jahren treuer Dienste Ostern 1996 abgeschaltet wird. Unser neuer Parallelrechner bietet ein Vielfaches an Rechenleistung (auch im Skalarbereich) und die noch auf der 3090 befindlichen Serverdienste sind bereits auf UNIX-Systeme verlagert worden. Nur damit auch die Benutzer reibungslos migrieren können, ist die Maschine noch in Betrieb. Die wichtigsten Auswirkungen der Abschaltung für die einzelnen Benutzer sind:

Archiv
Die 3090 steuerte bisher den Roboter und verwaltete die Datensicherung (ADSM für UNIX- Rechner) und das Bandarchiv (ASM2). Der Umzug der Datensicherung auf UNIX-Systeme ist für den Benutzer nicht sichtbar, ein Vorteil des Client-Server-Modells bei ADSM. Die im ASM2 archivierten Daten können nicht einfach umziehen. Hier muß der Benutzer selbst die Migration vornehmen, in das Langzeitarchiv, das nun ebenfalls von ADSM verwaltet wird. Für die ADSM-Archiv-Funktion steht ein eigener Rechner zur Verfügung. Die Vorgehensweise bei der Migration ist in der Dezemberausgabe der RZ-News ausführlich beschrieben worden: auf der 3090 werden die Daten aus ASM2 mit den vertrauten Kommandos zurück auf Platte geschrieben, dann per ftp auf ein UNIX-System verlagert, welches Zugriff auf den ADSM-Archivserver hat. Von dort werden dann die Daten per ADSM-Kommandos in das neue Archiv verlagert.

Auch wenn die Daten dann möglicherweise auf Kassetten abgelegt werden, die drei Schubfächer von den alten entfernt im Roboter liegen, so läßt sich diese Migration leider nicht vom RZ automatisch für alle Benutzer durchführen - der Grund liegt in den völlig anderen Fileformaten. Nutzen Sie bitte die Gelegenheit, dabei gleich Ihre alten Datenbestände zu durchforsten. Nicht alle alten Dateien eignen sich zur sinnvollen Archivierung unter ADSM. Bewährte JCL-Kommandodateien werden nach der Abschaltung der 3090 beispielsweise wertlos.

Wenn Sie mehrere zusammengehörige Dateien in ein tar-File packen und dies archivieren, machen Sie uns (weniger Dateien in der ADSM-Datenbank = bessere Performance) und sich selbst (weniger Dateien = größere Übersichtlichkeit) das Leben etwas leichter.

Mail
Die 3090 war bis zum 7. Januar 1996 ein BITNET-Knoten. Die Verbindung zum BITNET ist jedoch seit diesem Tag mit der Stillegung der Heidelberger MVS-Anlage unterbrochen. Um weiter Mail für ''user@ dkauni2'' zustellen zu können, brauchen wir aber keine Infrastruktur neu aufzubauen - es genügt ein Eintrag am DEARN (dem zentralen deutschen BITNET-Knoten), daß jegliche Mail an ''user@dkauni2'' statt dessen an ''user@rz.uni-karlsruhe.de'' zu senden ist.

Wenn Sie Ihre an ''user@rz.uni-karlsruhe.de'' adressierte Mail jedoch auf einer anderen Maschine als der IBM3090 empfangen, dann richten Sie bitte ein ''forward'' auf diese Adresse an der IBM3090 ein. (UCLA-Menü u.f) Das ist nötig, weil der Eintrag beim DEARN nicht auf Mail wirkt, die an ''user@ ibm3090.rz.uni-karlsruhe.de'' oder an ''user@ibm3090. rz.uni-karlsruhe.d400.de'' adressiert ist, diese wird wie bisher auf die IBM3090 ausgeliefert. Teilen Sie uns bitte mit, wenn Sie diesen Forward neu bzw. nach dem 6. Dezember 1995 eingerichtet haben, damit wir diese Änderung in unserer Maildatenbasis nachziehen und somit ''Mailhops'' eingespart werden (einfach gemäß Notiz im Forward-Menü verfahren).

Auf der IBM3090 kann Mail ansonsten weiter empfangen werden - bis der Nutzerbetrieb etwa zu Ostern eingestellt wird. In Vorbereitung dieser Abschaltung haben wir allen Benutzern, die lediglich einen Account auf der IBM3090 besitzen, einen Account auf einem der RZ-Workstationpools bzw. der rzstud1 eingerichtet, der ab Tag X die entsprechende Mail auffangen wird. Bitte beantragen Sie rechtzeitig das Nutzungsrecht an diesem Account, bzw., falls Sie Ihre Mail auf einer selbstverwalteten WS empfangen wollen, teilen Sie uns die entsprechende Email-Zustelladresse mit. Es wird jedenfalls kein Mail verlorengehen.

Auf keinen Fall sollten Sie einen Forward auf ''userid@rz.uni-karlsruhe.de'' einrichten, wenn Sie Ihre Mail noch auf der IBM3090 empfangen - das könnte zu sinnlosen Loops führen. Richten Sie solche Forwards erst ein, wenn Mail für user@rz.uni-karlsruhe. de" wirklich an einer anderen Maschine abgeliefert wird. Im Zweifelsfalle rufen Sie uns an - die "Postmaster" erreichen Sie unter Tel. -2066.

Falls noch nicht geschehen, können Sie bei dieser Gelegenheit auch eine ''schöne'' Mailadresse der Form ''Vorname.Nachname@fakultaet.uni-karlsruhe.de'' beantragen (Formularantrag auf X.500-Eintrag). Diese Adresse macht Sie immun gegen Maschinenabschaltungen und Sie können jederzeit festlegen, auf welchem Rechner Sie Ihre Post zugestellt haben möchten. Dies kann ein professionell gemanagter Rechner des Rechenzentrums sein, aber auch (vorübergehend) ein Rechner im Ausland, wenn Sie dort einen längeren Forschungsaufenthalt durchführen.

Nutzen Sie bitte Email möglichst bald nur noch von Workstations, damit die Abschaltung der IBM3090 Sie nicht mehr betrifft.

Rechenleistung
Vereinzelt wird die 3090 noch als CPU-Server bzw. als Datenbankserver benutzt. Die Rechenleistung eines Workstation-Knotens entspricht mittlerweile jedoch leicht derjenigen der 3090. So bringt es ein Wide-Node des Parallelrechners auf 310 MFLOPS, gut das doppelte dessen, was die 3090 mit VF leistet. Und der Hauptspeicher ist pro Knoten doppelt so groß wie bei der ganzen 3090. Wenn Sie ORACLE nutzen, so steht hierfür ebenfalls bereits ein UNIX-ORACLE-Server bereit. Sprechen Sie mit Herrn Dr. Hanauer, Tel. -2069, Email: hanauer@rz.uni-karlsruhe.de, der Sie bei den möglicherweise auftretenden Umstellungsarbeiten beraten wird. Die Anwendungspakete auf der 3090 sind schon seit einiger Zeit abgemietet und stehen auf den Pools des Rechenzentrums bereit.

Bei dieser Gelegenheit noch ein Hinweis: ein Pool besteht normalerweise aus mehreren/vielen Maschinen. Wenn man sich auf einer Maschine einloggen kann, dann kann man sich automatisch auch auf den anderen einloggen. Falls also ein Rechner zu stark belastet ist, wirkt der Wechsel auf einen anderen im Pool oft Wunder. Sollten wir irgendeinen Aspekt übersehen haben, der Sie aufgrund der Abschaltung der 3090 besonders trifft, so setzen Sie sich bitte mit uns in Verbindung (beispielsweise über den Institutspaten). Möglicherweise können wir das Problem rechtzeitig entschärfen.


US-Konnektivität - zum wiederholten Mal

Prof. Dr. G. Schneider

Seit einigen Wochen ist der Durchsatz zu zahlreichen Rechnern in den USA wieder merklich schlechter geworden. Zeitweise ist die Güte einer Verbindung, insbesondere zum interaktiven Arbeiten, schlichtweg unbrauchbar. Betroffen hiervon sind vor allem Verbindungen zu Partnern, die in USA von MCI versorgt werden.

Zur Erinnerung: das amerikanische Internet, das früher von der NSF betrieben wurde, wurde im April 1995 aufgelöst und von mehreren kommerziellen Providern übernommen. Jeder dieser Provider betreibt seine eigene Netzstruktur und schließt an diese Kunden an. In Washington und in San Francisco sind die großen Knotenpunkte, die die verschiedenen Providernetze miteinander verbinden. Zahlreiche Universitäten sind offenbar am Netz von MCI angeschlossen.

Die Universität Karlsruhe bezieht ihre internationale Konnektivität, wie alle baden-württembergischen Universitäten und Fachhochschulen, aufgrund eines Rahmenvertrages des Ministeriums für Wissenschaft und Forschung vom DFN Verein. In einer kürzlich erfolgten Presseerklärung des Ministerpräsidenten anläßlich der neuen Datenautobahn im Ländle wurde ausdrücklich gesagt, daß dies auch in Zukunft so bleiben wird.

Im vergangenen Jahr verfügte der DFN-Verein nur über eine 1,5 Mbit/s-Verbindung (Düsseldorf-Princeton) zum ESNET, von dem aus über ANS dann MCI erreichbar war. Damit entstand ein Flaschenhals, selbst bei nur halb belasteter Strecke. Im Mai diesen Jahres wurde eine 2 Mbit/s-Strecke von Düsseldorf über Aachen und Amsterdam nach New York direkt zu ANS geschaltet, was die Situation insbesondere für den MCI-Zugang zeitweise deutlich verbesserte.

Da eben ein großer Anteil des Netzverkehrs direkt zu MCI ging, wurde Mitte des Jahres eine Verbindung ab Düsseldorf direkt zu MCI geordert. Von Seiten MCI soll die DFN-Nachfrage nach einer 8 Mbit/s-Verbindung abgelehnt worden sein, lediglich 4 Mbit/s waren willkommen. Aufgrund von Bereitstellungsproblemen auf den transatlantischen Kabeln sollten zunächst 2 Mbit/s auf einem alten und später weitere 2 Mbit/s auf einem neuen Seekabel, dem TAT12 geschaltet werden. Seit der Bestellung vergingen über 140 Tage, ohne daß die Verbindungen bereitgestellt wurden. Die Verzögerungen sollen ausschließlich auf der anderen Seite des Atlantik verursacht worden sein - offenbar ist dort auch nicht alles Gold, was glänzt. Zur Weihnachtszeit konnte dann zunächst die zweite Leitung in Betrieb genommen werden. Sie wies allerdings eine hohe Paketverlustrate auf, so daß die Internet-Dienste davon nicht profitieren konnten. Die erste Leitung war noch nicht avisiert.

Zum Jahresende 1995 war es dann doch soweit: die lange geplanten und dringend von den Nutzern benötigten 4 Mbit/s zu MCI stehen endlich bereit. Für den erfahrenen Netznutzer stellt sich als nächstes die Frage, was der MCI-Backbone an Leistung bietet; ob insbesondere die vollen 4 Mbit/s durchgereicht werden können. Darauf haben wir allerdings überhaupt keinen Einfluß mehr.

In diesem Zusammenhang möchte ich auch auf einen Artikel von Herrn Prof. Zorn und Herrn E. Friedrich hinweisen, der im Oktober in der Zeitschrift "iX" erschienen ist. Hier wurden verschiedene Provider miteinander verglichen und dabei hat sich gezeigt, daß auch in USA diverse Flaschenhälse zu finden sind, die von Deutschland aus eben nicht zu beeinflussen sind. Einige Sonderdrucke dieses Artikels sind bei mir noch vorrätig. Früher konnten die Ursachen für Klagen leicht lokalisiert werden - fast immer war eine mangelnde Konnektivität an das amerikanische Internet der Grund. Mittlerweile ist das Problem nicht mehr so leicht zu lokalisieren, aufgrund der wesentlich komplexeren Struktur jenseits des großen Teichs. Zwar genügt der Anschluß an einen Provider, um gemäß der Internetphilosophie mit allen am Netz angeschlossenen Rechnern kommunizieren zu können. Allerdings hat ein Provider kein allzu großes Interesse, einen konkurrierenden Provider mit allzu großer Bandbreite ohne finanzielle Kompensation an die eigene Infrastruktur anzuschließen. Daher werden an den Übergängen bewußt Flaschenhälse eingebaut.

Bei der Auswahl des für die eigenen Zwecke am besten geeigneten Providers muß man jetzt prüfen, wo die meisten eigenen Partner angeschlossen sind und welche Wege mit welcher Kapazität dorthin führen. Unter Umständen ist es nötig, mit mehreren Providern Verträge abzuschließen.

Die Problematik, die sich für die Wissenschaft und Forschung durch eine mangelhafte Konnektivität ergibt, wurde von der Universität auf den DFN-Mitgliederversammlungen immer wieder mit Nachdruck deutlich gemacht. Dies hat letztendlich auch dazu geführt, daß innerhalb eines Jahres die Bandbreite in die USA von 1,5 Mbit/s auf 7,5 Mbit/s erhöht wurde - und zwar mit Leitungen zu verschiedenen Providern in den USA. Die derzeitige Konnektivität setzt sich demnach wie folgt zusammen:

1,5 Mbit/s zu Esnet
2 Mbit/s zu ANS
4 Mbit/s zu MCI

Die Verkehrsströme zu den anderen Providern werden über diese Verbindungen entsprechend der Auslastung in den nächsten Wochen noch optimiert. Außerdem wird auf Drängen der Universität Karlsruhe die Leistungsfähigkeit der jeweiligen Verbindungen vom DFN-Verein jetzt auch überwacht, indem die ftp-Raten zu ausgewählten Rechnern regelmäßig überprüft werden. Diese offiziellen Zahlen können Sie von jeder UNIX-Workstation aus mittels finger qos@noc.dfn.de | more abfragen und mit Ihren eigenen Erfahrungswerten vergleichen.

Wenn Sie Durchsatzprobleme zu Rechnern haben, so teilen Sie uns dies auch weiterhin mit, aber bitte nicht nur lapidar mit Sätzen wie `die US-Verbindung ist schlecht', sondern nennen Sie konkret den Rechner, den Sie erreichen möchten. Dann können wir überprüfen, ob von deutscher Seite überhaupt etwas verbessert werden kann. Sollte Ihr Partner nämlich Kunde bei einem Zwerg-Internet-Provider sein, der über eine schwache Leitung an einen weiteren Klein-Provider angeschlossen ist, der sich wiederum hinter einem der großen versteckt, so gibt es für uns kaum Lösungsmöglichkeiten. Der gestiegene Netzverkehr sorgt aber auch dafür, daß solche Bandbreiten auch benötigt werden. Die Ursache dafür ist zum einen das bekannte WWW, wo man per Mausklick Daten bewegen kann, zum anderen aber auch die stark gestiegene Anzahl von Benutzern. Es ist wie im wirklichen Leben: je mehr Autobahnen es gibt, desto mehr wird auch gefahren....


Eine neue Variante an der Fridericiana - US-Netzverbindung über XLINK

Prof. Dr. G. Schneider

Trotz aller Bemühungen des DFN, ausreichende Kapazität in das amerikanische Internet bereitzustellen, kam es in der Vergangenheit immer wieder zu deutlichen Engpässen. Gerade bei Forschungsprojekten und Kooperationen, bei denen erhebliche Drittmittelsummen eingesetzt werden, ist eine solche Behinderung mehr als ärgerlich. Das Rechenzentrum bietet daher allen Forschungsgruppen, die über zusätzliche Kapazitäten verfügen müssen, an, diese Kapazität über XLINK zu kommerziellen Tarifen zu besorgen. Das Verkehrsaufkommen wird gemessen und abgerechnet. Da wir das Kontingent en gros einkaufen, sind entsprechend günstige Tarife möglich. Wir gehen derzeit von einem Preis von DM 3,- pro Mbyte aus. Konkret befindet sich im Rechenzentrum ein Netzsegment, das direkt mit XLINK verbunden ist. Alle in diesem Netzsegment befindlichen Rechner sind somit über XLINK mit der Außenwelt verbunden, aber direkt (ohne Volumengebühr) über das Campusnetz KLICK erreichbar.

Es genügt daher, einen Rechner der Forschungsgruppe im Rechenzentrum aufzustellen, wo er an dieses Netzsegment angeschlossen wird. Das Management des Rechners verbleibt voll und ganz in der Hand des bisherigen Systemadministrators. Um via XLINK in die Welt zu gehen, reicht es, sich auf diesem Rechner (beispielsweise via telnet) vom Arbeitsplatz an der Universität aus einzuloggen. Bitte bedenken Sie, daß jeder, dem Sie ein Login auf einem solchen Rechner einräumen, praktisch einen Blankoscheck zum Erzeugen von Netzlast hat - und diese Netzlast wird in DM (real money!) abgerechnet! Wenn Sie unser Angebot annehmen wollen, dann setzen Sie sich bitte mit Herrn Dr. Lortz, Tel. -4030, email: lortz@rz.uni-karlsruhe.de oder mit mir in Verbindung.

In einer zweiten Phase ist geplant, einen Rechner des Rechenzentrums in diesem Netzsegment aufzustellen, über den dann ein benutzerspezifisches Accounting möglich ist. Die Software wird jedoch erst entwickelt und ist bei TCP/IP nicht ganz unproblematisch in der Erstellung. Für Interessierte sei hier die entsprechende Netztopologie dargestellt:


Der Internet Software-Shop der ASK: Lizenzsoftware aus dem Netz - schnell, direkt, preiswert

Dr. Dietmar Waudig

http://www.ask.uni-karlsruhe.de
Die neue Adresse für Ihren Softwareeinkauf

Der Internet Software Shop der ASK bietet Ihnen genau diese Möglichkeiten. Marktgängige Softwareprodukte können online über das weltweit größte Computernetz Internet bestellt und direkt auf den eigenen Arbeitsplatzrechner geladen, installiert und sofort in Betrieb genommen werden.

Der Internet Software-Shop der ASK basiert auf einem World Wide Web (WWW)-Server, der durch die Verknüpfung mit einer ORACLE-Datenbank und einem UNIX-Filesystem um zusätzliche Funktionalität erweitert wurde. Die Internet Software Shop der ASK bietet Ihnen:

Vergleichen Sie unsere Konditionen - Sie werden überrascht sein! Der Internet Software-Shop reduziert den Aufwand für Produktion, Verpackung und Distribution erheblich. Dies ermöglicht uns, Ihnen die Software im Internet Software-Shop zu Konditionen anzubieten, die weit unter dem sonst üblichen liegen. Zudem werden Lizenzen, Datenträger und Dokumentation der einzelnen Softwareprodukte jeweils separat gehandelt. Sie können auch einzeln bestellt werden. Sie bezahlen immer nur das, was Sie auch wirklich benötigen. Derzeit werden Produkte folgender Softwarehersteller angeboten:

Abschlüsse mit Computer Associates, Symantec und Claris/Apple stehen kurz bevor. Das Produktangebot wird ständig erweitert, wobei zukünftig auch stärker fachspezifische Anwendungssoftware berücksichtigt werden wird. Die ASK nimmt Ihre Vorschläge für neue Softwareprodukte gerne entgegen. Sie können diese der ASK auch direkt über die Homepage des Internet Software-Shops mitteilen.

Was ist notwendig, um im Internet Software Shop einkaufen zu können? Sie benötigen: einen Arbeitsplatzrechner mit Internetzugang sowie einen geeigneten WWW-Clienten wie NCSA Mosaic oder Netscape. Der Zugriff ist, abgesehen von den Übertragungsgebühren, für Sie kostenlos. Für das Bestellen und Downloaden benötigen Sie eine Nutzerkennung und ein Paßwort. Beides erhalten Sie von der ASK. Das Antragsformular finden Sie im Internet Software-Shop oder können es bei der ASK anfordern.

Wer kann im Internet Software-Shop einkaufen? Im letzten Jahr hat die ASK mehr als 25.000 Softwarelizenzen überwiegend im technisch-wissenschaftlichen Bereich über das Internet verkauft. Mittlerweile stehen Produkte zu den günstigen ASK-Konditionen den unterschiedlichsten Nutzergruppen zur Verfügung:

Softwaretalente für elektronische Software Edition gesucht
Viele Hochschulautoren sind bereit, ihre hochwertige Spezialsoftware gegen eine gewisse Aufwandsentschädigung an Dritte abzugeben. Hierzu hatten Sie bisher aber nicht die Möglichkeit, da dies für Sie mit einem beträchtlichen Vertriebs- und Abrechnungsaufwand verbunden ist. Die ASK bietet Softwarenentwicklern die Möglichkeit, im Rahmen der elektronischen Software-Edition ihre Software gegen Gebühr über den elektronischen Software-Shop zu publizieren und dem immer größer werdenden Nutzerkreis des Internets zugänglich zu machen. Interessenten setzen sich bitte direkt mit der ASK in Verbindung. Die elektronische Software Edition ist ein modernes Publikationsforum für hochwertige Spezialsoftware sowohl für technisch-wissenschaftliche Anwendungen als auch für den Einsatz in der Lehre und in der Ausbildung. Ein Herausgebergremium renommierter Experten aus Hochschule und Wirtschaft sichert die Qualität der angebotenen Programme.

Schrittweise Ausgliederung der Softwaredistributionsaktivitäten in die ASKnet GmbH
Die bundesweiten Softwaredistributionsaktivitäten der ASK haben mittlerweile einen solchen Umfang angenommen, daß die Universität Karlsruhe verwaltungstechnisch und haushaltsrechtlich in einer auf Dauer untragbaren Weise belastet wird. Die elektronischen Softwaredistributionsaktivitäten werden daher schrittweise von der eigens für diesen Zweck gegründeten ASKnet GmbH übernommen und weitergeführt.

ASK-Projektbüro
c/o Universität Karlsruhe
Englerstr. 14
76128 Karlsruhe
Telefon: +49-721-608-2691
Telefax:+49-721-695639
Email: office@ask.uni-karlsruhe.de

Software-Shop unter http://www.ask.uni-karlsruhe.de/


MasPar noch nötig?

Prof. Dr. G. Schneider

Der Wartungsvertrag für den MasPar-Parallelrechner läuft zum 5.3.1996 aus. Ein neuer Wartungsvertrag (auch wenn er beispielsweise nur über eine Laufzeit von 12 Monaten abgeschlossen wird) ist vom Rechenzentrum alleine nicht mehr finanzierbar. Daher wird die MasPar ab 6.3.1996 im wartungslosen Zustand noch einige Zeit weiterbetrieben werden. Erfahrungsgemäß wird dies jedoch nicht lange möglich sein, da wir schon häufiger Hardware-Störungen hatten. Es muß daher mit einer baldigen Abschaltung der MasPar (evtl. schon im März) gerechnet werden.

Aufgrund der Inbetriebnahme des wesentlich leistungsfähigeren IBM-Parallelrechners erscheint uns die MasPar auch als verzichtbar.

Sollten Sie jedoch einen dringenden Grund für den gesicherten Weiterbetrieb der MasPar haben, so setzen Sie sich bitte mit Herrn Gernert (Tel. -4861, Email: gernert@rz.uni-karlsruhe.de) in Verbindung. Sobald wir einen Überblick über die Anzahl der wirklich betroffenen Nutzer haben, können wir konkrete Aussagen über die Aufteilung der Wartungskosten machen.


Anwendungssoftware


Erste Fortran-Anwendungen auf dem IBM RS/6000 SP


Michael Hennecke

1. Die Problemstellung
Das erste auf dem Parallelrechner getestete Anwendungsprogramm ist ein Fortran 90 Produktionscode, der numerisch die Zeitentwicklung eines Markov-Prozesses berechnet. Das untersuchte Modellsystem hat N mögliche Zustände, die Wahrscheinlichkeiten für Übergänge zwischen diesen Zuständen sind durch eine (dicht besetzte) Übergangsmatrix mit N mal N Einträgen festgelegt. Studiert werden soll das Konvergenzverhalten dieses stochastischen Prozesses, dieses wird beschrieben durch den Abstand der Potenzen der Übergangsmatrix vom (hier exakt bekannten) Grenzwert.

Das auf dem Parallelrechner berechnete System hat N=2**15 Zustände, die zugehörige Übergangsmatrix würde bereits 8 GB benötigen. Daher ist eine direkte Berechnung von Potenzen dieser Matrix praktisch unmöglich (die 72 Knoten der Maschine besitzen zusammen 16,5 GB Hauptspeicher). Glücklicherweise kann die Übergangsmatrix jedoch als Produkt von 15 Matrizen ausgedrückt werden, in denen jeweils nur 3 Diagonalen besetzt sind. Diese benötigen daher zusammen weniger als 15*3*N Worte oder 11 MB. Sie sind im Programm als Objekte des folgenden Fortran 90 TYPEs implementiert:

TYPE trans_matrix
INTEGER :: n, d, s
DOUBLE PRECISION, POINTER :: upper(:) ! SIZE d
DOUBLE PRECISION, POINTER :: diag (:) ! SIZE n
DOUBLE PRECISION, POINTER :: lower(:) ! SIZE d
END TYPE trans_matrix
TYPE(trans_matrix) :: t_matrix_1, ... , t_matrix_15


Die Potenzen der Gesamtmatrix können nun zeilenweise bestimmt werden: wird eine Zeile der Einheitsmatrix nacheinander mit diesem 15 Matrizen multipliziert, so ist das Ergebnis die entsprechende Zeile der vollen Matrix, nach weiteren 15 Schritten ergibt sich die zweite Potenz, und so weiter. Da alle Zeilen unabhängig voneinander bearbeitet werden können, ist das Verfahren auch sehr einfach parallelisierbar: jeder Prozessor berechnet alle Zeitschritte für einen Teil der Zeilen und bestimmt die resultierenden Vektor-Normen. Diese werden abschließend in einer globalen Reduktion zu der gesuchten Matrix-Norm zusammengesetzt und ausgegeben. Die 15 Matrizen werden in diesem SPMD-Programm natürlich auf jedem Prozessor repliziert, ebenso der beim Programmstart berechnete Grenzwert.

2. Theoretische Performance-Abschätzungen
Der rechenintensive Kern des Programms ist die Multiplikation eines Zeilenvektors mit einer Matrix des obigen Typs. Diese Berechnung ist in Fortran 90 einfach als

vec2 = vec1 * t_matrix


formulierbar, wenn der intrinsische Operator "*" mit einer Prozedur zur Multiplikation eines Vektors mit Matrizen dieses Sparse-Matrix-Typs überladen wird. Diese Prozedur führt im Wesentlichen drei Operationen durch (N=trans_matrix%n ist die Länge der Hauptdiagonalen, D=trans_matrix%d die Länge der Nebendiagonalen, und S=trans_matrix%s deren Abstand von der Hauptdiagonalen):
vec2( 1: N)=vec1( 1: N)*t_matrix%diag (1:N)
vec2(S+1:S+D)=vec2(S+1:s+D) +
vec1( 1: D)*t_matrix%upper (1:D)
vec2( 1: D)=D)=vec2( 1: D) +
vec1(S+1:S+D)*t_matrix%lower (1:D)
Das sind eine Vektormultiplikation der Länge N und zwei Vektortriaden der Länge D, mit verschiedenen D (zwischen N/2 und N) für verschiedene Matrizen. Um eine bessere Ausnutzung des Cache zu erreichen wurden die obigen drei Operationen des Originalprogramms so umgeschrieben, daß das Nachladen der VEC2 Felder für die Vektortriaden vermieden wird:

vec2( 1:S)=vec1( 1 :S )*t_matrix%diag ( 1 :S ) +
vec1( 1+S:S+S)*t_matrix%lower( 1 :S )
vec2(S+1:D)=vec1(S+1 :D )*t_matrix%diag (S+1 :D ) +
vec1(S+1+S:D+S)*t_matrix%lower(S+1 :D ) +
vec1(S+1-S:D-S)*t_matrix%upper(S+1-S:D-S)
vec2(D+1:N)=vec1(D+1 :N )*t_matrix%diag (D+1 :N ) +
vec1(D+1-S:N-S)*t_matrix%upper(D+1-S:N-S)

Diese geblockte Variante benötigt zwar die gleiche Anzahl von floating-point Operationen wie die obige Diagonalen-Form (nämlich N Multiply- und 2*D Multiply-Add-Operationen), aber 4*D weniger Speicherzugriffe:

Statt N+2*D Store- und 2*N+6*D Load-Operationen sind nur noch N Store- und 2*N+4*D Load-Operationen erforderlich. Der Wert von D liegt zwischen N/2 und N, woraus sich für einen Wide-Node des Parallelrechners (POWER2 Model 591) eine theoretische Spitzenleistung von 132..140 MFLOPS für die Diagonalen-Variante und 185..220 MFLOPS für die geblockte Variante ergibt.

Diese theoretischen Maximalwerte sind für die ThinNodes2 des Parallelrechners (POWER2 Model 390) lediglich um das Verhältnis der Taktfrequenzen kleiner: 114..121 MFLOPS für die erste und 160..190 MFLOPS für die zweite Variante.

3. Reale Ergebnisse für einen Prozessor
Die oben angegebenen Maximalwerte werden in realen Anwendungen selten erreicht, da sie voraussetzen, daß alle Daten im Cache liegen. Müssen die Daten erst aus dem Hauptspeicher in den Cache geladen werden, so ist bei Wide Nodes mindestens mit einem Leistungsabfall um den Faktor 3 zu rechnen (ein Beispiel für die Vektortriade ist im Beitrag ``Leistungsdaten der IBM SP'' der RZ-News vom Dezember zu finden), bei ThinNodes2 um den Faktor 6. Folgende Zeiten wurden für die Berechnung von 1000 Zeitschritten für eine einzelne Zeile gemessen:


Knotentyp Diagonal-Variante Geblockte Variante
Wide143 Sek.105 Sek.
33 MFLOPS 45 MFLOPS
24% Max.22% Max
ThinNodes2283 Sek.184 Sek.
17 MFLOPS 26 MFLOPS
14% Max.22% Max.


Diese Tabelle zeigt deutlich den Einfluß der Speicherbandbreite: Die Geschwindigkeit, mit der Daten vom Hauptspeicher in den Cache geladen werden, ist für Wide-Nodes doppelt so hoch wie für ThinNodes2. Dieser Wert bestimmt bei großen, nicht Cache-optimierten Programmen die Geschwindigkeit: dasselbe Programm benötigt auf einem Wide Node etwa die Hälfte der Zeit, die auf einem ThinNode2 erforderlich ist.

Ebenso ist zu erkennen, daß die geblockte Variante etwa 50% schneller ist als die Originalversion, das entspricht in etwa dem Verhältnis der theoretischen Maximal-Leistungen der zwei Varianten.

4. Die parallelisierte Version
Da zum Zeitpunkt des Tests das Parallel Environment noch nicht installiert war, wurde die normalerweise über die Prozeß- oder Task-Nummer gesteuerte Aufteilung der Daten (Zeilen) auf die Prozessoren durch ein Skript realisiert, das statt dessen die Prozessornamen verwendet und daraus die Verteilung der Zeilen auf die Prozessoren generiert. Ergebnisse wurden von jedem Prozessor lokal auf Platte geschrieben und nach der Berechnung von einem seriellen Programmteil eingelesen und weiterverarbeitet.

Es wurde erwartungsgemäß eine perfekte Skalierung beobachtet: Das gesamte Problem mit 16.384 Zeilen wurde auf 32 Wide Nodes in gut 15 Stunden berechnet, auf 48 Wide Nodes in 10 Stunden. (Aus Symmetriegründen muß nur die Hälfte der 32.768 Zeilen berechnet werden).

5. Schlußfolgerungen
Diese Ergebnisse zeigen die sehr gute Eignung des IBM RS/6000 SP für große numerische Anwendungen und insbesondere die Bedeutung der großen Speicherbandbreite der Wide Nodes für nicht speziell optimierte Programme. Eine weitere Optimierung der hier verwendeten Basisoperationen wäre extrem aufwendig, da es sich um Level-1 Operationen (Zahl der Operationen und der Speicherzugriffe proportional zu N) handelt. Ebenso dürfte die Optimierung vieler anderer existierender Anwendungen nur begrenzt möglich sein, solche Programme profitieren besonders von der Architektur der Wide Nodes.

Der Vergleich mit Zeitmessungen von FORTRAN 77 Schleifen für die verwendeten Grundoperationen zeigt außerdem, daß die im Fortran 90 Quelltext verwendeten Konstrukte (benutzerdefinierte Datentypen, Operator-Overloading, Array-Syntax) vom Compiler effektiv umgesetzt werden. Das ist insofern von Bedeutung, als die Formulierung numerischer Algorithmen in Fortran 90 sehr viel kompakter möglich ist als in FORTRAN 77. Hierdurch sind auch die für die Parallelisierung erforderlichen Änderungen schneller lokalisierbar und übersichtlicher zu programmieren, was die Entwicklungszeit deutlich verkürzt.

Die erreichten 22% der theoretischen Maximalleistung für einen einzelnen Prozessor erscheinen zunächst nicht sehr erfolgversprechend. Dieser geringe Wert wird durch die Reduktion des Problems auf die isolierte Berechnung einzelner Zeilen verursacht, da dies weitere Optimierungen verhindert oder zumindest erschwert. Hierdurch wurde aber andererseits auch die einfache Parallelisierung möglich. Diese 22% der für die verwendeten Operationen möglichen Maximalleistung auf 48 Prozessoren wirklich erreicht zu haben, ist ein deutlich besseres Ergebnis: Es wurde für eine reale Anwendung ein Durchsatz von bis zu 2,1 GFLOPS erzielt, und das mit nur minimalen Modifikationen des seriellen Originalprogramms.

Ein weiterer für die Bewertung wichtiger Punkt ist, daß die erzielbaren MFLOP-Raten bei der Verwendung von Sparse-Matrix Techniken oft deutlich kleiner sind als für dicht besetzte Matrizen. Da jedoch die Anzahl der zur Lösung des Problems erforderlichen Operationen ebenfalls viel kleiner ist, ist die Zahl der Operationen pro Sekunde alleine kein Maß für die Zeit, die für die Lösung des Gesamtproblems erforderlich ist. Die Berechnung der 1000 Potenzen einer dicht besetzten Matrix der Dimension 32.768 wäre ohne die Verwendung der (langsamen) Sparse Matrix Operationen unmöglich gewesen.

Ansprechpartner: Michael Hennecke, Tel. -4862, Email: hennecke@rz.uni-karlsruhe.de


Neues von MATLAB/SIMULINK


Dr. Paul Weber

Das aktuelle MATLAB/SIMULINK Programm wurde in 3 Bereichen erweitert bzw. verbessert. Informationen und Dokumentationen findet man im http://www.rz.uni-karlsruhe.de/~MATLAB/matlab_info.html.

1. ODE Suite
Die sogenannte ODE Suite ist eine Sammlung von M-Files, die den Bereich der gewöhnliche Differentialgleichungen innerhalb von MATLAB ergänzt. Hier sind schnellere und leistungsfähigere Algorithmen implementiert worden. Sowohl einen Überblick über die neuen M-Files, als auch einen Report jeweils als PostScripti-Datei findet man in der oben genannten WWW-Seite.

2. SIMULINK Animationsblock
Die SIMULINK Blockbibliothek wurde um einen Animationsblock erweitert. Dieser Block wird dazu benutzt, um auf einfache Weise das kinematische Verhalten des Systems darzustellen. Hier gibt es ebenfalls eine Beschreibung im PostScript Format.

3. CALFEM, eine FE-Toolbox
Die dritte Ergänzung zu MATLAB ist eine Toolbox, mit der einfache Finite-Elemente Probleme berechnet werden können. Die Toolbox heißt "CALFEM" und wurde von der Division of Structural Mechanics der Universität Lund in Schweden entwickelt. Mit der Toolbox können kleinere 2D- und 3D-Probleme statisch und dynamisch gerechnet werden. Ergebnisse lassen sich grafisch darstellen. Das Programm ist meines Erachtens sehr gut geeignet, die Finite-Elemente-Methode zu lernen. Es gibt ein Handbuch zu CALFEM, das bei mir ausgeliehen werden kann.

Ansprechpartner: Dr. Paul Weber, Tel. -4035, Email: Paul.Weber@rz.uni-karlsruhe.de.


Zell-Bibliotheken für CADENCE DFW verfügbar


Dieter Kruk

Die Entwicklung anwendungsspezifischer integrierter Schaltkreise (ASICs) erfolgt in Entwurfsschritten, die von der Logik-Eingabe bis zur Plazierung von Mikro-Bausteinen reichen können. Sofern nicht nur die Simulation auf dem Rechner, sondern die Vergabe eines Herstellungsauftrages an eine IC-Foundry vorgesehen ist, muß der Schaltungsentwurf mit Mikro-Zellen bestückt werden, durch deren Auswahl der Entwickler auch die Entscheidung über die technologische Ausführung eines ASICs trifft. Entsprechende Zell-Bibliotheken zur Verwendung in einer IC-Entwurfsumgebung werden von den IC-Herstellern bereitgehalten. Für Anwender der Entwurfsumgebung CADENCE Design Framework steht ab sofort im Rechenzentrum die Zell-Bibliothek der IC-Foundry ES2 zur Verfügung, die auf der CMOS-Technologie basiert und Elemente mit Rastermaß 1,0 und 0,7 Mikron enthält. Diese Cartridge kann an zugelassene CADENCE-Anwender ausgeliehen werden. Auch bei der Kontaktaufnahme mit ES2 (über EUROPRACTICE) ist das Rechenzentrum behilflich. Da in der Regel nur eine Prototyp-Fertigung in Frage kommt, wird die Teilnahme an einem MPW (Multi Project Wafer) die Regel sein. Das heißt, daß europaweit mehrere Hochschulen gemeinsam einen Wafer in Auftrag geben, da nur so erträgliche Preiskonditionen zu erzielen sind.

Ansprechpartner: Dieter Kruk, Tel. -3785, Email: kruk@rz.uni-karlsruhe.de.


Entflechtung von Leiterplatten - top-CAD 8.0 ist da


Dieter Kruk

Zur interaktiven Entflechtung von Leiterplatten sind in 11 Instituten derzeit 14 Lizenzen des Programms top-CAD im Einsatz, 12 davon unter DOS und 2 wahlweise unter Windows oder DOS. Zur Verwendung unter DOS ist jetzt die (graphisch ebenfalls ansprechend gemachte) Version 8.0 verfügbar.

Aus der Vielzahl der Neuerungen (gegenüber Version 7.10) seien hier die wichtigsten herausgegriffen :

Weitere Information erhalten Sie im WWW unter: Rechenzentrum/Software/Anwendungssoftware/CAD/ CAE-Software/Elektrotechnik/top-CAD. Abschließend sei noch darauf hingewiesen, daß demnächst ein Konverter erhältlich sein wird, mit dem Schaltungen von top-CAD aus mit anderen Softwarepaketen (wie z.B. PSPICE oder VIEWLOGIC) über das einheitliche EDIF-Netzlistenformat ausgetauscht werden können. Das Rechenzentrum wird Sie hierüber an dieser Stelle und im WWW auf dem laufenden halten.

Ansprechpartner: Dieter Kruk, Tel. -3785, Email: kruk@rz.uni-karlsruhe.de.


Mikroelektronik/Mikrosystemtechnik


Dieter Kruk

Übergang von EUROCHIP auf EUROPRACTICE
Entwurfswerkzeuge für die Mikroelektronik wurden in den zurückliegenden Jahren von unserer Hochschule praktisch ausschließlich über EUROCHIP bezogen, einer Einrichtung der EG-Kommission in Brüssel. In den 6 Jahren ihres Wirkens konnte EUROCHIP Software-Tools und Dienstleistungen für die Mikroelektronik en bloc von den Anbietern beziehen und zu tragbaren Konditionen an die europäischen Hochschulen weitergeben. An unserer Hochschule wurden insgesamt 82 Lizenzen Entwurfssoftware von 6 Herstellern an 11 Lehrstühle ausgegeben und auf Institutsrechnern installiert. Es handelt sich um Produkte von SYNOPSYS, CADENCE, META, XILINX, ALTERA und VIEWLOGIC.

Aus Kostengründen konnte die EG-Kommission dieses Modell jedoch nicht fortführen und hat es nicht über den 30.9.1995 hinaus verlängert. Als Nachfolge-Organisation mit geändertem Programm und neuen Konditionen wurde inzwischen die Ausbildungs-Aktion EUROPRACTICE (PRomoting Access to Components, subsystems and microsystems Technologies for Industrial Competitiveness in Europe) ins Leben gerufen, die Entwurfswerkzeuge für anwenderspezifische ICs, für Multi-Chip-Module und für Mikrosysteme europaweit zentral beschafft und an interessierte Hochschulen abgibt. Darüber hinaus bietet EUROPRACTICE auch Dienstleistungen an, wie z.B. die Zusammenfassung von Herstellungsaufträgen für ASIC-Prototypen zu MPWs (Multiple Project Wafers), Einrichten von Lehrgängen und Abhalten von Fachtagungen über Spezialthemen der Mikroelektronik und der Mikrosystemtechnik. Die zentralen Dienststellen hierfür liegen jetzt in Großbritannien, Dänemark und Belgien.

In einer Besprechung der bisherigen EUROCHIP-Nutzer an unserer Hochschule am 22.11.1995 wurde nun beschlossen, die Mitgliedschaft in EUROPRACTICE zu beantragen und den (respektablen) Mitgliedsbeitrag nach einem angemessenen Schlüssel auf die partizipierenden 9 Institute umzulegen. Die Betreuung der Mitgliedschaft liegt bis auf weiteres wieder beim Rechenzentrum.

Die Angebotspalette von EUROPRACTICE wurde nach Verhandlungen mit den Softwareherstellern inzwischen soweit festgelegt, daß erste Druckschriften hierzu eingegangen sind oder bei Bedarf abgerufen werden können. Bitte wenden Sie sich bei Interesse an das Rechenzentrum. Einen ersten Überblick über die Angebote von EUROPRACTICE erhalten Sie auch im WWW unter: Rechenzentrum/Software/Anwendungssoftware/CAD-CAE-Software/EDA-Software.

Ansprechpartner: Dieter Kruk, Tel. -3785, Email: kruk@rz.uni-karlsruhe.de.


Sichern von IBM-3090-Dateien auf CD-ROM


Harald Meyer

Da die Tage der IBM 3090 gezählt sind, sollte man dafür sorgen, daß Quellen- und Datenfiles frühzeitig auf andere Rechner verlagert werden. Files, die derzeit in einer Entwicklungs- oder Produktionsumgebung eingesetzt werden, wird man dabei auf jeden Fall zu einem anderen Rechner transferieren und dort weiterbearbeiten. Etwas mehr Kopfzerbrechen bereiten Files, die nicht mehr ganz 'taufrisch' sind, die aber vielleicht doch noch im einen oder anderen Fall in Zukunft wiederverwendet werden könnten. Zwar wird man aller Voraussicht nach 99% dieser Files nie mehr brauchen ... andererseits... wie's halt so kommt, wird einem dann zwei Wochen nach der 3090-Abschaltung auffallen, daß man das Paket XYZ aus den guten alten MVS-Zeiten doch noch gebrauchen könnte (''hätte ich das bloß nicht weggeworfen...'').

Durch ''Brennen'' einer CD-ROM kann man selbst große Mengen solcher vielleicht einmal wiederverwertbarer 'Altlasten' (Quelltexte, Meßdaten usw.) auf relativ kostengünstige Weise sichern. Das Rechenzentrum bietet für die Institute die Möglichkeit, ihre MVS-Files zum Preis von 59,- DM pro CD-ROM zu sichern. Auf eine CD-ROM passen etwa 650 MB, so daß eine CD-ROM in der Regel ausreichen wird.

Zum bequemen Bearbeiten der MVS-Dateien gibt es ein Dienstprogramm, mit dem die zur Sicherung notwendigen Zwischenschritte erledigt werden können. Nähere Informationen hierzu finden Sie im WWW unter der folgenden

http://www.rz.uni-karlsruhe.de/~Harald.Meyer/mvs2cdrom.html.


Anschluß privater PCs an das KLICK-Netz


Thomas Wälde

Die Verfahrensweise im Hinblick auf die Anschlußmöglichkeit eines privaten PCs an das KLICK-Netz der Universität Karlsruhe (über die serielle Schnittstelle) hat sich ein wenig geändert (siehe RZ-News August 1995).

Bisher wurde eine Diskette für die dazu benötigte Software mitausgeliehen. Da diese Diskette oft durch Unachtsamkeit mit Computer-Viren "`verseucht"' oder aus Vergeßlichkeit nicht mit zurückgegeben wurde, wird diese Diskette nicht mehr mitausgeliehen.

Die dazu benötigte Software gibt es nun auf dem FTP-Server (IP-Name: ftp.rz.uni-karlsruhe.de) des Rechenzentrums der Universität Karlsruhe in dem Directory:

/pub/local/msdos/net/dlink

Die Benutzerkennung dafür ist "ftp" und das Paßwort ist die eigene Email-Adresse (also wie gewohnt).

Zu beachten ist, daß diese Daten im Binary-Modus übertragen werden müssen!

Was sonst noch wichtig und gegebenenfalls zu beachten ist, finden Sie in der Datei "liesmich" in demselben Directory.

Für Leute, die keinen Zugang zum KLICK-Netz der Universität Karlsruhe haben, stehen im Raum -120 des Rechenzentrums an das KLICK-Netz angeschlossene PCs bereit, die außerhalb offizieller Kurse und Übungen frei zugänglich sind.

Ansprechpartner: Thomas Wälde, Tel. -4736, Email: waelde@rz.uni-karlsruhe.de.


Numerische Untersuchungen zum Temperaturverhalten der Kuppel der Frauenkirche zu Dresden


Stefan Wälde

Im Rahmen einer Vertiefungsarbeit am Institut für Massivbau und Baustofftechnologie, Abteilung Baustofftechnologie der Universität Karlsruhe ist in Zusammenarbeit mit dem Rechenzentrum der Universität Karlsruhe eine numerische Simulation des Temperaturverhaltens der Kuppel der Frauenkirche zu Dresden erstellt worden. Am Institut für Baustofftechnologie werden die thermisch-hygrischen Vorgänge der aus Elbsandstein zusammengesetzten Kuppel der Frauenkirche zu Dresden, die im 2. Weltkrieg infolge Brandeinwirkung einstürzte, untersucht. Während in früheren Zeiten solche Aspekte nicht untersucht und analysiert werden konnten, hat man heute die Möglichkeit unter Computer- und Maschineneinsatz solche Einflußfaktoren und ihre Bedeutsamkeit für das Bauwerk näher zu untersuchen.

 Frauenkirche zu Dresden

Für die Vertiefungsarbeit bildete ein Winter- und Sommertag dafür die Berechnungsgrundlage, aufgrund der unterschiedlichen Auswirkungen der Außentemperatur und der Strahlungsintensität auf die Oberfläche der Kuppel. Für den jeweiligen Winter- oder Sommertag ist eine Betrachtung über 86.400 sec. (1 Tag), unter den oben genannten Randbedingungen, realisiert worden.

Bei der Generierung der Kuppelgeometrie wurde auf alte, noch vorhandene Pläne zurückgegriffen, aus denen ersichtlich wurde, daß sich die Kuppel aus einem Zylinder und einem Rotationsellipsoid zusammensetzt. Zur Umsetzung der Geometrie wurde als Preprocessor das CAE-Paket I-DEAS verwendet.


Temperaturverteilung an einem Wintertag um 11.35 Uhr

Dabei sind insgesamt 14.700 Knoten und 12.000 Elemente generiert worden. Die numerische Berechnung wurde mit dem FE-Programm ABAQUS durchgeführt. Die Gründe für die Wahl von ABAQUS als Solver liegen in der Überschaubarkeit des Input-Decks und der Kontrollmöglichkeiten basierend auf Konvergenzkriterien und Fehlermeldungen in den Ergebnisdateien, die stan-dardmäßig während eines ABAQUS-Laufs erzeugt werden. Hinzu kommt noch die einfache Einbindung von Fortran 77-Programmen in das Input-Deck von ABAQUS. So wurde zum Beispiel die Intensität der Sonneneinstrahlung auf die jeweilige Elementoberfläche durch ein Fortran 77-Unterprogramm in der USER-Subroutine DFLUX beschrieben. Die zeitliche Abhängigkeit des Sonnenstands und die nichtlineare Geometrie der Kuppel erforderten den Einbau dieses Unterprogramms in die USER-Subroutine DFLUX. Sie dient der Beschreibung eines nicht gleichmäßig verteilten Wärmeflusses in ein Element. In diesem Unterprogramm wurde der Vektor der Sonneneinstrahlung und der Normalenvektor des jeweiligen Elements errechnet. Der von den Vektoren eingeschlossene Winkel bildet als Argument des Cosinus einen Relationswert für die auf das Element bezogene Strahlungsintensität, die über einen Tag als konstant angesehen wurde. Zur Visualisierung der numerisch errechneten Daten wurde ein neues Visualisiertungstool am Rechenzentrum verwendet. Es heißt EnSight und unterstützt die graphische Bearbeitung gewonnener Daten verschiedener FE-Programme unter bestimmten Voraussetzungen. Des weiteren ist die Erstellung von Videosequenzen wesentlich einfacher als bei den anderen, ebenfalls vom Rechenzentrum zur Verfügung gestellten Postprocessing Tools.


Veranstaltungen


Blockvorlesung Programmieren II: Ausbildung am Großrechner und am UNIX-System


Prof. Dr. W. Schönauer

Blockvorlesung in der Woche vom 26.02.-02.03.1996 (zweite Ferienwoche), 1020 + 1021 (2 + 1 SWS)

Zeit: Mo. - Fr. 8.30 - 10.00, 10.30 - 12.00,
14.30 - 16.30 Uhr
Ort: Otto-Lehmann-Hörsaal, Physik-Flachbau


Prof. Dr. W. Schönauer/Hartmut Häfner:

Übungen am UNIX-System
Zeit: Di. - Fr. ab 17.00 Uhr, Samstag morgen Bildschirmeinweisung am Großrechner
Ort: RZ, Terminalraum, UG

Inhalt:
Bereitstellung des "Handwerkszeugs" zur effizienten Benutzung des Großrechners IBM3090 und des UNIX-Systems. Es werden skizzenhaft behandelt:
Hardware, Betriebssystem, Assembler, Steuersprache, Programmiersprachen, Dialog, Programmiermethodik, effizientes numerisches Rechnen. Ein handschriftliches Skriptum ist erhältlich bei Kellner + Moessner.
Voraussetzung:
Grundkurs Programmieren oder eigene Programmiererfahrung. Die Beherrschung des UNIX-Systems ist selbst wieder Voraussetzung für die Ausbildung am Supercomputer. Keine Voranmeldung erforderlich.

Nächster Termin: 23. - 28.09.1996


Supercomputing: Ausbildung am Vektorrechner und Parallelrechner


Prof. Dr. W. Schönauer

Blockvorlesung in der Woche vom 11. - 16.03.96 (vierte Ferienwoche), 1112 + 1113 (2 + 2 SWS)

Zeit: Mo. - Fr. 8.30 - 10.00, 10.30 - 12.00, Mo. - Do. 14.30 - 16.00 Uhr
Ort: Otto-Lehmann-Hörsaal, Physik-Flachbau

Prof. Dr. W. Schönauer/Hartmut Häfner

Übungen:
Zeit: Mo. 16.30 - 18.00 Uhr und weitere Termine (auch Samstag vormittag)
Ort: RZ, Seminarraum 217, 2. OG und Terminalraum, UG

Inhalt:
Die Vorlesung behandelt die Grundlagen für die effiziente Nutzung von Vektorrechnern und Parallelrechnern (Supercomputern). Es werden die Prototypen des Vektorrechners, des Superskalarprozessors und der daraus aufgebauten Shared Memory und Distributed Memory Parallelrechner vorgestellt. Dann werden für die wichtigsten Aufgaben der numerischen Mathematik die Datenstrukturen und Algorithmen für eine effiziente Nutzung dieser Rechnerarchitekturen behandelt. Es ist beabsichtigt, zwei Vektor-Parallelrechner sowie zwei Parallelrechner im Detail zu diskutieren und in den Übungen zu nutzen (Übungsschein).
Voraussetzung:
Erfahrung mit dem UNIX-System, Fortrankenntnis. Im Sommersemester schließt sich ein Vertiefungspraktikum für Shared und Distributed Memory Supercomputer an. Keine Voranmeldung erforderlich.

Nächster Termin: 07. - 12.10.1996


Anfängerkurs Word für Windows/Version 6.0


K. Rupprecht , Dr. K. Hanauer

Das Rechenzentrum der Universität Karlsruhe veranstaltet Ende Februar 1996 erstmals einen Word-Anfängerkurs.

Der Kurs ist für Personen gedacht, die noch keine bzw. wenig Word-Kenntnisse haben.

Das Einführungsscript "Word für Windows 6.0" wird Ihnen im Kurs ausgehändigt.

Datum: Mo., 26.02. bis Do., 29.02.1996
Zeit: 9.00 bis 12.00 Uhr sowie 14.00 bis 17.00 Uhr
Ort: RZ, Raum -120, UG

Anmeldung: Betriebsauskunft des Rechenzentrums, Herr Weih, Tel. -3751
Hinterlassen Sie bitte Ihre Telefonnummer, damit wir Sie, bei Nichtzustandekommen des Kurses benachrichtigen können. Die Kurse werden nur bei einer Mindestteilnehmerzahl von 10 Personen abgehalten.

Bitte beachten Sie, daß allen Instituten alle Novell-, WordPerfect- und Microsoft-Produkte zu sehr günstigen Konditionen zur Verfügung stehen. Bestellungen nimmt Herr Markert, Akademische Software Kooperation (ASK) der Universität Karlsruhe, Tel. -3802, Email: markert@ask.uni-karlsruhe.de, entgegen.


WordPerfect für Windows/Version 6.1 Kurse für Anfänger und Fortgeschrittene


K. Rupprecht , Dr. K. Hanauer

Das Rechenzentrum der Universität Karlsruhe veranstaltet im März 1996 WordPerfect-Kurse.

Der Anfängerkurs ist für Personen gedacht, die noch keine bzw. wenig WordPerfect-Kenntnisse haben oder bisher mit WordPerfect für DOS gearbeitet haben und jetzt auf WINDOWS umsteigen möchten.

WordPerfect-Anfängerkurs
Datum: Di., 19.03. bis Fr., 22.03.1996
Zeit: 9.00 bis 12.00 Uhr sowie 14.00 bis 17.00 Uhr
Ort: RZ, Raum -120, UG
Anmeldung: Betriebsauskunft des Rechenzentrums, Herr Weih, Tel. -3751

Der Fortgeschrittenen-Kurs untergliedert sich entsprechend folgender Themenschwerpunkte in vier Kursabschnitte:

Montag, 25.03.1996 von 9.00 - 12.00 Uhr
Tabellen, Tabellenkalkulation, Formblätter erstellen (z.B. Rechnungsvordrucke)

Montag, 25.03.1996 von 14.00 - 17.00 Uhr
Formeln

Dienstag, 26.03.1996 von 9.00 - 12.00 Uhr
Verzeichnisse (Inhalts-, Literatur-, Index-), Spalten, Grafiken

Dienstag, 26.03.1996 von 14.00 bis 17.00 Uhr
Makros

Hier besteht für Sie die Möglichkeit an dem Kurs lediglich zu der Zeit teilzunehmen, in der das für Sie interessante Thema behandelt wird. Denken Sie bitte daran, bei der Anmeldung den bzw. die Fortgeschrittenenkurse anzugeben, die Sie besuchen möchten.

WordPerfect-Fortgeschrittenenkurs
Datum: Mo., 25.03. und Di., 26.03.1996
Zeit: 9.00 bis 12.00 Uhr sowie 14.00 bis 17.00 Uhr
Ort: RZ, Raum -120, UG
Anmeldung: Betriebsauskunft des Rechenzentrums, Herr Weih, Tel. -3751

In den Kursen wird Ihnen, neben anderen Kursunterlagen, das "WordPerfect 6.0 - Nachschlagen"-Handbuch gratis ausgehändigt. Dieses Handbuch kann auch für das Arbeiten mit WordPerfect unter der Version 6.1 problemlos weiterverwendet werden.

Anmeldung zum Anfänger- und/oder zu den Fortgeschrittenen-Kursen: Betriebsauskunft des Rechenzentrums, Herr Weih, Tel. -3751

Hinterlassen Sie bitte Ihre Telefonnummer, damit wir Sie, bei Nichtzustandekommen des Kurses benachrichtigen können. Die Kurse werden nur bei einer Mindestteilnehmerzahl von 10 Personen abgehalten.

Bitte beachten Sie, daß allen Instituten alle Novell-, WordPerfect- und Microsoft-Produkte zu sehr günstigen Konditionen zur Verfügung stehen. Bestellungen nimmt Herr Markert, Akademische Software Kooperation (ASK) der Universität Karlsruhe, Tel. -3802, Email: markert@ask.uni-karlsruhe.de entgegen.


Einführungskurs SAS


Dr. Klaus Braune

Der nächste SAS-Einführungskurs (Statistical Analysis System) findet vom 11.3. bis 15.3.1996 statt. Ziel des Kurses ist das Kennenlernen und Anwenden von SAS. Zur Teilnahme am Kurs sind grundlegende Kenntnisse in einer Programmiersprache erforderlich. Die erworbenen Kenntnisse können am Großrechner, an einer Workstation oder am PC eingesetzt werden.

Die statistischen Grundlagen sind nicht Lehrstoff des Kurses.

Zeit: 9.00 bis 12.00 Uhr sowie 14.00 bis 17.00 Uhr
Kursbeginn: Montag, 11.3.96, 9.00 Uhr
Ort: RZ, Raum 217, 2. OG
Kursende: Freitag, 15.3.96, 17.00 Uhr

Vorläufiges Programm:
Montag 11.3.1996
9.00 - 9.45 Uhr Begrüßung der Teilnehmer, Vorstellung des Programms, Überblick über Statistikprogramme am Rechenzentrum
10.00 - 12.00 Uhr Das SAS-System, SAS/DMS (Bildschirmoberfläche für SAS mit eigenem Editor), Literatur
14.00 - 15.00 Uhr Aufbau von SAS-Programmen, Variablen, Daten, Dateien
15.00 - 17.00 Uhr Betreute Übung

Dienstag 12.3.1996
9.00 - 10.30 Uhr Eingabe von Daten in SAS
10.30 - 12.00 Uhr Betreute Übung
14.00 - 15.00 Uhr Ausgabe und einfache Auswertungen von Daten
15.00 - 17.00 Uhr Betreute Übung

Mittwoch 13.3.1996
9.00 - 10.15 Uhr Interaktive Dateneingabe, Maskenerstellung (SAS/FSP)
10.15 - 12.00 Uhr Betreute Übung
14.00 - 15.30 Uhr Graphische Darstellung von Daten (SAS/GRAPH) I
15.30 - 17.00 Uhr Betreute Übung

Donnerstag 14.3.1996
9.00 - 10.30 Uhr Graphische Darstellung von Daten (SAS/GRAPH) II
10.30 - 12.00 Uhr Betreute Übung
14.00 - 15.00 Uhr Statistische Prozeduren - Überblick und Beispiel (SAS/STAT)
15.00 - 17.00 Uhr Betreute Übung

Freitag 15.3.1996
9.00 - 10.15 Uhr Überblick über die Möglichkeiten von:

10.15 - 12.00 Uhr Betreute Übung
14.00 - 15.00 Uhr Zusammenfassung der Kursinhalte, Fragen, Abschlußdiskussion ab 15.00 Uhr Betreute Übung


Der Kurs beginnt am Montagvormittag im Raum 217 des Rechenzentrums. Abhängig von der Teilnehmerzahl finden die übrigen Kurse im Raum 217 oder im Raum -112 (im Untergeschoß des Rechenzentrums) statt. Die Übungen finden im Raum -112 statt.

Die Teilnehmerzahl ist auf 25 begrenzt. Ab Mitte Januar liegen zur Anmeldung vorbereitete Listen in der Betriebsauskunft aus (Herr Weih, Tel. 3751, Raum -156, UG)

Weitere Informationen zu SAS und zum SAS-Kurs finden Sie im WWW unter dem Zugriffspfad "Zentrale Einrichtungen/Rechenzentrum/Software/Anwendungssoftware/Statistik/Software/SAS", (Direktzugriff)

Literatur:
SAS Version 6 - Eine Einführung mit Beispielen. Skript zum Kurs
Flury, Riedwyl: Angewandte multivariate Statistik. Stuttgart / New York 1983.


Einführungskurs LaTeX


Dr. Klaus Braune

LaTeX ist ein auf TeX aufbauendes Makropaket, mit dessen Hilfe sich auf relativ einfache Weise Dokumente mit mathematischen Formeln, Abbildungen und Querverweisen erstellen lassen.

In der Zeit vom 4.3. bis 8.3.1996 findet ein Einführungskurs in LaTeX statt. Ziel des Kurses ist es, LaTeX kennenzulernen und die Erstellung von Texten mit Hilfe von LaTeX zu erlernen. Die Übungen zum Kurs finden an PCs statt. Für die Teilnahme am Kurs sind keine Vorkenntnisse erforderlich. Die im Kurs erworbenen Kenntnisse können bei der Textverarbeitung an PCs ebenso angewendet werden wie auf Workstations und Großrechnern.

Kursbeginn: Montag, 4.3.96, 9.00 Uhr,
Ort: RZ, Raum 217, 2. OG
Kursende: Freitag, 8.3.96, 17.00 Uhr
Behandelte Themen:

Der Kurs findet in Raum 217 bzw. 114 (Übungen) des Rechenzentrums statt. Die Teilnehmerzahl ist auf 50 begrenzt. Zur Anmeldung liegen ab Mitte Januar vorbereitete Listen in der Betriebsauskunft aus (Herr Weih, Tel. -3751, Raum -156, UG).

Weitere Informationen zu TeX und zum LaTeX-Kurs finden Sie im WWW unter dem Zugriffspfad "Zentrale Einrichtungen/Rechenzentrum/Software/Anwendungssoftware/Textverarbeitung und Textsatz/ TeX" (Direktzugriff)

Literatur:
M. Gossens, F. Mittelbach, A. Samarin: The LaTeX Companion. Addison-Wesly, 1994 (auch in deutsch verfügbar: LaTeX-Begleiter)
H. Kopka: LaTeX. Band 1 (Neuauflage 95/96)
L. Lamport: LaTeX, A Document Preparation System, User's Guide and Reference Manual. 2. Auflage, Addison-Wesly, 1994
H. Partl, E. Schlegl, I. Hyna: LaTeX-Kurzbeschreibung. Im Rahmen der verschiedenen TeX-Installationen des RZ als LaTeX-Datei verfügbar.


RZ-Publikationen

Ursula Scheller

Frederik Ramm
"Recherchieren und Publizieren im WORLD WIDE WEB"
Vieweg& Sohn Verlagsgesellschaft mbH
Braunschweig/Wiesbaden 1995

Das Buch bietet eine umfassende Anleitung für den Umgang mit dem Informationssystem WWW und wurde wegen seiner Übersichtlichkeit und Verständlichkeit u. a. in der ARD-Sendung "Computertreff" am 17.12.95 als einschlägige Lektüre empfohlen.

M. Ehrig, B. Maier
"Fast+Wide-SCSI für HP-Workstations"
Offene Systeme (1995) 4
S. 209 - 216

Gegenstand des Berichts ist die Untersuchung der Einsatzmöglichkeiten einer Fast+Wide-SCSI-Karte eines Fremdanbieters und deren Vergleich mit einer HP-Originalkarte.

Bei Bedarf können Sonderdrucke beim RZ angefordert werden.


Kurz berichtet ...


Nachtrag zum Win95-Artikel in der RZ-News Dezember-Ausgabe/95


Ralf Wigand

Novell-Netzwerkbetreuer, bei denen Windows95-PCs eingesetzt werden, sollen sich der Risiken des Einsatzes bewußt sein, da hier eklatante Sicherheitsmängel vorhanden sind. Näheres auf Anfrage bei Ralf Wigand, Tel. -4868.


Neue CD-Preise


Helmut Korb

Folgende Preise gelten ab 1.1.96 für das Erstellen einer CD:

1Stck. 59,- DM, ab 10 Stck. 49,- DM.

Weitere Infos erhalten Sie bei H. Korb.

Tel. -4041, Email: korb@rz.uni-karlsruhe.de


Personalia

Herr Dr.-Ing. Dipl.-Min. Thomas Herzig arbeitet seit dem 1.1.96 als wissenschaftlicher Angestellter am Rechenzentrum in der Abteilung Betriebssysteme. Er ist neben Frau Dr. Kathan im Bereich AIX tätig und insbesondere für die systemseitige Benutzerunterstützung bei unserem neuen Parallelrechner IBM SP zuständig. Damit ist er, zusammen mit den Kollegen der Abteilung Anwendungssoftware, Ansprechpartner bei der Portierung von Anwendungen auf das SP-System, speziell bei der systemseitigen Optimierung. Sein Arbeitsplatz befindet sich im Raum 311, Tel. -4867, Email: herzig@rz.uni-karlsruhe.de.


Frau Dipl.-Informatikerin Kirsten Glöer arbeitet seit dem 1.1.96 als wissenschaftliche Angestellte am Rechenzentrum in der Abteilung Kommunikation. Innerhalb eines Drittmittelprojekts ist sie für den Bereich katastrophengeschützte Datensicherung dezentraler Daten zuständig. Ihr Arbeitsplatz befindet sich im Raum 214, Tel. -4037, Email: Gloeer@rz.uni-karlsruhe. de.


8. Februar 1996