Das Buch gibt einen umfassenden Überblick über die Hardware- und Software-Konzepte, auf denen moderne Rechnersysteme beruhen, von den Arbeitsplatzrechnern bis zu den Supercomputern und den zukünftigen massiv-parallelen Rechnern. Im Anschluß an die Betrachtung der Architektur sequentieller Rechner, ihrer Prozessoren und ihrer Speicherhierarchien werden die Grundlagen für die Parallelarbeit dargelegt. Zunächst werden die Prinzipien der Parallelarbeit im Prozessor behandelt, was zu den VLIW-Maschinen und den superskalaren Prozessoren führt, und die damit verbundenen Compilerprobleme erörtert. Ein Kapitel ist den SIMD-Architekturen in Form der Vektormaschinen oder der Anordnungen gleichartiger Rechnerelemente gewidmet. Ein eigenes Kapitel stellt ausführlich und mit Beispielen die Prinzipien der Datenstruktur-Architekturen und der Sprach-Architekturen dar. Datenstruktur-Architekturen sind dahingehend optimiert, datenparallele Anwendungen mit komplexen Datenstrukturtypen möglichst effizient zu bearbeiten. Sprach-Architekturen dienen der Unterstützung von Sprachen wie Lisp und Prolog. Datenflußarchitekturen werden in einem eigenen Kapitel ausführlich behandelt. Die letzten drei Kapitel sind den Parallelrechnern gewidmet: Aus den Programmiermodellen für massiv-parallele Architekturen werden die verschiedenen Architekturformen abgeleitet. Die Eigenschaften der einzelnen Architekturformen, die zentrale Frage der Kommunikationslatenz und die spezifischen Softwarefragen werden gründlich behandelt. Das Buch zeichnet sich durch eine sehr systematische Darstellung aus sowie auch dadurch, daß nicht nur auf die Hardware-Architekturen eingegangen wird, sondern ebenso sehr auf die relevanten Fragen der Systemsoftware und Programmierung.