Vierzig Jahre, nachdem John von Neumann sein Konzept eines rechnenden, programmgesteuerten Automaten entworfen hat, setzt sich nun in der Informatik die Erkenntnis durch, daß sequentiell arbeitende Rechner für manche Probleme zu langsam arbeiten. Mit vielen, parallel arbeitenden Prozessoren versucht man heutzutage in Multiprozessoranlagen, den "von Neumann-Flaschenhals" zu umgehen. Dabei ergeben sich eine Menge neuer Probleme: Die Aktivität der Prozessoren muß synchronisiert werden, die Daten müssen effektiv verteilt werden und "Knoten" im Datenfluß (hot spots) zwischen den Prozessoren und dem Speicher müssen vermieden werden. Dazu werden Mechanismen benötigt, um auftretende Defekte in ihren Auswirkungen zu erfassen und zu kompensieren, das Gesamtsystem zu rekonfigurieren und alle Systemdaten zu aktualisieren. Bedenken wir noch zusätzlich die Schwierigkeiten, die mit einer parallelen Programmierung der eigentlichen Probleme verbunden sind, so können wir uns nur wundem, wieso wir Menschen "im Handumdrehen" und "ganz natürlich" Leistungen erbringen können, die mit den heutigen Rechnern bisher nicht nachvollziehbar waren. Betrachten wir beispielsweise die Probleme der "künstlichen Intelligenz", besser "wissensbasierte Datenverarbeitung" genannt, so hinken die heutigen Systeme zum Sehen. Hören und Bewegen hoffnungslos der menschlichen Realität hinterher. Weder in der Bildverarbeitung und -erkennung, noch in der Spracherkennung oder in der Robotersteuerung reichen die Systeme in Punkto Schnelligkeit (real-time), Effektivität und Flexibilität (Lernen) oder Fehlertoleranz an die menschlichen Leistungen heran.