Der Umfang des Datenmaterials in Wissenschaft und Technik nimmt immer schneller zu; seine Auswertung und Beurteilung erweisen sich zunehmend als die eigentliche Schwierigkeit bei vielen wichtigen Problemen. Dem steht auf der anderen Seite ein seit Jahren ungebrochenes Anwachsen der Rechnerleistung und die zunehmende Verfügbarkeit mächtiger Algorithmen gegenüber, aber es ist oft nicht einfach, von diesen Hilfsmitteln den richtigen und professionellen Gebrauch zu machen. Dieses Buch, entstanden aus der Praxis der Verarbeitung großer Datenmengen, will eine Einführung und Hilfe auf diesem Gebiet geben. Viele der Probleme sind statistischer Natur. Hier ist es sprichwörtlich leicht, Fehler zu machen. Deshalb sind der Erklärung und der kritischen Durchleuch tung statistischer Zusammenhänge auch im Hinblick auf die Praxis ein ange messener Raum gewidmet und ebenso den Monte Carlo-Methoden, welche heute einen verhältnismäßig einfachen Zugang zu vielen statistischen Problemen bie ten. Werkzeuge für die Organisation und Strukturierung großer Datenmengen bilden ein weiteres wichtiges Thema. Dazu gehören auch effiziente Verfahren zum Sortieren und Suchen, welche oft Teil größerer Algorithmen sind. Die Verarbeitung großer Datenmengen hat oft die Extraktion verhältnismäßig weniger Parameter zum Ziel. Hier sind Verfahren wie die Methoden der klein sten Quadrate und der Maximum-Likelihood wichtig, in Verbindung mit effek tiven Optimierungsalgorithmen. Ein weiteres Problem, welches oft unterschätzt wird, ist die Rekonstruktion ursprünglicher Verteilungen aus fehlerbehafteten Messungen durch Entfaltung. Mit der Verfügbarkeit mathematischer Bibliotheken für Matrixoperationen kön nen viele Probleme elegant in Matrixschreibweise formuliert und aufRechnern gelöst werden. Deswegen werden auch die einfachen Grundlagen der Matrixal gebra behandelt.