Die Forschungen zu Quantencomputern haben seit den 1980er Jahren die theoretischen Perspektiven der Informatik dramatisch verändert. Sie würden durch ihre physikalische Realisierung ungeahnte Rechenleistung ermöglichen und unsere Verschlüsselungssysteme und generell die elektronische Kommunikation umwälzen.
Das vorliegende Lehrbuch gibt eine Einführung in die Theorie des Quantenrechnens, für das sich auch die englischen Begriffe Quantum Computation oder Quantum Computing etabliert haben. Der Autor wählt dazu einen elementaren und theoretisch schlanken Zugang, der mathematische und physikalische Kenntnisse voraussetzt, wie sie in den ersten zwei Semestern eines natur- oder ingenieurwissenschaftlichen Studiums gelehrt werden, insbesondere lineare Algebra und komplexe Zahlen. Die benötigten mathematischen Begriffe sind im Anhang erläutert.
Es sind momentan noch keine Pressestimmen vorhanden.