Please activate JavaScript!
Please install Adobe Flash Player, click here for download

Nova Acta Leopoldina Band 110 Nummer 377

scheiden sich grundsätzlich von den anderen; denn sie sind systematisch verbesserbar. Man weiß genau, welche Methode als nächste anzuwenden ist, und wie der Basissatz zu vergrö- ßern ist, um eine bessere Annäherung an den wahren Wert zu erreichen. Das große Problem ist, dass dabei der Aufwand für ein Molekül bestimmter Größe erheblich steigt. Noch gra- vierender ist, dass auch derAnstieg der Rechenzeit bei Vergrößerung des Moleküls zunimmt. Die Rechenzeit quantenchemischer Verfahren steigt exponentiell mit der Systemgröße (zahl der Atome bzw. der Elektronen im Molekül) an. Während bei DFT-Rechnungen eine Verdop- pelung der Molekülgröße zu vier- bis achtfacher Rechenzeit führt, steigt die Rechenzeit bei der CCSD(T)-Methode, die für eine breite Klasse von Problemen Ergebnisse mit chemischer Genauigkeit liefert, etwa um den Faktor 100 (außerdem steigen auch die Ansprüche an andere Rechnerressourcen). Die überwindung dieses Skalierungsproblems, insbesondere die Ent- wicklung linear-skalierender Methoden(CLAEySSENS et al. 2006), ist ein aktuelles Forschungs- ziel. Aus dem Skalierungsverhalten und den unterschiedlichen Rechenzeiten für ein System bestimmter Größe ergeben sich grob folgende Größenbereiche für die Anwendung der ver- schiedenen Modelle Genaue Ab-initio-Rechnungen, CCSD(T) 10–100 Atome Dichtefunktionaltheorie, MP2 100–1000 Atome Semiempirisch (MNDO, AM1, ...) 1000–10000 Atome Kraftfelder 10000–100000 Atome Je größer die Systeme sind, umso geringer sind Genauigkeit und zuverlässigkeit der anwend- baren Methoden. Kraftfelder können zwar für einen kleinen Bereich von Systemen, für den sie parametrisiert sind, genau sein, es mangelt aber an übertragbarkeit der Potentiale und an der Anwendbarkeit auf chemische Reaktionen. Ein weiterer gravierender Nachteil ist, dass man keine Wellenfunktion erhält, mit der Eigenschaften des Systems berechnet werden kön- nen. Einen Ausweg aus dem Größen-Genauigkeits-Dilemma bieten Teile-und-Herrsche-Stra- tegien, die auf folgenden Beobachtungen beruhen: (1.) Die höchste Genauigkeit („high level“-Modell) ist nicht für alle Punkte einer Potential- energiefläche erforderlich. (2.) Die höchste Genauigkeit ist oft nur für einen Teil des Systems erforderlich, z. B. für das Reaktionszentrum, an dem chemische Bindungen geknüpft oder gebrochen werden. Die erste Beobachtung wird in Multilevel-Methoden, für die das G(aussian)3-Modell (POPLE 1999) ein Beispiel ist, genutzt. Die Lokalisierung von Minima und Sattelpunkten, die eine Berechnung von Energie und Kräften für viele Punkte der Fläche erfordert, erfolgt mit einem weniger anspruchsvollen „low level“-Modell. Für die so bestimmte Struktur, d. h. für einen einzelnen stationären Punkt der Potentialfläche, wird dann eine Energieberechnung mit dem „high level“-Modell durchgeführt. Die zweite Beobachtung führt zu „high-level“:„low-level“-Hybridverfahren (SAUER und SIERKA 2000). Man führt eine Rechnung für das Clustermodell C mit der „high-level“-Methode durch und definiert eine „high-level“-Korrektur, ΔEHL-cor, als Differenz der Ergebnisse einer „high-level“- und einer „low-level“-Rechnung für diesen Cluster, ∆EHl-corr(C) = Ehigh(C) – Elow(C). [6] Quantenmechanische Modellierung – Einblicke in die atomaren Details chemischer Systeme Nova Acta Leopoldina NF 110, Nr. 377, 99–117 (2011) 113