Blender:Date:2019/08/30 09:06:06
Technologische Entwicklungen in Künstlicher Intelligenz
Mit Fortschritten in Rechenleistung, Datenverfügbarkeit und Modellarchitekturen entstehen immer leistungsfähigere Systeme, die neue Anwendungsfelder eröffnen und zugleich Fragen nach Transparenz, Sicherheit und verantwortungsvoller Nutzung aufwerfen. Diese Seite gibt einen Überblick über zentrale technologische Grundlagen und aktuelle Entwicklungen der KI.
Frage und Antwort
Nachgefragt
Hey Gemini, was ist Intelligenz?
Antwort
„Intelligenz ist eine vielschichtige kognitive Fähigkeit, die das Verständnis, die Verarbeitung und die Anwendung von Informationen umfasst. Sie ermöglicht es Menschen, Probleme zu lösen, Zusammenhänge zu erkennen, aus Erfahrungen zu lernen und sich an neue Situationen anzupassen.“
[Antwort von Gemini 2.5 Flash]
Künstliche Intelligenz – Was ist das überhaupt?
Der Begriff der Intelligenz wurde lange direkt mit dem Menschen oder anderen Lebewesen in Verbindung gebracht. Selbst der intelligente Sprachassistent Gemini versteht Intelligenz als menschliche Eigenschaft. Um zu verstehen, was genau Künstliche Intelligenz (KI) ist und welche Prozesse dabei im Hintergrund ablaufen, kann ein Vergleich mit menschlicher Intelligenz hilfreich sein.
Grundlage für menschliche Intelligenz ist das Gehirn. Dort arbeiten Milliarden Nervenzellen – sogenannte Neuronen – zusammen. Sie sind über Kontaktstellen, die sogenannten Synapsen, miteinander verbunden. Über diese Synapsen werden Informationen mit Hilfe chemischer Botenstoffe wie Dopamin oder Serotonin von einer Nervenzelle an die nächste weitergegeben. So entstehen Gedanken, Erinnerungen und Gefühle. Lernen manifestiert sich durch Stärkung bzw. Schwächung spezifischer Synapsen. Unsere Erfahrungen, Einstellungen und Charakterzüge finden so ihren Niederschlag in der Mikrostruktur des Gehirns.
Die Künstliche Intelligenz basiert auf einem künstlichen Netzwerk, das grob dem Vorbild des menschlichen Gehirns nachempfunden ist. Auch hier gibt es „Neuronen“, die allerdings keine echten Zellen, sondern elementare Rechenvorschriften sind. Diese nehmen Daten auf, verarbeiten sie und geben Ergebnisse weiter. Statt chemischer Botenstoffe nutzt die KI Rechenoperationen und Zahlenwerte, um zu lernen und Muster zu erkennen. Ein künstliches Neuron hat auch eine „Stärke“ wie eine Synapse. Ein neuronales Netz ist eine Verschaltung sehr vieler solcher Neuronen, deren Stärken anhand von Trainingsdaten auf eine spezielle Aufgabe ausgerichtet werden. Ein so trainiertes Netz kann scheinbar „eigene Entscheidungen“ treffen – auch wenn es letztlich nur nach bestimmten, von Menschen festgelegten Regeln reagiert.
Frage und Antwort
Nachgefragt
Was ist Künstliche Intelligenz?
Antwort
KI beschreibt die Fähigkeit von künstlichen Systemen, also von einer Maschine, kognitive Funktionen auszuüben, die wir mit menschlicher Intelligenz in Verbindung bringen. Ein System gilt als intelligent, wenn es alle der folgenden vier Kernfähigkeiten aufweist: Wahrnehmen (Sensorik), Verstehen (Verarbeitung), Handeln (Aktion) und Lernen. Das neuronale Netz an sich nimmt nicht wirklich wahr, versteht nicht und agiert auch nicht. Anstelle der Wahrnehmung tritt hier die Eingabe von Daten, anstelle des Verstehens die Analyse von – allerdings hochkomplexen – Mustern in den Daten und anstelle der Aktion die Ausgabe des Ergebnisses der Datenanalyse, die eine Handlung des Menschen nach sich ziehen kann. In Robotern werden künstlichen neuronalen Netzen jedoch die Fähigkeit zu Sensorik und zur Aktion verliehen. Dann erst handelt es sich um ein vollständiges KI-System. Insbesondere die Fähigkeit des Lernens ist es, die KI-Systeme von einfachen Computerprogrammen unterscheidet. KI-Systeme analysieren ihren Eingaben selbständig und leiten aus ihnen heraus Handlungsvorschläge ab, wodurch sie sich von starren Systemen unterscheiden, die für ihre Berechnungen immer die vom Programmierer starr vorgegebenen Rechenbefehle benötigen. KI-Systeme können sich dabei durch stetige Anpassungen ihrer „Synapsen“ an neu gesehene Daten flexibel anpassen und auf diese Weise dazulernen.
KI ist älter als 70 Jahre
Mit Aufkommen immer leistungsstärkerer Computer, die immer größere Datenmengen verarbeiten können, der Entwicklung bahnbrechender Algorithmen und hochleistungsfähiger Hardware in den Serverfarmen der Anbieter – vor allem der GPUs (Graphics Processing Units) aus dem Bereich der Computerspiele – sowie einer großen Verbreitung leistungsstarker Endgeräte in Form von Smartphones und Tablets hat KI bis heute in einen Großteil unserer heutigen Gesellschaft Einzug gehalten und reale Anwendungsbereiche in nahezu allen Lebensbereichen gefunden. Das Forschungsgebiet gibt es seit 70 Jahren. Die ersten theoretischen Überlegungen, ob Maschinen „denken“ können, fanden sogar bereits im 18. Jahrhundert statt. Doch bis zum ersten Durchbruch hat es noch viele Jahre gedauert.
Video Vergangenheit, Gegenwart und Zukunft
Leopoldina-Jahresversammlung 2025, Festvortrag von Prof. Dr. Cordelia Schmid: "Künstliche Intelligenz: Vergangenheit, Gegenwart und Zukunft"
Video Die kybernetische Revolution
Leopoldina-Weihnachtsvorlesung 2023, Prof. Dr. Bernhard Schölkopf: "Die kybernetische Revolution"
Als Pionier auf dem Weg zur Künstlichen Intelligenz gilt der britische Wissenschaftler Alan Turing. Sein Konzept des „Imitationsspiels“ (1950) ist heute als Turing-Test bekannt und zeigte erstmals, wie kognitive Prozesse von Maschinen ausgeführt werden können.
Dieser Ansatz gilt als Wegbereitung der Künstlichen Intelligenz – ein Begriff, der 1956 zum ersten Mal auf der „Dartmouth Conference“ verwendet wurde, als mit dem sogenannten „Logic Theorist“ ein Programm geschrieben wurde, das mathematische Lehrsätze beweisen konnte.
Auf Basis der Forschungen des US-amerikanischen Psychologen und Informatikers Frank Rosenblatt, der 1957 das erste künstliche neuronale Netzmodell erfand, zeigten die US-amerikanischen Wissenschaftler David Rumelhart sowie der spätere Physik-Nobelpreisträger Geoffrey Hinton im Jahr 1986, wie solche künstlichen neuronalen Netze durch Fehler-Rückmeldung (Backpropagation) effektiv trainiert werden können und schufen so die Grundlage für moderne Deep-Learning-Systeme.
Der Supercomputer Deep Blue des US-amerikanischen Technologieunternehmens IBM gewinnt 1997 eine Schachpartie gegen den amtierenden Schach-Weltmeister Garri Kasparow. Dieser Sieg gilt als Wendepunkt in der KI-Geschichte und zeigt, dass Maschinen menschliche Entscheidungsfähigkeit in klar definierten Bereichen übertreffen können.
Der IBM-Ingenieur Murray Campbell bewegt einen Stein nach Anweisung des Supercomputers Deep Blue bei der Partie gegen Schachweltmeister Garri Kasparow (links) am 4. Mai 1997 in New York.
Den letztlich entscheidenden Schub bekam KI 2012 mit der Entwicklung und Anwendung künstlicher neuronaler Netze. Insbesondere der Gewinn des ImageNet-Wettbewerbs durch ein von Alex Krizhevsky, Ilya Sutskever und Geoffrey Hinton entwickeltes tiefes neuronales Netz namens AlexNet beschleunigte diesen Schub. Das Modell übertraf alle Konkurrenten in der Bild-Klassifikation und verdeutlichte, dass Deep Learning praktisch anwendbar und deutlich leistungsfähiger als klassische Methoden ist.
Im Laufe der 2010er Jahre setzte schließlich ein rasanter Aufstieg verschiedener KI-Modelle wie GPT-3 oder AlphaFold ein, der dazu geführt hat, dass KI inzwischen in viele gesellschaftliche Teilbereiche vorgedrungen und im Alltag der Menschen angekommen ist.
Frage und Antwort
Nachgefragt
Wieso ging der Physiknobelpreis 2024 an zwei Informatiker?
Antwort
Der Physik-Nobelpreis 2024 wurde überraschend an die KI-Pioniere John J. Hopfield und Geoffrey E. Hinton verliehen. Obwohl ihre Forschung dem Gebiet Informatik zuzuordnen ist, ehrte sie die Jury für die Entwicklung von künstlichen neuronalen Netzwerken, die auf physikalischen Prinzipien basieren. Ihre Modelle, z. B. das Hopfield-Netz und die Boltzmann-Maschine, zeigen, wie sich komplexe Muster in Daten erkennen lassen – ähnlich wie im menschlichen Gehirn. Sie nutzen mathematische Konzepte, die ursprünglich aus der Physik stammen, um Künstliche Intelligenz zu ermöglichen.
Automatisierung, Algorithmen, Künstliche Neuronale Netze Maschinelles Lernen, Deep Learning, Big Data
Mit den technologischen Durchbrüchen der letzten Jahre hat sich auch die öffentliche Debatte zum Thema KI vertieft. Dabei findet immer wieder eine Vermischung verschiedener Begriffe statt, die oftmals miteinander in Verbindung stehen, aber verschiedene Dinge meinen. Insbesondere die Vermischung des KI-Begriffs mit Schlagworten wie Automatisierung, Algorithmen, Maschinellem Lernen oder Deep Learning führt dazu, dass viele Menschen keine klare Vorstellung davon haben, wie KI konkret funktioniert.
Automatisierung
Automatisierung bezeichnet die selbstständige Ausführung von Prozessen und Abläufen durch technische Systeme auf Basis festgelegter Regeln – ohne dass der Mensch unmittelbar eingreifen muss. Im Gegensatz zur Künstlichen Intelligenz folgen automatisierte Systeme dabei starren, vorab programmierten Anweisungen und sind nicht in der Lage, ihr Verhalten durch Lernen aus Daten zu verändern oder zu verbessern.
Algorithmen
Innerhalb eines KI-Systems finden festgelegte mathematische Prozesse statt, mit denen eine bestimmte Anzahl vordefinierter Aufgaben gelöst werden soll. Diesen Prozess bezeichnet man als Algorithmus. Er ist Grundbaustein jeder KI, da er nach vordefinierten Regeln Eingaben in Ausgaben umwandelt.
Künstliche neuronale Netze
Künstliche neuronale Netze haben eine spezielle algorithmische Architektur, die grob dem Aufbau und der Funktionsweise des menschlichen Gehirns nachempfunden ist. Sie bestehen aus einer Vielzahl künstlicher Neuronen, die nicht lineare Funktionen berechnen und in Schichten organisiert und miteinander verbunden sind. Durch diese Struktur können sie Informationen verarbeiten, Muster erkennen und aus Beispielen lernen. Die Berechnung jedes Neurons nutzt einstellbare interne Gewichte, also Zahlen, die im Lernprozess auf die gestellte Aufgabe angepasst werden. So entstehen Netzwerke, die Schritt für Schritt wichtige Merkmale aus den Eingangsdaten herausfiltern und dadurch Aufgaben wie z. B. das Erkennen von bildlichen Kategorien (Bildverstehen) oder das Treffen von Prognosen im medizinischen Bereich übernehmen können.
Maschinelles Lernen
Maschinelles Lernen beschreibt Prozesse, wonach Computer (auch KI-Systeme) mithilfe von Beispielen, die ihnen in Form von Trainingsdaten verabreicht werden, in die Lage versetzt werden, Schlussfolgerungen zu ziehen, ohne explizit dafür programmiert zu sein. Mithilfe eines Algorithmus werden Muster und Korrelationen in großen Traningsdatensätzen erkannt, aus denen heraus Computer Schätzungen über einen Sachverhalt und Prognosen über erwartbare Entwicklungen ableiten. Maschinelles Lernen stellt also vor allem auf die Verarbeitung von Informationen in KI-Systemen ab, wodurch es als Teildisziplin der Künstlichen Intelligenz gesehen werden kann.
Deep Learning
Deep Learning ist ein Teilbereich des maschinellen Lernens, der es ermöglicht, besonders komplexe Daten wie Bilder, Sprache oder Texte effizient zu verarbeiten und zu interpretieren. Solche Modelle basieren auf besonders tiefen künstlichen neuronalen Netzen, das heißt solche mit vielen Schichten von Neuronen. Jede dieser Schichten lernt, abstraktere Merkmale aus den Ausgaben der vorherigen Schicht zu extrahieren. Beim Training des Netzwerks werden die Gewichte der Verbindungen automatisch so angepasst, dass das Modell aus Beispielen lernen und seine Leistung schrittweise verbessern kann.
Big Data
Big Data steht für die riesige Menge an Daten, die von Computern, mobilen Endgeräten und Sensoren gesammelt und der Gesellschaft täglich in verschiedener Form zur Verfügung gestellt wird. Die Daten stammen aus den verschiedensten Teilsystemen unserer Gesellschaft, etwa der Finanzwirtschaft, dem Gesundheitswesen, Online-Shops, Suchmaschinen, sozialen Medien oder Assistenzsystemen. Mithilfe von leistungsstarken Computerprogrammen werden diese Daten ausgewertet und weiter genutzt, etwa für das Training von verschiedenen KI-Systemen. Demnach ist Big Data eine Grundlage dafür, dass Große Sprachmodelle oder andere KI-Systeme funktionieren können.
Generative KI in unserem heutigen Leben
Neben den technologischen Innovationen, insbesondere im Bereich Deep Learning, fußt der „Siegeszug der KI“ vor allem auf der breiten Verfügbarkeit des Internets und auf benutzerfreundlichen Interfaces, also einfachen, intuitiven Oberflächen wie Chatfenstern oder Sprachassistenten, über die KI für die meisten Menschen heute unmittelbar und ohne Vorkenntnisse nutzbar ist.
Video Generative KI und die Zukunft von Intelligenz
Leopoldina-Jahresversammlung 2025, Festvortrag von Prof. Dr. Björn Ommer: "Generative KI und die Zukuft von Intelligenz"
Eine besonders dynamische Entwicklung findet aktuell in der sogenannten generativen KI statt. Sie ermöglicht es, völlig neue Inhalte zu erzeugen – etwa Texte, Bilder, Sprache oder sogar Videos – die menschlichen Produkten zum Verwechseln ähnlich sind. Damit verändert sich nicht nur die Interaktion mit Technologie grundlegend, sondern auch die Art und Weise, wie Inhalte entstehen – von alltäglicher Kommunikation bis hin zur professionellen Medienproduktion. Technisch basieren solche generativen KI-Modelle auf Deep-Learning-Techniken, d. h. künstlichen neuronale Netzen mit vielen Schichten, die große Datenmengen analysieren und daraus lernen. Insbesondere die sogenannten Large Language Models (LLM) haben seit dem Erscheinen des Tools „ChatGPT“ im Jahr 2022 einen neuerlichen Schub bekommen und inzwischen ist der Markt um weitere leistungsstarke Tools wie Perplexity, Gemini oder DeepSeek ergänzt worden.
Generative KI
Damit sind Deep-Learning-Modelle gemeint, mit denen Bilder, Videos und Texte in hoher Qualität generiert werden können, die es so zuvor noch nicht gegeben hat. Die Technik basiert auf lernenden Algorithmen, die aus großen Datenmengen Muster erkennen und daraufhin neuartige Entwürfe produzieren.
Große Sprachmodelle
Dabei handelt es sich um eine Unterart generativer KI-Modelle. Große Sprachmodelle oder Large Language Models (LLM) sind dazu in der Lage, auf Basis menschlicher Eingaben Informationen in Textform bereitzustellen, d. h. diese maschinellen Lernmodelle wurden darauf trainiert, menschliche Sprache zu verarbeiten und zu erzeugen. Es handelt sich dabei um mächtige neuronale Netze, die bis zu einer Billion Parameter aufweisen können und mit riesigen Textmengen verschiedenster Art trainiert werden. Konkret sagt das Modell auf Basis von Sprachmustern, die aus den eingegebenen Textdateien (jeder Art) gelernt werden, für vorgegebene Satzfragmente jeweils das nächste Wort vorher. Das bekannteste LLM, ChatGPT der amerikanischen Firma OpenAI, analysiert hierfür zunächst den Kontext des betreffenden Satzes mithilfe statistischer Verfahren und gibt anschließend ein nach seinen vorberechneten Wahrscheinlichkeiten gewürfeltes Nachfolgewort aus. Auf diese Weise kann es Fragen Wort für Wort statistisch fundiert beantworten und neue Texte produzieren.
Computer Vision
Eine Technologie, mit der Maschinen in die Lage versetzt werden, Informationen aus Bildern und Videos extrahieren zu können (Bildverstehen). Grundlage sind maschinelles Lernen und Deep-Learning-Modelle, die das System mit einer Vielzahl an Bild- und Videodaten trainieren, Details an Bildern identifizieren und klassifizieren bzw. daraus Vorhersagen treffen zu können.
Robotik
Ein interdisziplinäres Feld an der Schnittstelle von Mechanik, Informatik sowie anderen Bereichen, das sich mit der Entwicklung, der Programmierung und dem Einsatz autonomer oder ferngesteuerter Roboter in verschiedenen Bereichen befasst. Roboter sind eigentlich die Vollendung Künstlicher Intelligenz, da in ihnen die lernfähigen Algorithmen mit Sensorik und Aktuatorik ausgestattet werden, die es den Robotern ermöglichen, nicht nur zu rechnen und zu kommunizieren, sondern auch zu handeln. Die Anwendungsbereiche von Robotern wurden in den letzten Jahren stark erweitert – etwa in der Gesundheitsversorgung, der Industrie, der Landwirtschaft oder im Bereich autonomer Mobilität.
KI verstehen
Für Nutzerinnen und Nutzer ist nicht nachzuvollziehen, wie generative KI-Tools ihren Output erzeugen, auf welche Trainingsdaten sie zurückgreifen, und inwiefern die durch sie zur Verfügung gestellten Informationen tatsächlich korrekt und somit verlässlich sind. Im noch jungen Forschungsfeld der erklärbaren KI werden Verfahren entwickelt, die KI-generierte Vorschläge oder Entscheidungen im Nachhinein nachvollziehbar machen sollen. Insbesondere bei Großen Sprachmodellen (LLM) steht es aber vor erheblichen Herausforderungen. LLMs generieren Ausgaben kontextabhängig, wobei sich der relevante Kontext aus dem Prompt – der textuellen Nutzereingabe – sowie dem bereits erzeugten Text ergibt. Ein technologischer Ansatz zur externen Rekonstruktion dieser Kontextbezüge existiert derzeit nicht. Aktuelle Forschungsarbeiten zielen daher darauf ab, LLMs zu Verfahren der Selbsterklärung zu befähigen. Aufgrund ihres rein statistischen Vorhersageprinzips verfügen sie jedoch weder über ein inhaltliches Verständnis noch über tatsächliche Einsicht in ihre internen Entscheidungsprozesse. Entsprechend können Selbsterklärungen sowohl zutreffend als auch frei konstruiert sein. Diese Problematik zeigt: Es ist stets kritisch zu prüfen, in welchen Anwendungsfeldern ein potenzielles Fehlinformationsrisiko akzeptabel erscheint und in welchen eine hohe Transparenz zwingend erforderlich ist.
Video Zeynep Akata im Interview
Die Informatikerin Zeynep Akata forscht auf dem Gebiet der erklärbaren KI und entwickelt KI, die visuelle, sprachliche und konzeptuelle Elemente kombiniert und so ihre Entscheidungen Menschen transparent machen kann. Hierfür erhält sie 2025 den „ZukunftsWissen“-Preis der Leopoldina und der Commerzbank-Stiftung. Im Interview stellt sie sich und ihre Forschung vor und spricht darüber, was die Auszeichnung für sie bedeutet.
Dass Erklärbare KI insbesondere dann einen echten Mehrwert bieten kann, wenn sie mit innovativen Lernansätzen kombiniert wird, zeigt das Beispiel der Verbindung von visuellen, sprachlichen und konzeptuellen Informationen in modernen KI-Modellen. Dabei lernt die KI nicht nur aus Bilddaten, sondern auch durch sprachliche Beschreibungen, z. B. von typischen Merkmalen eines bestimmten Tieres oder Krankheitsbildes. Gerade bei dem sogenannten Low-Shot- oder Zero-Shot-Learning – also Lernen mit wenigen oder ganz ohne spezifische Trainingsbeispiele – müssen KI-Modelle verallgemeinern, Begriffe verknüpfen und auf bestehendes Wissen zurückgreifen. Wenn diese Modelle zusätzlich Sprache oder visuelle Hinweise nutzen, können sie ihre Entscheidungen potenziell besser verständlich machen. Das schafft eine wichtige Voraussetzung für erklärbare KI: In Anwendungen wie der medizinischen Bildanalyse kann die KI nicht nur eine Diagnose stellen, sondern auch visuell oder sprachlich begründen, welche Merkmale zur Entscheidung geführt haben. Solche Ansätze stärken Transparenz und Vertrauen bei den Nutzenden.
Video Explainability in the Era of Foundation Models
Leopoldina-Jahresversammlung 2025, Vortrag von Prof. Dr. Zeynep Akata: "Explainability in the Era of Foundation Models"
Warum KI weniger kann, als ihr Name verspricht
Der weitreichende Einsatz von KI täuscht jedoch leicht darüber hinweg, dass viele Systeme in Wahrheit deutlich weniger können, als es der Begriff ‚Intelligenz‘ vermuten lässt. KI unterstützt den Menschen in bestimmten Bereichen, etwa beim Navigieren im Auto oder dem Erstellen von Texten, ist hier aber auf sein Zutun in Form von konkreten Eingaben (Befehlen) oder Freischalten von Funktionen (z. B. Staumeldungen) angewiesen. Entgegen landläufigen Ängsten und Horrorszenarien aus der Unterhaltungsindustrie existieren KI-Modelle, die ihr Handeln auf einem eigenen Bewusstsein und menschliche Fähigkeiten wie Empathie, Emotionalität oder Kreativität stützen bzw. aus eigenem Antrieb heraus tätig werden, bis heute nur in der Theorie.
Veröffentlicht: September 2025