Wie funktioniert Künstliche Intelligenz? Ein Einblick in maschinelles Lernen, neuronale Netze und LLMs
Ein Einblick in maschinelles Lernen, neuronale Netze und LLMs
Warum das „Wie“ über Vertrauen und Sicherheit entscheidet
Künstliche Intelligenz ist fester Bestandteil unseres Alltags, von Chatbots im Kundenservice bis zu Systemen für komplexe Datenanalysen in Behörden. Die öffentliche Diskussion dreht sich zwar fasziniert um das „Was“ – welche neuen Tools gibt es? – sowie das „Warum“ – welchen disruptiven Nutzen bringt die Technologie? –, doch für strategische Entscheidungen, insbesondere im hoheitlichen oder stark regulierten Umfeld, muss das „Wie“ deutlich in den Vordergrund rücken: Wie genau „lernt“ eine KI eigentlich? Woher „weiß“ sie, was sie tun soll?
Auf welcher Grundlage trifft sie eine Entscheidung?
Die Antworten auf dieses „Wie“ sind kein reines IT-Detail; sie sind der direkte Schlüssel zu Vertrauen, Sicherheit und digitaler Souveränität. Nur wer die zugrunde liegende Mechanik versteht, kann die realen Risiken wirklich managen:
- Algorithmische Voreingenommenheit („Bias“)
- Die Flut an Deepfakes
- Die Intransparenz von „Blackbox“-Systemen
Dieses technische Verständnis ist die Voraussetzung, um den rechtssicheren Einsatz von KI – wie ihn der EU AI Act fordert – zu gewährleisten. Dieser Artikel erklärt die drei Kernkonzepte moderner KI: maschinelles Lernen, neuronale Netze und generative KI.
Fundament der KI: Was bedeutet „maschinelles Lernen“ (ML)?
Der fundamentalste Unterschied zwischen klassischer Software und KI liegt im Lernprozess. Ein traditionelles Programm wird explizit programmiert („Wenn X passiert, tue Y“). Eine KI hingegen „lernt“. Maschinelles Lernen (ML) ist der Fachbegriff für diesen Paradigmenwechsel: Ein Algorithmus wird nicht vorgegeben, sondern trainiert. Er extrahiert selbstständig Muster und statistische Regeln aus riesigen Mengen an Trainingsdaten.
Das resultierende trainierte Modell kann dann für präzise Prognosen, zur Klassifizierung von Daten oder zur Steuerung komplexer Prozesse genutzt werden.
Wie funktioniert das Training?
Beim „überwachten Lernen“ (Supervised Learning) zeigt man einem System Tausende Bilder (z. B. von Hunden und Katzen) mitsamt der korrekten Beschriftung („Label“). Das System passt seine internen Parameter – Tausende kleiner „Stellschrauben“ – so lange an, bis es die statistischen Muster (Fellstrukturen, Ohrenformen) zuverlässig erkennt, die „Hund“ von „Katze“ unterscheiden.
Diese Methode offenbart sofort die größte Herausforderung: Die KI ist komplett von ihren Daten abhängig. Das „Garbage in, garbage out“- Prinzip gilt hier absolut. Sind die Trainingsdaten fehlerhaft, unvollständig oder voreingenommen, wird das Ergebnis im besten Fall unbrauchbar, im schlimmsten Fall gefährlich.
Für ein automatisiertes Verwaltungshandeln, etwa bei der Prüfung von Anträgen, ist ein solches diskriminierendes Ergebnis inakzeptabel und rechtlich untragbar. Zudem erfordert der Einsatz von personenbezogenen Daten als Trainingsgrundlage höchste Standards an Datenschutz, Anonymisierung und Zweckbindung.
Das „Gehirn“ der KI: neuronale Netze und Deep Learning
Was ist die Technologie, das „Gehirn“, das dieses Lernen durchführt? In den meisten modernen KI-Systemen ist dies ein neuronales Netz: eine Architektur, die zwar vom menschlichen Gehirn inspiriert ist, es aber keinesfalls kopiert. Ein solches Netz besteht aus mehreren Schichten künstlicher „Neuronen“. Das sind simple mathematische Knotenpunkte, die Signale empfangen, verarbeiten und weitergeben – ganz ähnlich ihrem menschlichen Vorbild. Jede Verbindung hat hierbei eine „Gewichtung“, die im Training justiert wird, um Mustern mehr oder weniger Bedeutung beizumessen.
Wie „denkt“ ein solches Netz?
Es rechnet nicht mit Wörtern oder Pixeln. Es wandelt jede Information – ein Wort, einen Bildpunkt – in einen „Bedeutungsvektor“ um: eine lange Zahlenreihe, die die statistische Bedeutung und den Kontext repräsentiert. Das ist gewissermaßen eine mathematische Postleitzahl für ein Konzept.
Ähnliche Konzepte (z. B. die Vektoren für „Behörde“ und „Amt“) liegen in diesem vieldimensionalen mathematischen Raum nah beieinander. Die Kernarbeit der KI ist die Berechnung der Beziehungen zwischen Milliarden dieser Vektoren.
Was ist Deep Learning?
Wenn ein neuronales Netz über sehr viele Schichten verfügt, spricht man von „Deep Learning“. Erst diese Tiefe erlaubt es dem System, extrem komplexe und abstrakte Muster zu erkennen – etwa nicht nur ein Auge, sondern auch einen spezifischen Gesichtsausdruck; nicht nur Worte, sondern deren konkrete Bedeutung in ihrem ganz konkreten Zusammenhang und Kontext. Nahezu alle modernen KI-Anwendungen, von der Bild- bis zur Spracherkennung, basieren auf Deep Learning.
Genau diese Fähigkeit, komplexe menschliche Muster wie Gesichter oder Stimmen perfekt zu lernen und zu imitieren, ist die technische Grundlage für Deepfakes. Die KI lernt die Muster einer realen Person so gut, dass sie täuschend echte synthetische Abbilder erzeugen kann. Dies untergräbt das Vertrauen in digitale Inhalte fundamental. Die Antwort muss sein, die Produkte verifizierbar zu machen: Kryptografische Herkunftsnachweise können die Authentizität von Inhalten fälschungssicher belegen.
Die aktuelle Spitze: Wie funktioniert generative KI (LLMs)?
Der aktuelle Hype um ChatGPT und Co. basiert auf generativer KI (GenAI). Technisch sind dies Deep-Learning-Modelle, die darauf trainiert wurden, neue Inhalte zu erzeugen, statt nur bestehende zu klassifizieren. Es ist jedoch hilfreich, hier von „synthetisieren“ statt von „generieren“ zu sprechen. Die KI erschafft nichts aus dem Nichts, sie besitzt keine kreative Absicht. Sie synthetisiert ein neues, statistisch wahrscheinliches Ergebnis aus den Mustern, die sie in Milliarden von Trainingsdaten gelernt hat.
So funktionieren ChatGPT & Co.
Wie funktionieren transformerbasierte Large Language Models (LLMs) wie ChatGPT von OpenAI oder Gemini von Google? Auch sie „verstehen“ Sprache nicht im menschlichen Sinne, sondern abstrahieren Information in Bedeutungsvektoren und verarbeiten diese Vektoren in hoch entwickelter, statistischer Mustererkennung innerhalb ihrer neuronalen Netze. Das Ergebnis – eine Kette mehrdimensionaler Bedeutungsvektoren – wird am Ende des Prozesses wieder in natürlichsprachliche Wörter zurückverwandelt.
Basierend auf Milliarden von Texten, Bildern und Videos haben diese LLMs gelernt, welches Wort in einem bestimmten Kontext das wahrscheinlichste ist, wie Dinge aussehen, wie sich Natur und Systeme verhalten, wie Konzepte in unterschiedlichen Sprachen verbalisiert werden und vieles mehr. Large Language Models sind also Meister der Wahrscheinlichkeit und sprachlicher Kommunikation, nicht des Verständnisses.
Sie dienen jedoch nicht nur der Unterhaltung oder der Beantwortung von Fragen. LLMs fungieren vielmehr als Kommunikationsschnittstelle zwischen Menschen und Maschinen: Sie ermöglichen beispielsweise, angeschlossene Systeme und Anwendungen direkt in natürlicher Sprache mit Aufgaben zu „beauftragen“. Umgekehrt können die Ergebnisse – etwa technisches Feedback oder ermittelte Daten und Informationen – durch das LLM wieder in eine für den Menschen verständliche Sprache zurücksynthetisiert werden.
Handelt es sich dabei um komplexe Aufträge, die auch wiederkehrende Unteraufgaben umfassen können, spricht man von „Agentic AI“, also agentisch agierender Künstlicher Intelligenz.
Halluzination: wenn LLMs Unsinn ausgeben
Ein drängendes Risiko dieser Methode ist das „Halluzinieren“. Da das Modell nicht „versteht“, sondern nur statistisch plausible Wortketten bildet, kann es überzeugend klingende, aber faktisch falsche Informationen „erfinden“. Es optimiert lediglich auf Plausibilität, nicht jedoch unbedingt auf Wahrheit.
Für die öffentliche Verwaltung, deren Handeln vollumfänglich faktenbasiert sein muss, ist dies ein untragbares Risiko.
Das Problem der Nachvollziehbarkeit beginnt bereits auf dieser technischen Ebene. Bei tiefen Netzen mit Milliarden Parametern können selbst Entwickelnde oft nicht mehr exakt nachvollziehen, wie die internen Gewichtungen eine Antwort formen. Das Ergebnis ist statistisch korrekt, aber der Weg dorthin bleibt intransparent. Man spricht hierbei auch von der technischen „Blackbox“. Für Europa wiegt eine zweite „Blackbox“ jedoch noch schwerer: die strategische Intransparenz kommerzieller Modelle von außereuropäischen Anbietern.
Jüngste Entwicklungen zeigen die Entstehung geschlossener Ökosysteme und schaffen massive sicherheitsrelevante Schwachstellen:
Intransparente Trainingsdaten:
Mit welchen Daten (und welchem potenziellen Bias?) wurden diese LLMs trainiert?
Unsichere Datennutzung:
Werden sensible Eingaben mitgelesen, weiterverwendet oder gar für das Training Dritter genutzt (ein als „Data Selling“ bekanntes Risiko)?
Strategische Abhängigkeit:
Es entsteht eine direkte technologische Abhängigkeit von Anbietern mit intransparenten Governance-Strukturen.
Für die öffentliche Verwaltung ist eine solche dreifache „Blackbox“ (Halluzinationen, technische Intransparenz, strategische Abhängigkeit) keine Option.
Behördliches Handeln muss nachvollziehbar, transparent und faktenbasiert sein, ohne strategische Abhängigkeit. Der Lösungsansatz liegt im zwingenden Bedarf an souveränen KI-Plattformen, die speziell für den öffentlichen Sektor mit geprüften, faktenbasierten Daten trainiert werden und deren Betrieb unter voller Kontrolle bleibt.
Das könnte Sie auch Interessieren
Häufige Fragen dazu, wie KI funktioniert
KI bezeichnet die Fähigkeit einer Maschine, menschenähnliche Intelligenzleistungen wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. KI-Systeme lesen ihre Umgebung (Daten) aus, verarbeiten diese und reagieren darauf, um ein bestimmtes Ziel zu erreichen.
KI-Systeme arbeiten typischerweise mit Algorithmen (Schritt-für-Schritt-Anleitungen) und Daten. Sie nehmen Daten als „Input“ auf (z. B. Sprache, Bilder, Sensordaten), verarbeiten diese mithilfe komplexer mathematischer und informatischer Methoden (oft künstliche neuronale Netze) und geben einen „Output“ aus (z. B. eine Antwort, eine Vorhersage oder eine Aktion).
Maschinelles Lernen ist ein zentraler Ansatz der KI. Hierbei trainiert ein Algorithmus selbstständig, eine bestimmte Aufgabe immer besser zu lösen, indem er große Mengen von Daten analysiert, Muster erkennt und seinen Lösungsweg basierend auf Feedback und Auswertung kontinuierlich verbessert. Er lernt also aus Erfahrung, anstatt explizit für jeden möglichen Fall programmiert zu werden.
KI-Systeme sind vom menschlichen Gehirn inspiriert, insbesondere durch die künstlichen neuronalen Netze, die versuchen, die Vernetzung der Neuronen nachzubilden. Allerdings sind heutige KI-Systeme selbst in ihren komplexesten Formen (Deep Learning) nur eine vereinfachte und spezialisierte Simulation bestimmter kognitiver Prozesse. Die KI-Systeme von heute erreichen nicht das breite Spektrum an Fähigkeiten, das Bewusstsein oder die emotionale Intelligenz des Menschen.