KI-Grundlagen für Führungskräfte: 8 Konzepte, die Sie kennen müssen

Das Meeting, das alles veränderte

Ich saß im Meeting und beobachtete. Jemand sagte: "Wir brauchen eine KI-Lösung!" Jemand anders nickte: "Ja, welches LLM sollen wir verwenden?" Ein Dritter: "Aber Tokens sind teuer, oder?" Vierte Person: "Oder brauchen wir RAG? Oder vielleicht einen Agenten?"

Ich schaute in die Gesichter. Alle nickten. Alle sahen intelligent aus. Aber die Augen... die Augen erzählten eine andere Geschichte.

Ich schaute nach rechts: ein unsicherer Blick. Ich schaute nach links: leises Nicken, aber kein Verstehen dahinter. Und dann wurde mir etwas klar. Niemand weiß wirklich, wovon wir sprechen. Nur ich? Nein. Wir saßen alle da, benutzten die Worte, aber ihre Bedeutung... war verschwommen.

Dieser Moment veränderte alles.

Warum ich diesen Beitrag schreibe

Seitdem war ich unzählige Male in ähnlichen Situationen. Und ich habe einige Dinge erkannt:

  • Jeder benutzt diese Worte - in Meetings, Präsentationen, auf LinkedIn
  • Wenige verstehen sie wirklich - aber niemand will es zugeben
  • Die Scham der Unwissenheit - hält uns davon ab zu fragen
  • Entscheidungsfindung leidet - wenn wir die Konzepte nicht verstehen, wie können wir richtig entscheiden?

Also setzte ich mich hin und erstellte eine Karte. Kein kompliziertes Dokument voller Tech-Jargon. Sondern einen einfachen Leitfaden für diejenigen, die - wie ich einst - diese Begriffe gehört haben, aber endlich klar sehen wollen.

Sind Sie bereit? Los geht's.

(Kurze Anmerkung: Dies ist keine vollständige KI-Enzyklopädie - sondern eine Kartenskizze. Die wichtigsten Konzepte, denen Sie täglich begegnen. In Kürze, aber umfassend. Genug, um selbstbewusst zu navigieren.)

KI ≠ LLM: Der Wald und der Baum

Was die Leute denken: "KI = ChatGPT, Gemini, Claude und Konsorten, oder?"

Was es tatsächlich ist: Künstliche Intelligenz ist ein riesiger Wald voller verschiedener Baumarten. LLM (Large Language Model) ist nur EINE Baumart in diesem Wald.

Die KI-Familienmitglieder:

  • Computer Vision - Bilderkennung, Gesichtserkennung
  • Prädiktive Systeme - Prognosen, Mustererkennung
  • Robotik - autonome Systeme, physische KI
  • Spracherkennung - sprachbasierte KI
  • Und ja, LLMs - Sprachmodelle

Warum das für Sie als Führungskraft wichtig ist: Wenn Sie eine KI-Strategie entwickeln, sprechen Sie nicht nur über Chatbots. Sie brauchen vielleicht Computer Vision in der Produktion, prädiktive Modelle im Finanzwesen und LLMs im Kundenservice. Verschiedene Werkzeuge für verschiedene Probleme.

Also, wenn wir über KI sprechen, lohnt es sich zu klären: welche ART von KI meinen wir?


Jetzt, da Sie den Wald sehen, lassen Sie uns über den Baum sprechen, der derzeit die meiste Aufmerksamkeit erhält: LLMs. Aber zuerst müssen wir verstehen, wie diese Systeme "denken". Und hier kommt ins Spiel...

Token: Die unsichtbare Währung

Was die Leute denken: "Token = Wort" oder "irgendwas mit Krypto, oder?"

Was es tatsächlich ist: Ein Token ist der Baustein des LLM-Denkens. NICHT ein Wort. Sondern ein Wortfragment, Zeichen oder Konzept - wie die KI Sprache "sieht".

Schauen Sie sich das an:

  • "Budapest" = 2-3 Tokens (Buda + pest + möglicherweise ein Sprachmarker)
  • " " (Leerzeichen) = 1 Token
  • "KI" = 1-2 Tokens
  • "Ich liebe Kaffee" = 4-5 Tokens

Das LLM "liest" nicht wie wir. Es zerlegt Text in Tokens und arbeitet damit.

Warum das für Sie als Führungskraft wichtig ist: Bei der Berechnung der KI-Kosten werden Tokens berechnet, nicht Wörter. Bei der Kapazitätsplanung (Context Window = wie viele Tokens es gleichzeitig verarbeiten kann) denken Sie in Tokens. Ein 100.000-Token-Context-Window sind NICHT 100.000 Wörter - sondern etwa 75.000 Wörter.

Deshalb ist es wichtig zu klären: Wie viel kostet es PRO TOKEN, nicht pro Wort oder Zeichen!


Jetzt verstehen wir, dass KI in Tokens denkt. Aber was genau ist ein LLM?

LLM: Der Sprachvirtuose

Was die Leute denken: "Eine intelligente Suchmaschine" oder "es kennt die Antworten"

Was es tatsächlich ist: Ein Large Language Model ist ein riesiges Mustererkennungssystem, das Sprachstrukturen und Muster aus enormen Textmengen gelernt hat. Es "kennt" nicht die Wahrheit - es "versteht" Sprachmuster.

Stellen Sie sich vor: Es hat Milliarden von Seiten Text gelesen und gelernt:

  • Was normalerweise worauf folgt
  • Welche Wörter zusammengehören
  • Welche Strukturen in verschiedenen Kontexten funktionieren

Aber: Es hat keinen Realitätssinn, kein Gedächtnis, "versteht" die Welt nicht - nur Sprachmuster.

Warum das für Sie als Führungskraft wichtig ist: Das erklärt, warum Sie vorsichtig mit LLM-Antworten umgehen müssen. Es "weiß" keine Dinge - es folgt Mustern. Deshalb halluziniert es manchmal (erfindet Dinge, weil es aufgrund der Muster "richtig klingt"). Und deshalb ist menschliche Aufsicht unerlässlich.

Deshalb braucht man Prompt Engineering - wir befehlen ihm nicht, sondern geben Kontext, der ihm hilft, die richtigen Muster zu erkennen!


Und hier betreten wir einen entscheidenden Bereich: Wie kommunizieren wir mit diesem Mustererkenner?

Prompt & Prompt Engineering: Die Kunst der Konversation

Was die Leute denken: "Einfach eingeben, was ich will"

Was es tatsächlich ist: Ein Prompt ist nicht nur eine Frage oder ein Befehl. Es ist der vollständige Kontext, den Sie bereitstellen:

  • Rolle (z.B. "Sie sind ein erfahrener Softwareentwickler")
  • Aufgabe (was muss getan werden)
  • Kontext (was ist der Hintergrund, was ist das Ziel)
  • Beispiele (ich erwarte die Antwort in diesem Format)
  • Einschränkungen (worauf achten, was NICHT tun)

Prompt Engineering = so zu kommunizieren, wie das LLM "denkt". Muster und Kontext bereitzustellen, die es in die richtige Richtung lenken.

Beispiel - schwacher Prompt: "Schreibe eine E-Mail"

Beispiel - guter Prompt: "Sie sind ein Customer Success Manager. Schreiben Sie eine kurze (max. 3 Absätze) E-Mail an einen Kunden, der unseren Service seit 2 Wochen nicht genutzt hat. Ihr Ziel: Verstehen, was das Hindernis ist, und Hilfe anbieten. Ton: hilfsbereit, kein Verkaufsdruck."

Warum das für Sie als Führungskraft wichtig ist: Wie ein Führungsbriefing - je besser der Kontext, je klarer die Aufgabe, desto besser das Ergebnis. Prompt Engineering ist keine Tech-Magie, sondern eine Kommunikationsfähigkeit.

Es ist wie wenn Sie Ihr Team briefen - klarer Kontext, klare Erwartungen = besseres Ergebnis!


Aber der Prompt existiert nicht isoliert. Das LLM braucht "Gedächtnis" - und das führt uns zum nächsten Konzept...

Context Engineering: Die Architektur des Gedächtnisses

Was die Leute denken: "Es wird sich an frühere Gespräche erinnern"

Was es tatsächlich ist: Das LLM hat kein Gedächtnis. Es "sieht" nur das, was Sie IN den Kontext EINFÜGEN. Bei jeder Antwort senden Sie das gesamte bisherige Gespräch erneut (oder zumindest die relevanten Teile).

Context Engineering = bewusst den Kontext aufbauen:

  • Relevante Teile früherer Gespräche
  • Zugehörige Dokumente
  • Wissensdatenbank-Details
  • Benutzerpräferenzen

All dies "passt" in das Context Window - die maximale Anzahl von Tokens, die das LLM gleichzeitig verarbeiten kann.

Beispiel: Claude Sonnet Context Window: ~200.000 Tokens = etwa 150.000 Wörter = etwa ein großes Buch.

Warum das für Sie als Führungskraft wichtig ist: Jeder neue Chat/Session = leere Tafel. Wenn Sie möchten, dass es sich an jemanden/etwas "erinnert", müssen Sie das IN den Kontext EINBAUEN. Das ist die Essenz des Context Engineering.

Deshalb muss man in einem neuen Chat alles wieder erklären - es gibt kein Gedächtnis, nur das, was wir hineintun!


Und jetzt kommt Magie, die Context Engineering mit Ihren eigenen Daten verbindet...

RAG: Retrieval Augmented Generation - Der Bibliothekar

Was die Leute denken: "Wir werden ihm unsere eigenen Daten beibringen" (Fine-Tuning)

Was es tatsächlich ist: RAG = kein Lehren, sondern Abruf in Echtzeit. Wie ein intelligenter Bibliothekar:

  1. Sie fragen: "Was ist unsere Urlaubsregelung?"
  2. RAG-System ruft die relevanten Dokumente ab (HR-Handbuch)
  3. LLM erhält diese Dokumente im Kontext
  4. LLM antwortet basierend auf den von Ihnen bereitgestellten Dokumenten

Es hat nicht vorher darüber gelernt - es hat sie jetzt, in Echtzeit bekommen.

RAG vs. Fine-Tuning:

  • RAG: Wissen in Echtzeit abrufen (schnell, flexibel, immer aktuell)
  • Fine-Tuning: Modell neu trainieren (langsam, teuer, wenn es fertig ist, sind die Daten veraltet)

Warum das für Sie als Führungskraft wichtig ist: Wenn Sie Ihr eigenes Unternehmenswissen einbeziehen möchten, brauchen Sie wahrscheinlich RAG, nicht Fine-Tuning. Schneller, günstiger und immer aktuell.

Wie ein Assistent, der alles vorher nachschlägt, bevor er antwortet - muss sich nicht merken, muss nur wissen, wo er es findet!


Lassen Sie uns jetzt eine Ebene höher springen: Was, wenn wir nicht nur Antworten, sondern Handlung wollen?

Agentic AI: Die handelnde Intelligenz

Was die Leute denken: "Ein Chatbot, der Fragen beantwortet"

Was es tatsächlich ist: Ein Agent antwortet nicht nur - er handelt. Er denkt selbstständig, benutzt Werkzeuge, arbeitet in mehreren Schritten.

Unterschied:

  • Chatbot/LLM: Sie fragen → es antwortet
  • Agent: Sie geben ein Ziel → er plant → benutzt Werkzeuge → führt aus → prüft

Beispiel:

  • ❌ Chatbot: "Was ist die Temperatur im Raum?"
  • ✅ Agent: "Optimiere das Klima!" → Agent prüft die Temperatur → vergleicht mit Präferenzen → stellt die Klimaanlage ein → überprüft das Ergebnis

Warum das für Sie als Führungskraft wichtig ist: Agentic AI liefert nicht nur Informationen - es automatisiert Workflows. Sie fragen es nicht, Sie geben ihm eine Aufgabe, und es führt sie aus.

Wir sind nicht im "Frage-Antwort"-Modus, sondern im "Ziel-Ausführung"-Modus!


Und schließlich das Geheimnis der Agent-Magie: Wie bekommt er Werkzeuge?

MCP Server: Model Context Protocol - Die Brücke

Was die Leute denken: "Irgendein kompliziertes Tech-Ding im Hintergrund"

Was es tatsächlich ist: MCP (Model Context Protocol) ist ein einheitliches Protokoll, das definiert, wie Sie KI-Agenten Werkzeuge geben.

Analogie: der USB-Anschluss Erinnern Sie sich, als jedes Gerät einen anderen Anschluss hatte? Dann kam USB, und alles verbindet sich auf die gleiche Weise. MCP ist dasselbe - eine einheitliche Methode, Agenten Werkzeuge zu geben.

Was MCP macht:

  • Einheitliche Schnittstelle zu Datenbanken, APIs, Dateisystemen
  • Sicherheitsebene - kontrolliert, worauf der Agent zugreifen kann
  • Einfache Integration - kein neues Protokoll für jedes Werkzeug nötig

Beispiel: Agent + MCP-Server → Zugriff auf:

  • Google Drive-Dateien
  • Unternehmensdatenbank
  • E-Mail-System
  • Kalender ...alles über dasselbe Protokoll.

Warum das für Sie als Führungskraft wichtig ist: MCP ermöglicht es Agenten, Unternehmenssysteme zu "nutzen". Ohne es wäre jede Agent-Integration eine separate Entwicklung.

Wie USB - ein Anschluss, jedes Gerät!


Jetzt wissen Sie es

Stellen Sie sich vor: Sie sitzen im nächsten Meeting. Jemand sagt: "Lasst uns KI nutzen!"

Und Sie fragen ruhig zurück:

  • "An welche Art von KI denken Sie? LLM-basierter Kundenservice? Prädiktive Analyse? Agentic Workflow-Automatisierung?"
  • "Wenn LLM, wie groß ist das Context Window? Wie viele Tokens verarbeitet es?"
  • "Brauchen wir RAG für Unternehmenswissen, oder reicht gutes Prompt Engineering?"
  • "Wollen wir einen Agenten, oder reicht ein Chatbot?"
  • "Haben wir MCP-Infrastruktur, um ihm Werkzeuge zu geben?"

Und Sie sehen die Gesichter. Dieses Mal sind SIE derjenige, der weiß, wovon er spricht.

Nicht weil Sie ein Tech-Guru wurden. Sondern weil Sie die Karte verstanden haben. Sie wissen, wo Sie im KI-Wald sind, und Sie wissen, welche Fragen Sie stellen müssen.

Dieses Selbstvertrauen hilft Ihnen, Entscheidungen zu treffen. Hilft Ihnen, mit dem Tech-Team zu kommunizieren. Hilft Ihnen zu verstehen, wann Sie nach welcher Lösung suchen müssen.

Von nun an werden Sie nicht mehr den Buzzwords ausgeliefert sein.

Von nun an sehen Sie klar.


Bei welchem Konzept hatten Sie den "Aha!"-Moment? Teilen Sie es mit mir!