Klar mit KI

Klar mit KI

June 27, 2025·
Karsten

Klar_mit_KI

Der Begriff „Künstliche Intelligenz“ wird derzeit inflationär gebraucht – als Titel taugt er dennoch hervorragend. In diesem Artikel werfe ich einen genaueren Blick auf die Veränderungen, die sich für Websitebetreiber und Blogger ergeben – denn unser Ziel bleibt dasselbe: gefunden werden.

Bis vor wenigen Jahren war klassische Suchmaschinenoptimierung (SEO) noch das Mittel der Wahl. Inzwischen liefern Suchmaschinen oft direkt generierte Antworten – und der eigentliche Artikel rückt in den Hintergrund. Keywords? Meta-Tags? Das interessiert kaum noch jemanden.

Was heißt das für unsere Inhalte? Was braucht es heute, damit Texte noch sichtbar werden – und sinnvoll nutzbar sind?

Im Titel verwende ich bewusst noch das Wort „KI“ – ein Begriff, den ich im weiteren Verlauf lieber meide. Denn worum es wirklich geht, ist nicht Marketingrhetorik, sondern: neuronale Netze, Transformer-Modelle, Sprachverarbeitung. Zeit für Klarheit.

KI im Wandel der technischen Möglichkeiten

Seitdem sich der Mensch mit denkenden Maschinen beschäftigt, geistert der Begriff „Künstliche Intelligenz“ durch die Diskussion – mal fasziniert, mal gefürchtet. Schon im 18. Jahrhundert sorgte der Schachtürke für Aufsehen: eine vermeintlich intelligente Schachmaschine, die in Wahrheit von einem versteckten Menschen gesteuert wurde.

Mit der Digitalisierung kamen neue Möglichkeiten, bestimmte Aspekte menschlicher Intelligenz nachzubilden – etwa Rechnen oder Schachspielen. Doch das blieb lange Zeit algorithmisch: Die Maschine folgt festen Regeln, der Mensch verliert – unfair vielleicht, aber kein Beweis für echte „Intelligenz“.

Auch Expertensysteme, die Wissen in Wenn-Dann-Regeln und Entscheidungsbäumen speichern, verdienen diesen Namen kaum. Ihnen fehlt das Bauchgefühl eines erfahrenen Menschen – die Fähigkeit, auch ohne vollständige Information sinnvolle Entscheidungen zu treffen.

Ich selbst habe in den 1990er-Jahren mit neuronalen Prozessoren experimentiert – Hardware-Beschleuniger für einfache Perzeptrons. Beeindruckend war das nicht. Selbst damalige Grafikkarten konnten da mehr.

EpocheTechnikWas es eigentlich war
1970–1980erSchachcomputerMinimax + Alpha-Beta-Pruning
1980–1990erExpertensysteme in PrologWenn-Dann-Regelwerke, keine „Intelligenz“
1990erNeuronale ProzessorenHardwarebeschleuniger für einfache Perzeptrons
2000erIntelligente Agenten in JavaFinite-State-Machines mit Message Passing

Das folgende Jahrzehnt brachte „intelligente Agenten“ mit sich – programmiert in Java, ausgestattet mit genetischen Algorithmen, Nachrichtenbussen und jeder Menge Hype. Doch auch das war eher strukturiertes Verhalten als Denken.

Erst als Geoffrey Hinton 2006 die Grundlagen für das heutige Deep Learning legte, begann die Geschichte, die wir heute als „KI-Revolution“ erleben – und missverstehen. Wer die Prinzipien dahinter verstehen möchte, findet in dem Buch von Andrew Trask eine solide und gut verständliche Einführung, die mit den schulmathematischen (Gymnasialniveau, muss man fairerweise dazu sagen) Kenntnissen auskommt. Mit diesen Kenntnissen kann man zumindest mal Bilder von Katzen und Nicht-Katzen unterscheiden lassen – eine prototypische Anwendung von überwachten und unüberwachtem maschinellen Lernen.

Etwas mehr Gehirnschmalz und Programmierkenntnisse erfordert die Einarbeitung in Generative Pre-trained Transformer, also dem Bereich des maschinellen Lernens, den wir heute als GPT kennen; alle aktuellen Sprachmodelle (Large Language Models, LLM) basieren darauf.

Was bringt’s?

Wie lässt sich dieses Hintergrundwissen praktisch nutzen? Manche Autoren (oder Influencer) warnen, dass LLMs unsere Intelligenz zerstören würden. Ich sehe das Gegenteil: Früher haben wir unter Zeitdruck oft ein Code-Snippet aus StackOverflow kopiert, ohne den Kontext zu prüfen – oder eine Wikipedia-Passage übernommen, die längst zur Qualitätssicherung markiert war.

Heute kann ich mir von einem Sprachmodell erklären lassen, wie es auf eine Antwort gekommen ist. Und anders als beim klassischen Plagiat gibt es sogar transparente Auskunft.

Wer das Denken komplett an die Maschine abgibt, hat natürlich ein anderes Problem. Aber wer das Werkzeug gezielt einsetzt, profitiert. Und das unterscheidet sich im Grunde nicht von anderen Tools wie dem Autocomplete in der Shell, der automatischen Silbentrennung oder dem automatischen Layout in LaTeX.

SEO im Zeitalter von LLMs

Die SEO-Strategie hat seltsame Auswüchse angenommen. Wenn ein Produkt in einem chinesischen Onlineshop mit “Luftpumpe Keile Aufblasbare Airbag Für Tür Fenster Auto Leistungsstarke Installation Ausrichtung Reparatur Werkzeug Tür Fenster Installation” betitelt wird, um nur ja von der Suche gefunden wird oder die Hashtag-Liste unter einem Social-Media-Post länger ist als der Post selbst, ist das für die Suchoptimierung vielleicht förderlich, aber es nervt einfach nur. Glücklicherweise könnten diese Phänomene im neuen Suchzeitalter verschwinden und tatsächlich wieder mehr Wert auf Inhalte gelegt werden. Wenn mir ein LLM eine gute Zusammenfassung liefert, wird mich dieser vielleicht eher interessieren und der Besuch der Site eventuell lohnenswert sein.

Wer seine Texte von einem LLM generieren lässt, nur um suchbaren Inhalt zu erzeugen, wird vermutlich weniger Erfolg haben. Füttert man die Modelle nämlich mit ihren eigenen Ausgaben, kommen wenig sinnvolle Ergebnisse herus.

Google SEO (klassisch)LLMs & KI-Suche
ZielRanking in Top 10Als Quelle zitiert werden
TaktikKeywords, LinkaufbauStrukturierte Antworten, Klartext
PublikumMenschenMenschen + Maschinen
ContentformSEO-Longformpräzise Absätze mit Kontext
Meta-Tagswichtigegal – Struktur zählt mehr

LLMs richtig einsetzen

Für den richtigen Einsatz von LLMs zur Gestaltung von Texten und Inhaltsstrukturierung habe ich einige Hinweise zusammengestellt. Allerdings gibt v.a. ChatGPT selbst solche Hinweise, wenn man danach fragt. Das ist das faszinierende daran: Man kann sich im Dialog auch jederzeit auf die Meatebene begeben (und sich herrlich darin verlieren) und Erklärungen oder Beweggründe für Entscheidungen erhalten.

✔️ Gut✖️ Schlecht
Nutze LLMs zur Strukturierung & FeedbackLass sie „für dich schreiben“
Erhalte deinen Ton und StilVerwässere durch neutrale Umschreibungen
Verwende gezielte Fragen („Wie würdest du …“)Verlass dich auf Autovervollständigung
Korrigiere, schärfe, ergänzeÜbernimm Rohtexte blind

Fazit

Hoffen wir, dass die Zeit der Keyword-Optimierung für Suchmaschinen allmählich endet – und Inhalte wieder durch Klarheit, Struktur und echten Wert überzeugen dürfen. Die Werkzeuge dafür haben wir längst. Man muss sie nur sinnvoll einsetzen.

Quellen und Links

Andrew Trask – Neuronale Netze verstehen Originaltitel: Grokking Deep Learning – Idealer Einstieg mit Python-Code und viel Intuition

Jay Alammar – Illustrated Transformer – visuelle Erklärung des Transformer-Prinzips

Andrej Karpathy – Let’s build GPT – Video- und Code-Serie zum Nachbauen eines LLMs