Klar mit KI
Der Begriff „Künstliche Intelligenz“ wird derzeit inflationär gebraucht – als Titel taugt er dennoch hervorragend. In diesem Artikel werfe ich einen genaueren Blick auf die Veränderungen, die sich für Websitebetreiber und Blogger ergeben – denn unser Ziel bleibt dasselbe: gefunden werden.
Bis vor wenigen Jahren war klassische Suchmaschinenoptimierung (SEO) noch das Mittel der Wahl. Inzwischen liefern Suchmaschinen oft direkt generierte Antworten – und der eigentliche Artikel rückt in den Hintergrund. Keywords? Meta-Tags? Das interessiert kaum noch jemanden.
Was heißt das für unsere Inhalte? Was braucht es heute, damit Texte noch sichtbar werden – und sinnvoll nutzbar sind?
Im Titel verwende ich bewusst noch das Wort „KI“ – ein Begriff, den ich im weiteren Verlauf lieber meide. Denn worum es wirklich geht, ist nicht Marketingrhetorik, sondern: neuronale Netze, Transformer-Modelle, Sprachverarbeitung. Zeit für Klarheit.
KI im Wandel der technischen Möglichkeiten
Seitdem sich der Mensch mit denkenden Maschinen beschäftigt, geistert der Begriff „Künstliche Intelligenz“ durch die Diskussion – mal fasziniert, mal gefürchtet. Schon im 18. Jahrhundert sorgte der Schachtürke für Aufsehen: eine vermeintlich intelligente Schachmaschine, die in Wahrheit von einem versteckten Menschen gesteuert wurde.
Mit der Digitalisierung kamen neue Möglichkeiten, bestimmte Aspekte menschlicher Intelligenz nachzubilden – etwa Rechnen oder Schachspielen. Doch das blieb lange Zeit algorithmisch: Die Maschine folgt festen Regeln, der Mensch verliert – unfair vielleicht, aber kein Beweis für echte „Intelligenz“.
Auch Expertensysteme, die Wissen in Wenn-Dann-Regeln und Entscheidungsbäumen speichern, verdienen diesen Namen kaum. Ihnen fehlt das Bauchgefühl eines erfahrenen Menschen – die Fähigkeit, auch ohne vollständige Information sinnvolle Entscheidungen zu treffen.
Ich selbst habe in den 1990er-Jahren mit neuronalen Prozessoren experimentiert – Hardware-Beschleuniger für einfache Perzeptrons. Beeindruckend war das nicht. Selbst damalige Grafikkarten konnten da mehr.
Epoche | Technik | Was es eigentlich war |
---|---|---|
1970–1980er | Schachcomputer | Minimax + Alpha-Beta-Pruning |
1980–1990er | Expertensysteme in Prolog | Wenn-Dann-Regelwerke, keine „Intelligenz“ |
1990er | Neuronale Prozessoren | Hardwarebeschleuniger für einfache Perzeptrons |
2000er | Intelligente Agenten in Java | Finite-State-Machines mit Message Passing |
Das folgende Jahrzehnt brachte „intelligente Agenten“ mit sich – programmiert in Java, ausgestattet mit genetischen Algorithmen, Nachrichtenbussen und jeder Menge Hype. Doch auch das war eher strukturiertes Verhalten als Denken.
Erst als Geoffrey Hinton 2006 die Grundlagen für das heutige Deep Learning legte, begann die Geschichte, die wir heute als „KI-Revolution“ erleben – und missverstehen. Wer die Prinzipien dahinter verstehen möchte, findet in dem Buch von Andrew Trask eine solide und gut verständliche Einführung, die mit den schulmathematischen (Gymnasialniveau, muss man fairerweise dazu sagen) Kenntnissen auskommt. Mit diesen Kenntnissen kann man zumindest mal Bilder von Katzen und Nicht-Katzen unterscheiden lassen – eine prototypische Anwendung von überwachten und unüberwachtem maschinellen Lernen.
Etwas mehr Gehirnschmalz und Programmierkenntnisse erfordert die Einarbeitung in Generative Pre-trained Transformer, also dem Bereich des maschinellen Lernens, den wir heute als GPT kennen; alle aktuellen Sprachmodelle (Large Language Models, LLM) basieren darauf.
Was bringt’s?
Wie lässt sich dieses Hintergrundwissen praktisch nutzen? Manche Autoren (oder Influencer) warnen, dass LLMs unsere Intelligenz zerstören würden. Ich sehe das Gegenteil: Früher haben wir unter Zeitdruck oft ein Code-Snippet aus StackOverflow kopiert, ohne den Kontext zu prüfen – oder eine Wikipedia-Passage übernommen, die längst zur Qualitätssicherung markiert war.
Heute kann ich mir von einem Sprachmodell erklären lassen, wie es auf eine Antwort gekommen ist. Und anders als beim klassischen Plagiat gibt es sogar transparente Auskunft.
Wer das Denken komplett an die Maschine abgibt, hat natürlich ein anderes Problem. Aber wer das Werkzeug gezielt einsetzt, profitiert. Und das unterscheidet sich im Grunde nicht von anderen Tools wie dem Autocomplete in der Shell, der automatischen Silbentrennung oder dem automatischen Layout in LaTeX.
SEO im Zeitalter von LLMs
Die SEO-Strategie hat seltsame Auswüchse angenommen. Wenn ein Produkt in einem chinesischen Onlineshop mit “Luftpumpe Keile Aufblasbare Airbag Für Tür Fenster Auto Leistungsstarke Installation Ausrichtung Reparatur Werkzeug Tür Fenster Installation” betitelt wird, um nur ja von der Suche gefunden wird oder die Hashtag-Liste unter einem Social-Media-Post länger ist als der Post selbst, ist das für die Suchoptimierung vielleicht förderlich, aber es nervt einfach nur. Glücklicherweise könnten diese Phänomene im neuen Suchzeitalter verschwinden und tatsächlich wieder mehr Wert auf Inhalte gelegt werden. Wenn mir ein LLM eine gute Zusammenfassung liefert, wird mich dieser vielleicht eher interessieren und der Besuch der Site eventuell lohnenswert sein.
Wer seine Texte von einem LLM generieren lässt, nur um suchbaren Inhalt zu erzeugen, wird vermutlich weniger Erfolg haben. Füttert man die Modelle nämlich mit ihren eigenen Ausgaben, kommen wenig sinnvolle Ergebnisse herus.
Google SEO (klassisch) | LLMs & KI-Suche | |
---|---|---|
Ziel | Ranking in Top 10 | Als Quelle zitiert werden |
Taktik | Keywords, Linkaufbau | Strukturierte Antworten, Klartext |
Publikum | Menschen | Menschen + Maschinen |
Contentform | SEO-Longform | präzise Absätze mit Kontext |
Meta-Tags | wichtig | egal – Struktur zählt mehr |
LLMs richtig einsetzen
Für den richtigen Einsatz von LLMs zur Gestaltung von Texten und Inhaltsstrukturierung habe ich einige Hinweise zusammengestellt. Allerdings gibt v.a. ChatGPT selbst solche Hinweise, wenn man danach fragt. Das ist das faszinierende daran: Man kann sich im Dialog auch jederzeit auf die Meatebene begeben (und sich herrlich darin verlieren) und Erklärungen oder Beweggründe für Entscheidungen erhalten.
✔️ Gut | ✖️ Schlecht |
---|---|
Nutze LLMs zur Strukturierung & Feedback | Lass sie „für dich schreiben“ |
Erhalte deinen Ton und Stil | Verwässere durch neutrale Umschreibungen |
Verwende gezielte Fragen („Wie würdest du …“) | Verlass dich auf Autovervollständigung |
Korrigiere, schärfe, ergänze | Übernimm Rohtexte blind |
Fazit
Hoffen wir, dass die Zeit der Keyword-Optimierung für Suchmaschinen allmählich endet – und Inhalte wieder durch Klarheit, Struktur und echten Wert überzeugen dürfen. Die Werkzeuge dafür haben wir längst. Man muss sie nur sinnvoll einsetzen.
Quellen und Links
Andrew Trask – Neuronale Netze verstehen Originaltitel: Grokking Deep Learning – Idealer Einstieg mit Python-Code und viel Intuition
Jay Alammar – Illustrated Transformer – visuelle Erklärung des Transformer-Prinzips
Andrej Karpathy – Let’s build GPT – Video- und Code-Serie zum Nachbauen eines LLMs