SEO

Seoday 2023 – Unser Recap

Der Seoday 2023 lieferte eine geballte Ladung Wissen über die aktuellen Trends in der SEO-Branche, detaillierte Einblicke in verschiedene SEO-Workflows mit hohem Praxisbezug. Der Schwerpunkt der diesjährigen Konferenz lag dabei besonders stark auf dem Thema KI und Chat GPT, um durch Automatisierung von Prozessen die alltägliche SEO-Arbeit dadurch einfacher zu gestalten.   

Die SEO-Konferenz fand am 02. November im Rhein-Energie-Station in Köln statt. In 3 verschiedenen Räumen konnte man sich dann über verschiedene Themengebiete und Teilbereiche der Suchmaschinenoptimierung informieren, wo die Wahl oft gar nicht so leicht fiel. In dem folgenden Recap findet ihr die wichtigsten Fakten und Erkenntnisse, die ich aus meinen besuchten Vorträgen mitgenommen habe.

Michael Janssen: Google Analytics like a pro

Den Auftakt zum diesjährigen Seoday bildete das heiß begehrte Thema „Google Analytics 4“. Leider fand der Vortrag 10 Minuten später als geplant statt, was den Raumwechsel danach schwieriger machte, um pünktlich zu Beginn des nächsten Tracks dort zu erscheinen. Was mich von Anfang an begeisterte war die Aussage, dass man bei GA4 komplett neu laufen lernen muss und es sich komplett von Universal Analytics unterscheidet. 

Die ganzen Auswertungen als auch die Attribution sind mit Universal Analytics nicht mehr vergleichbar. GA4 ist somit keine Renovierung, sondern ein kompletter Neubau, den Google hier entwickelt hat. Die Namen der Reports haben sich nicht großartig geändert, aber es steckt datenmäßig etwas ganz anderes dahinter. 

So wurde der Report frühere Traffic-Akquisition nun in “Neu generierte Zugriffe” umbenannt. Die Absprungrate wurde durch den Begriff “Interaktionsdauer” ersetzt. Während bei Universal Analytics der erste Seitenaufruf nicht mitgezählt wurde, beginnt Google Analytics 4 bereits mit dem 1. Zugriff auf die Seite mit der Messung der Daten. Der große Vorteil von GA4 ist auch, dass jedes Mal, wenn eine Conversion auf der Website ausgelöst wird, diese auch direkt mitgezählt wird. 

Tipp: Google Signal kann man für die Berichte (Berichtsidentifikation) ausschalten. Es lohnt sich.

Auch der Report zur Auswertung der Nutzerdaten hat sich in GA4 dahingehend geändert, dass hier inzwischen zwischen aktiven und nicht aktiven Nutzern unterschieden wird. Dabei betreffen aktive Nutzer alle neuen, wiederkehrenden Nutzer mit genau einer getätigten Interaktion auf der Website. Es kann jedoch der Fall sein, dass in GA4 insgesamt weniger Nutzerzahlen ausgeliefert werden als in Universal Analytics.

Abschließend gab er 5 Impulse zum Abschluss:

  1. Speicherungsdauer anpassen
  2. Passe Deine Berichte an Deine Bedürfnisse an (es gibt hunderte von Möglichkeiten)
  3. Enhanced Measurment nicht nutzen
  4. Google Signal in Berichten deaktivieren
  5. Big Query aktivieren (auch wenn man sie aktuell noch nicht nutzt. Aber vielleicht will man es irgendwann)

Die wichtigsten Key-Learnings, die ich aus dem Vortrag mitgenommen habe, waren folgende: 

  • Die Oberfläche in GA lässt sich jetzt an die eigenen Bedürfnisse anpassen
  • Vorhandene Ereignisnamen und Definitionen in GA4 sollten genutzt werden.
  • Aktivierung von Big Query ist definitiv sinnvoll, um mit GA4 effektiv zu arbeiten.
  • Einige Kennzahlen haben jetzt komplett andere Namensbezeichnungen
  • Die Methodik der Datenauswertung hat sich bei GA3 teilweise komplett geändert.

Prinzipiell fand ich den Vortrag sehr aufschlussreich und praxisnah aufgebaut, weil Michael auch die Unterschiede zwischen Universal Analytics und Google Analytics 4 sehr anschaulich und nachvollziehbar dargestellt hat. Als Fazit bleibt noch zu sagen, dass jeder, der GA4 nutzt, hinsichtlich der geänderten Messverfahren komplett umdenken muss, um die Trackingdaten der Website-Aktivitäten optimal auswerten zu können. 

Übrigens: Wer sich mehr mit Google Analytics 4 und seiner Einführung beschäftigen will, ist auch bei unserem Webinar genau richtig. Einfach auf den Banner klicken und das Webinar später in einem neuen Tab anschauen.


Diana Karcz: Linkaufbau und KI: Die Schlüsselrolle des Linkaufbaus für Googles E-E-A-T Kriterien in Zeiten massiver Content-Produktion dank KI

Aufgrund des verspäteten Beginns des 1. Vortrags habe ich nach dem Raumwechsel die ersten Minuten leider verpasst. Diana Karcz referierte über das Thema KI in Verbindung mit Content-Erstellung und zeigte in versch. Beispiele, wie sie es geschafft haben, durch den Einsatz von KI in Ihren Texten bei verschiedenen Themen damit ihre Rankings in Google zu verbessern. In einem Fall hat sich durch die Content-Optimierung mit KI die Position von 100 auf 13 verlagert. 

Das Problem, das die Content-Erstellung mit KI mit sich bringt, ist, dass immer mehr Unternehmen diese Möglichkeiten nutzen. Demzufolge ist der Wettbewerb umso höher, weil es umso mehr Inhalte gibt und es erforderlich ist, Lösungen zu entwickeln, um sich mit den eigenen KI-Inhalten von der Konkurrenz abzuheben. Vor allem die EEAT-Kriterien spielen bei guten Texten eine wichtige Rolle. Anhand einer Search-Quality Evaluation Matrix hat Diana aufgezeigt, auf welchen Ebenen die verschiedenen Bewertungskriterien erfolgen und wie diese mit EEAT zusammenhängen. 

Hier hat Diana aufgezeigt, dass richtig starke Backlinks essenziell sind, um bei Google z. B. in der TOP-3 zu ranken. Die Lösung, massenhaft Backlinks aufzubauen, funktioniert an dieser Stelle jedoch auch nicht. Abhilfe schafft hier die Nutzung des Matthäus-Effekts. 

Was ist der Matthäus-Effekt?

Der Begriff kommt aus der Poker-Szene und sagt aus, dass Erfolge auf früheren Erfolgen aufbauen, d. h. wenn ich schon einen ersten Erfolg gehabt habe, werde ich auch mehr Erfolge haben. Wenn man dies auf die SEO-Arbeit überträgt, bedeutet dies, dass die Erstellung von qualitativ hochwertigem Content zu guten Rankings führt und infolgedessen die Website wertvolle Backlinks bekommt, was sonst nicht der Fall gewesen wäre. 

Wie kann ich mir den Matthäus-Effekt im SEO zunutze machen?

Die KI ist hier das Erfolgsgeheimnis, weil es mir damit ermöglicht, deutlich mehr Inhalte zu erstellen und Themen abzudecken, die für meine Website relevant sind. Hier muss allerdings auch noch der Mensch eingreifen, da vor allem bei Google das Thema EEAT stark ins Gewicht fällt, wonach Texte für die Nutzer auch einen Mehrwert bieten müssen. 

Ein Nachteil von verstärktem KI-Einsatz ist jedoch, dass ChatGPT und Co. selber keine so guten Texte produzieren kann, die wirkliche TOP-Platzierungen in Google erzielen. Ein wichtiges Kriterium, bei dem die KI noch Nachholbedarf hat, ist, dass die Texte teilweise eine miserable oder fast schon spamartige Keyword-Dichte aufweisen. Es ist also nach wie vor menschliche Arbeit nötig, um dieses Ziel zu erreichen. 

Linkaufbau als Schlüssel-Erfolgsfaktor im KI-Zeitalter

Anhand eines Praxisbeispiels hat Diana schließlich aufgezeigt, wie sie es geschafft hat, einen Text, der schlecht gerankt hat, ohne Vornahme von Änderungen in die TOP-10 zu überführen. Das Learning hieraus war, dass eine Seite, die gute Inhalte und starke Backlinks aufweist, sich positiv auf andere erstellte Inhalte auswirkt, weil dieser SEO-Bonus sozusagen auf die anderen produzierten Inhalte übergeht, was wiederum dazu führt, dass man mehr Links bekommt.  

Die TOP-Takeaways kurz zusammengefasst:

  • Gute Inhalte alleine reichen nicht aus, um gut zu ranken.
  • Hier kann man nur nachhelfen mit qualitativ hochwertigem Linkaufbau.
  • Genaue Messungen, was welcher Link bringt, sind essenziell.
  • Links, mit denen man sich vom Wettbewerb abheben kann, sind am wertvollsten.
  • Beim Aufbau von Links, anfangs eine Vorarbeit leisten, indem ich potenziellen Linkpartnern eine Studie vorstelle.
  • Man sollte ein Thema haben, was dem Linkpartner einen Mehrwert bringt, das er sich für seine Marketing- oder Vertriebsaktivitäten zunutze machen kann.

Zusammenfassend lässt sich sagen, dass der Vortrag gut beleuchtet hat, wie die KI heutzutage bei der Erstellung von Texten unterstützen kann und wo die Schwächen dabei liegen. In Verbindung mit dem Thema Linkaufbau kann die KI hier allerdings noch keinen großen Mehrwert leisten, sondern hier ist es nach wie vor erforderlich eigenständig Linkanalysen anzustoßen um potenzielle Linkquellen dadurch bewerten zu können.

Jan Brakebusch: Enterprise SEO in der Zukunft – Worauf es ankommen wird!

Unser Kollege Jan hat, wie seit 2018 bereits jedes Jahr, auch wieder ein Thema auf die Seoday-Bühne gebracht. Diesmal war es eins, was ihn aktuell sehr stark herumtreibt: Enterprise-SEO und worauf es in der Zukunft ankommen wird. 

Enterprise-SEO ist SEO für große Websites oder Unternehmen. Es hat damit meist eine sehr hohe Komplexität und als wären Unternehmen und Websites nicht bereits komplex genug wird der Dschungel immer dichter. 

Jan ging auf die aus seiner Sicht 4 großen Faktoren ein, die es noch komplexer machen:

  1. Google-Updates: Auch wenn man diese schon gewöhnt ist, gibt es eins aktuell, welches die SERPs und damit die Marktpositionen erheblich verändern werden
  2. E-E-A-T & SGE (Search Generative Experience): Mehr Qualitätsfaktoren und eine völlig neue Art der Suche?
  3. KI / AI im Overload: Zu viele Tools, Möglichkeiten und Einflüsse
  4. BFSG (Barrierefreiheits- stärkungsgesetz): Es bleiben weniger als 20 Monate zur Umsetzung

Tipps hätte es viele von Jan geben können. Da die Zeit natürlich begrenzt ist, brachte er 7 mit. Sieben Impulse, damit man mehr SEO in 2024 umsetzen kann. Es war ein Appell an alle SEOs, die Welt durch die Themen der anderen zu sehen und damit die SEO-Themen mal anders im Unternehmen zu platzieren. 

  1. Nachhaltigkeit: Denn 65 %der deutschen Unternehmen wollen bis 2035 klimaneutral sein. Und durch digitale Tools und Optimierungen können im Schnitt 34 % CO² eingespart werden.
  2. Cyber-Security: Denn niemand möchte mit Schwachstellen in der Presse auftauchen oder sogar vom Netz genommen werden.
  3. Marktrecherche & Entwicklungen: Was macht die Konkurrenz? Vielleicht mal da angreifen, wo sie stagnieren und ihren Fokus von abgewendet haben?
  4. “Erfolgsberater” statt “SEO-Nörgler”: Verpacke SEO als Erfolgsgaraten für die Ziele Deines Gegenübers, nicht für Deine
  5. AI für wichtiges: Es gibt viele Use Cases, die bereits existieren. Nutze diese, um ggf. Engpässe abzufedern.
  6. Branchen-Reports und Umfragen: Zeige auf, was gemacht werden kann, um im nächsten Jahr besser abzuschneiden
  7. BSFG: Es ist einer der vier Faktoren und gehört auch zu den Impulsen. Denn es ist der größte Hebel für Website-Optimierungen seit Ewigkeiten … und das per Gesetz.

Fazit von Jan an alle SEOs: Mehr “Out of the box”-Denken & mehr Anpassung an die “Umgebung”.

Lisa Bleser: Content-Audit: Bleach CleanUp für Deine Website

Da mich das Thema Content-Audit aktuell selbst beschäftigt, wollte ich mir den Vortrag von Lisa Bleser dazu nicht entgehen lassen. Sie ist hier auch als Ersatz-Speaker kurzfristig eingesprungen, da Johannes Beus von Sistrix krankheitsmäßig leider verhindert war. 

Beim Einstieg von Lisa in Ihren Vortrag musste ich direkt lachen, als sie die Frage gestellt hat, wer von den Teilnehmern gerne am Strand wäre und dann deren Meinung eingeholt hat, ob sie sich an zugemüllten Stränden wohlfühlen. Die Antwort war natürlich ein klares Nein und so stellte Lisa direkt den Bezug zu SEO her, warum viele dann im Gegenzug zugemüllte Websites betreiben. 

Ziele eines Content-Audits im Überblick: 

  • Fokus auf die wichtigsten Seiten wiederherstellen
  • Den Umfang der Seitenanzahl reduzieren
  • Den relevanten Content für Google optimieren
  • Die Gelegenheit nutzen, um vor einem Relaunch die Website aufzuräumen

Bei der Durchführung eines Content-Audits kommen zwei Analyse-Verfahren zum Einsatz, die man auf jeden Fall durchführen sollte: 

  1. Die quantitative Analyse
  2. Die qualitative Analyse

Bei der quantitativen Analyse geht es darum, mittels KPI und wichtiger SEO-Kennzahlen (z. B. organischer Traffic, Meta, Daten, Absprungrate, Verweildauer, etc.) die Inhalte der Website datengetrieben zu bewerten. Hilfreiche Tools sind, ist hier das Screaming Frog Crawling-Tool und die Google Search Console

Qualitative Analyse

Bei der Durchführung der qualitativen Analyse geht es darum, die Website nach den Faktoren zu prüfen, die nicht objektiv messbar sind. Hierzu zählen die folgenden Aspekte, welche in der qualitativen Analyse berücksichtigt werden sollten: 

  • Prüfung der Aktualität der Website-Inhalte
  • Beachtung der Nutzer-Intention und Vergleich mit der Konkurrenz
  • Lesbarkeit der Texte (vor allem auf Mobilgeräten)
  • Grafische Aufbereitung der Seiten (User Experience)
  • Integration von Call-to-Action Elementen: Diese sollten am Ende des Contents vorhanden sein und auf eine Produktseite oder ggf. das Kontaktformular verweisen.

Festhalten der Ergebnisse des Content-Audits: 

Nach der fertigen Evaluierung anhand von quantitativen und qualitativen Merkmalen, werden die gesamten Inhalte aus dem Content-Audit in die folgenden 3 Haupt-Gruppen eingeteilt, woraus sich letztlich die Maßnahmen ableiten, wie mit dem Content zu verfahren ist: 

  • Löschung von Inhalten
  • Optimierung von Inhalten
  • Keine Veränderung an den Inhalten

Zur Optimierung von Inhalten zählen u. a. Maßnahmen wie die Optimierung von Snippets, Produktion von Infografiken oder auch das Zusammenlegen von Inhalten auf eine gemeinsame URL. Was Lisa auch nochmal extra betonte, war, dass nach dem Content-Audit vor dem Content-Audit ist, d. h. ein Content-Audit sollte einmal im Jahr wiederholt werden und die URL-Struktur dabei, sofern möglich, so wenig wie möglich verändert werden. 

Julian Dziki: Komplexe SEO-Datenauswertung mit ChatGPT

Parallel in Raum 2 sprach Julian darüber, wie K.I. als Game-Changer im SEO eingesetzt werden kann. Denn ChatGPT kann inzwischen weit mehr als nur schreiben, es kann sogar Grafiken erstellen. Und das in den Unternehmensfarben. Dafür muss man einfach nur mitgeben “Nutze die Farben” und dann die HEX-Codes, Deines Unternehmens. 

Dafür braucht es ChatGPT + Lizenz und SEO-Tools, aus denen Du Excel oder GSC-Daten herausziehen kannst.

Nach einer kurzen Einführung hat er 3 Fallbeispiele mitgebracht inkl. den Prompts

  1. So berechnest Du die SEO-Effizienz Deiner URLs
  2. So berechnest Du den SERP-Overlap – die Daten vorab aus ahfrefs ziehen (und seit kurzem auch aus Sistrix). Die Tools stehen häufig vor der Herausforderung, dass die Keywords in mehreren Kategorien sind oder nicht genau zugeordnet werden kann. ChatGPT kann hier mehrere Stunden Arbeit abnehmen.
  3. Keyword-Cluster mit SERP-Overlap

Auch er betont wieder, wie wichtig es ist konkret zu sein. Prompts sind nicht kurz, sondern müssen detailliert sein. Einer seiner Tipps: Sage zum Abschluss immer: Erkläre nicht Deinen Erklärweg, sondern führe es aus.

Zusammengefasst – damit man direkt nochmal einiges als Reminder aus dem Vortrag hatte:

  1. Lade Excel-Dateien und SEO-Exports in ChatGPT hoch und lasse Dir Auswertungen generieren.
  2. Teste Prompts immer in einem neuen Fenster.
  3. Lass Dir für komplexe Prompts gleich den zugehörigen Python Code ausgeben, arbeite dann mit dem Python Code und passe die Variablen dort an.
  4. Mache einen Screenshot der gezeigten Prompts, lade den Screenshot hoch und lass ChatGPT den Text extrahieren.

Johannes Traschütz: Von 0 auf 22 Mio. Visits/ Monat – Die Erfolgsstory von einfachbacken.de

Um 11.15 erwartete mich ein Vortrag von Johannes, wo mich die Headline angesprochen hatte. Aber worum es konkret geht, wusste ich gar nicht, weil Johannes im Vorfeld gar nicht so viel verraten hat. 

Den Grundstein für das Rezept-Portal von einfachbacken.de bildete die historische Entwicklung von daskochrezept.de, das sehr viel usergenerierten Content aufwies. Mit dem neuen Portal wollte man eine klare Ausrichtung der Website mit einem dazu passenden SEO-Konzept entwickeln. Aufgrund einer im Vorfeld durchgeführten empirischen Studie wollte man zuerst die Bedürfnisse der Zielgruppe untersuchen, was sich an Backrezepte generell für Erwartungen stellt. 

Das Ergebnis der Studie hat gezeigt, dass Rezepte einfach, schnell und gelingsicher sein müssen, dessen Anforderungen die Seite einfachbacken.de erfüllen sollte. Um diese Ziele auch erreichen zu können, hat man sich bei der inhaltlichen Aufbereitung an einem Konzept der Harvard-Business University orientiert, dass der Professor Clayton Christensen aufgestellt hat und den Titel trägt “The job to be done”. 

Das Konzept “The job to be done” von Harvard Professor Christensen

Bei diesem Konzept handelt es sich um einen Ansatz, der die Kundenbedürfnisse aus einer differenzierten Perspektive beleuchtet. Das ganze beruht darauf, dass Kunden, Produkte oder Dienstleistungen erwerben, um eine Aufgabe (den Job) zu erledigen. Dabei lassen sich die Kundenbedürfnisse in funktionale, emotionale und soziale Dimensionen einteilen. 

In Verbindung mit einfachbacken.de war es essenziell, dass sich der Markenname komplett durch die gesamte Produktwelt und damit den Webauftritt durchziehen muss. Demzufolge beruhte der Erfolg von einfachbacken.de auf fünf Erfolgsrezepten, auf die ich im Folgenden kurz eingehen möchte:

Erfolgsrezept Nr. 1: Verstehe Deine Nutzer besser, als sie sich selbst!

Man sollte keine Produkte, sprich auch Webseiten bauen, die für den Nutzer zu kompliziert gedacht sind. In diesem Zusammenhang hat Johannes das mit der Regel in Verbindung gebracht, dass jede Seite in drei Klicks erreichbar sein muss. Dabei hat er ein Beispiel von einer Website aufgegriffen, wobei Nutzer nur zum Rezept gelangen, wenn sie sich durch einen Kategoriebaum durchklicken. Dies hat nicht auf eine positive User-Experience eingezahlt,

Erfolgsrezept Nr. 2: Nutze Siloing für Dein SEO

Ein maßgeblicher SEO-Erfolgsfaktor bei einfachbacken.de war die Umsetzung des Siloing-Ansatzes, was so viel bedeutet, dass sowohl Kategorien und Unterkategorien als auch die Rezepte untereinander verlinken. Damit wurde durch interne Verlinkungen eine Struktur erschaffen, die vor allem das Search-Intent der User berücksichtigt hat, was sich letztlich auch auf die SEO-Performance von einfachbacken.de positiv ausgewirkt hat. 

Erfolgsrezept Nr. 3: High Quality Content is Key!

Mit einfachbacken.de wollte man erreichen, so wenig Geld wie möglich aufzuwenden, um soviel Content wie möglich auf der Plattform zu veröffentlichen. Hierfür kam eine Holistic Content-Strategie zum Einsatz und man wollte keinen User-generated Content mehr auf der Seite haben, wonach User ihre eigenen Rezepte online stellen können, die letztlich dann schlecht bis gar nicht auf Google optimiert sind. 

Erfolgsrezept Nr. 4: Erstelle Video-Content

Während beim klassischen SEO die Snippet-Optimierung zu den Basics gehört, ist es bei Video-Content, z. B. auf YouTube entscheidend, die Thumbnails entsprechend zu optimieren. Auch der Title spielt für YouTube einen sehr wichtigen Faktor, wenn man hier mit seinem Content gut gefunden werden möchte. Bei YouTube zählt vor allem, ob der User in den ersten paar Sekunden einen “Hook” hat, wo er hängen bleibt. Wichtig hierbei ist, dass der User bei Klick auf die Thumbnail auf einem Ergebnis landet, was er sich wirklich erwartet hat.    

Erfolgsrezept Nr. 5: YouTube-SEO ist einfach und eine Riesen-Oppurtunity

Der Speaker referierte darüber, dass es nahezu kein Unternehmen oder Content-Bereich geben würde, wo YouTube nicht relevant sei. Vor allem bei Rezepten werden Videos bei Nutzern immer beliebter, wo sie sich Anregungen holen können, wie ein Gericht genau zubereitet werden muss und wie sie letztendlich Schritt für Schritt durch die einzelnen Schritte durchgeführt werden. 

Die SEO-Erfolgsfaktoren für 2030

Die Abrundung des Vortrags bildete eine Zusammenfassung, wo Johannes in Form einer pyramidalen Darstellung nochmals aufgeführt hat, welche Faktoren im SEO-Bereich in der Zukunft besonders entscheidend sein werden. Dazu gehören die folgenden Aspekte: 

  • SEO-Fundament bildet die Basis
  • Stärke, Brand und Trust baut darauf auf
  • Unique Selling Proposition (USP) als Alleinstellungsmerkmale gegenüber Mitbewerbern
  • High Quality Content, der einzigartig ist und Mehrwert für die Nutzer bietet
  • Aufbau einer Community unterstützt die Monetarisierung von Produkten
  • Sofortige Adaption neuer Trends und Features

Timo Bell und Niclas Bell: Zielgruppenvergrößerung durch Textspinning

In diesem Vortrag ging es darum, wie man im Local SEO-Bereich möglichst viele Texte für verschiedene Ortsnamen erstellt, die sich so stark voneinander unterscheiden, dass sie von Google nicht als Duplicate Content eingestuft werden. 

Ziel war es, mit einer Website im Gesundheitswesen eine hohe Sichtbarkeit im Bereich Dortmund und Umgebung, sowie in zahlreichen umliegenden Städten aufzubauen. Es sollten auch Online-Optionen für mögliche Zweigstellen geschaffen werden. Den Auftakt dafür bildete eine Analyse für den gesamten deutschen Raum, wobei auch diverse Wettbewerber identifiziert wurden, um diese in Google zu überflügeln. 

Aufbau einer Strategie für lokales SEO & diverse Städte

Um möglichst viele verschiedene Stadt-Landingpages (Dortmund, Bochum, etc.) mit Inhalten zu bespielen, wurde pro Thema (Startseite/ Unterseite) ein einziger Text geschrieben, der dann auf andere Städte schnell und unique adaptiert werden konnte. Dazu musste ein Text erstellt werden, der so aufgebaut ist, dass er komplett unique veränderbar ist. Konkret bedeutet dies, der Textaufbau muss so gestaltet sein, dass durch Veränderungen bestimmter Passagen oder Wörter der gesamte Kontext der Seite schnell und einfach verändert werden konnte. Hierfür kam die Methode des Textspinnings zur Anwendung.  

Vorgangsweise beim Text-Spinning:

  • Manipulation von Texten durch den Einsatz von Synonymen
  • Veränderung der Satzstellung in den einzelnen Abschnitten
  • Variable Handhabung von Aufzählungszeichen
  • Variation von Text- und Absatzlängen

Funktionsweise von Textspinning:

Beim Textspinning wird initial eine Syntax definiert, wonach bestimmte Wörter anhand von Platzhaltern ausgetauscht werden —> Diese Syntax wird auch Spintax genannt und muss jedoch mittels einer speziellen Software entwickelt werden. Über diese Software werden Texte dann importiert und kontextuell durch die oben beschriebene Vorgangsweise nachträglich verändert, bis sie sich inhaltsmäßig komplett von dem Ausgangstext unterscheiden. Das nachfolgende Bild zeigt ein Beispiel für den Aufbau einer solchen Syntax.

Damit werden diverse inhaltlich gleiche Texte mit diesem Verfahren so abgeändert, dass sie inhaltlich komplett anders aussehen. Beim Text-Spinning dagegen werden Begriffe anhand von Variablen, die in eckigen oder geschweiften Klammern im Text hinterlegt sind, durch andere Wörter ausgetauscht.

Einsatz von Text-Spinning:

Textspinning ist ein Verfahren, das vor allem bei Websites sinnvoll ist, die ähnlichen Content auf diverse lokale Seiten, z. B. verschiedene Städte, Zweigstellen oder Standorte verteilen müssen. Ein Beispiel trifft auf Versicherungsunternehmen zu, wo es oftmals Websites für unterschiedliche Niederlassungen gibt. In Zeiten von KI ist ChatGPT als Grundlage für einen Inhalt mit Textspinning durchaus geeignet, womit dieser initial erstellte Text z. B. 300 – 400x geschrieben und dann mittels der Textspinning-Methode weiter bearbeitet wird.

Persönliche Evaluation:

Der Vortrag war sehr interessant und hat einen Ansatz aufgezeigt, wie man anstatt von Zahlen auch in Texten Platzhalter bzw. Variablen integrieren kann, die aus verschiedenen einfach veränderbaren Textschnipseln bestehen. Eine Zusammenfassung, wie man dieses Variablen-Set am besten definiert bzw. welche Schritte hier erforderlich sind, um so eine Syntax auch zu erstellen, wäre wünschenswert gewesen. Prinzipiell braucht man aber eine passende Software dazu, um Textspinning überhaupt erst anwenden zu können. 

Johanna Hartung: Der beste SEO-Text, günstig und schnell mit richtigen AI und SEO-Content Tools

In diesem Vortrag ging es auch wieder um die Vorteile, wie man durch Unterstützung von KI bessere Texte, bzw. den perfekten SEO-Text erstellen kann, worauf ich mega gespannt war, welche Tools und Hilfsmittel hier für mich bei meiner täglichen SEO-Arbeit von Nutzen sein können. Johanna Hartung hat erst über die Anforderungen gesprochen, die ein guter Text erfüllen muss, ist dann auf den Prozess eingegangen und hat am Ende nochmal die Optimierung beleuchtet, worauf es bei einem guten KI-Text ankommt. 

Nachdem Google in Ihren Qualitätsrichtlinien die Kriterien von EEAT (Experience, Expertise, Authoritativeness, Trustworthiness) bei den Rankings eine immer größere Bedeutung beimisst, besteht die größte Herausforderung der KI darin, diese Anforderungen auch zu erfüllen. 

EEAT-Kriterien, die bei KI-Texten wichtig sind:  

  • Ist der Inhalt unique?
  • Gibt es wesentlich neue Informationen?
  • Gibt der Inhalt einen guten Überblick über das Thema?
  • Gibt es eindeutige Angaben zu zuverlässigen Quellen?
  • Gibt es Belege zur Fachkompetenz des Autors?

Problematisch daran ist, dass es auch beim Verfassen vom KI-Texten bestimmte Punkte zu beachten gilt und hier auch diverse Fallstricke lauern, die man wissen muss, damit ein KI-Text nicht von Google abgewertet wird: 

Die TOP-Tools zum Verfassen eines guten KI-basierten SEO-Texts

Johanna hat insbesondere zwei Tools näher beleuchtet, die beim Erstellen von guten KI-Texten verwendet werden sollen. Dies waren einerseits frase.io und auf der anderen Seite  neuronwriter.com

Vorteile bei der Nutzung von Neuronwriter

Während fraise.io es ermöglicht individuell eigene Informationen einzubringen, ist Neuronwriter ein umfassendes Content-Marketing Tool, was die SEO-Arbeit durchaus erleichtern kann. Für die Erstellung der Outline (eine Art Gliederung für den Text) kommt Neuronwriter zum Einsatz, wobei neben der Festlegung der Keywords auch relevante Wettbewerber einbezogen werden können. 

Anhand eines Content-Scores kann geprüft werden, wie groß der Übereinstimmungsgrad meiner Keywords mit den Wettbewerbern ist. Dann kann man entweder aus den Überschriften, welche diese verwenden, selber welche übernehmen oder der KI die Erstellung der Überschriften überlassen, wo ich vorher konkrete Keywords hinterlegen kann. 

Vorteile bei der Nutzung von fraise.io

Das KI-Tool fraise.io hilft bei der Inhaltsrecherche und crawlt für das vordefinierte Haupt-Keyword die TOP-20 Ergebnisse in Google. Danach kann die erstellte Outline von Neuronwriter direkt in fraise.io übernommen werden. Fraise.io kann automatisch zu allen 20 Ergebnissen die Headlines und die Inhalte ausgeben. 

Durch die vordefinierten Überschriften aus Neuronwriter liefert fraise.io dann direkt die Inhalte inklusive der Quellenangaben aus. Während Neuronwriter Tipps für die interne Verlinkung ausliefert, kann fraise.io dagegen herausfinden, wohin meine Wettbewerber verlinken, bzw. welche Quellen hier vertrauenswürdig mit hohem Trust sind! 

Workflow für die Texterstellung

Anhand der Keyword-Vorgaben (Haupt- und Nebenkeywords) erstellt das Tool dann automatisiert für jede Überschrift einen PROMPT-Befehl, der dann individuell anpassbar ist. Im Main-Prompt muss man definieren, auf welche Keywords der Text optimiert sein soll. Und dann kann man die Inhalte noch um die selbst im Vorfeld recherchierten Punkte ergänzen. Durch Start mit “Write instructions with AI“ erstellt das Tool dann automatisch den Text mit KI und fügt die eigens zusammengetragenen Informationen (wozu die Quellen bekannt sind) direkt mit dazu ein. 

Dadurch werden individuelle Inhalte mit KI-Inhalten kombiniert, die zwar durch menschliche Hand angestoßen wurde, aber der Text trotzdem komplett durch die KI verfasst wurde. Am Ende muss der fertige Text nochmals in Neuronwriter zum Feinschliff übertragen werden. Nichtsdestotrotz müssen evtl. Füllwörter oder Wiederholungen manuell noch gelöscht werden und der Text nochmal umgeschrieben werden. 

Erstellung der optimalen Headline mit Chat-GPT

Die in Neuronwriter vorher definierten Haupt- und Neben-Keywords werden direkt in den KI-erstellten Text mit aufgenommen. Für die Erstellung der optimalen Headline (h1) sind die beiden Tools weniger geeignet. An diese Stelle tritt Chat-GPT, wonach ich mir anhand der Vorgaben direkte Überschriften-Vorschläge ausgeben lassen kann. 

Matthias Petri: Case-Study: Verfünffachung der Online Sichtbarkeit & Klicks in 12 Monaten

Nach dieser geballten Wissensladung über KI, klang der Titel des nächsten Vortrags äußerst vielversprechend, wie Matthis Petri die Website einer Sichtbarkeit in einem Jahr um das Fünffache steigern konnte. 

Die Website bietet verschiedene Online-Kurse zu Bildbearbeitung, Office-Themen aber auch Designvorlagen an und wurde dann auf Basis eines speziellen Frameworks komplett neu aufgesetzt. Im Anschluss an die Bug-Fixing Phase folgte ein SEO-Sprint, wonach diverse Faktoren (u. a. PageSpeed) optimiert wurden. 

Fakten zum SEO-Sprint im Überblick:

Bei der Optimierung der Website kam größtenteils das Tool von Seobility zum Einsatz. Hiermit wurde sowohl die SEO-Analyse, die Ableitung der daraus resultierenden Maßnahmen, als auch das Monitoring zur Erfolgsmessung durchgeführt. 

  • Der Ausgangswert der anfänglichen Sichtbarkeit lag laut Seobility bei 52%
  • In 21 Tagen wurde der Score auf 97% gesteigert —> das war die Verfünffachung
  • Die Website wurde im Vorfeld mit Seobility gecrawlt.
  • Meta Daten (Title und Descriptions) einzelner Seiten wurden optimiert!

Im Zuge des SEO-Sprints wurden alle Fehler beseitigt, welche von Seobility identifiziert wurden, u. a. die Optimierung problematischer Title-Tags und Meta-Descriptions. Ebenso gab es Probleme mit externen Links (z. B. zur Dev-Umgebung), die einen 403-Fehler (Zugriff verweigert) ausgelöst haben. 

Optimierung von PageSpeed und Core Web Vitals

Bis Mitte Juli 2023 wies die Website Defizite bei den Core Web Vitals auf. Dann wurden diverse Page-Speed-Maßnahmen umgesetzt, was dazu geführt hat, dass sich die Impressionen auf Mobilgeräten um 50% und bei der Gerätebezeichnung Computer um 50% verbessert haben. Im Zuge der Verbesserungsvorschläge, welche Google geliefert hat, lag der Schwerpunkt auf der Bilder-Optimierung, d. h. beim Einsparpotential von Bildgrößen.

Bildformate WebP und AVIF als Page-Speed Booster

Eine Recherche hat ergeben, dass die traffic-stärksten Websites weltweit das Bildformat AVIF nutzen. Das Bildformat von WebPage (WebP) kommt im Gegensatz dazu nur zu  von 10% zum Einsatz. Im nächsten Schritt wurde eine Prüfung durchgeführt, welche Browser mit diesem Bildformat kompatibel sind. WebPage weist bei der Browserkompatibilität einen Wert von 97% auf, während es bei AVIF nur 85% sind. 

Der Vorteil der beiden Bildformate liegt darin, dass sie positiv auf die PageSpeed einzahlen. So benötigt WebP nur 80 KB und AVIF nur 42 KB Speicherplatz. Da auf der Website von Matthias ca. 50.000 Bilder vorhanden sind, konnten sie durch die Umstellung auf dieses Bildformat die Ladezeit deutlich verbessern. 

Das Problem von AVIF mit WordPress

Gemäß der von Matthias vorgestellten Studie nutzen aber nur ca. 0,1% der Websites das Bildformat AVIF. Dies liegt u. a. daran, dass WordPress das Format nicht unterstützt und ca. 43% der Seiten auf WordPress laufen. Es gibt aber die Möglichkeit in WordPress auch AVIF zu nutzen, mithilfe eines Plugins, namens “AVIF Support”

Learnings:

  • Um die Gesamtrelevanz der Seite insgesamt zu erhöhen, sollte man irrelevante Seiten abbauen!
  • Optimierung der Page-Speed ist lt. Matthias die beste Investition in SEO
  • Anreicherung der Websiteinhalte mit strukturierten Daten, um sich stärker von KI generierten Texten abzuheben

Rene Dhemant: Deep Dive in meine SEO-Strategie für ein Start-up im Bereich LOHAS

In den letzten Vortrag von Rene Dhemant bin ich einerseits auf Empfehlung gegangen, und andererseits habe ich mich sehr darauf gefreut, einen tieferen Einblick in die SEO-Strategie zu bekommen, die Rene bei dem Startup Unternehmen umgesetzt hat. 

Konkret ging es um die Website ethic-deals.de. LOHAS bezeichnet dabei den Namen einer Zielgruppe, die besonders gesundheitsbewusst lebt oder einen nachhaltigen Lebensstil pflegt. Die Personas haben dabei ein überdurchschnittliches Einkommen und das Geschäftsfeld basiert auf einem rein digitalen Konzept. 

Die Plattform ethic-deals.de verkörpert ähnlich wie Amazon einen Marktplatz, wo sich alle Unternehmen und Shops auf der Plattform registrieren und als Merchant auftreten können. Diese Merchants stellen exklusiv für die Plattform ethic-deals.de Rabattgutscheine zur Verfügung, die diese Kunden auf der Plattform beziehen und bei Drittanbietern wieder einlösen können. 

Ethic-deals.de verdient sein Geld einerseits durch das Listung des Merchants über die Bezahlung des Verzeichniseintrags und über den Gutschein, der gesondert gekauft werden muss. Der Gutscheincode kann dann gegen einen harten Euro-Wert in einem beliebigen Merchant-Shop eingelöst werden. Insgesamt sind ca. 76 Marken und Shops auf ethic-deals.de gelistet. 

Der strategische Iterationsprozess:

Rene ist anschließend auf das Thema Strategie eingegangen und hat dann im Speziellen ein Konzept genauer erläutert, was allgemein in der Strategieplanung Verwendung findet bzw. im Wesentlichen auf den fünf folgenden Etappen beruht, die iterativ ineinander greifen.  

  • Vision: Ziel, was wir mit einem Geschäftsmodell erreichen wollen, bleibt immer bestehen!
  • Analyse: Vorschläge und Ideen zur Verbesserung des aktuellen Status-Quo
  • Festlegung: Beschreibung der Maßnahmen, was wann und wie zu tun ist
  • Umsetzung und Messung: Durchführung der Maßnahmen und Erfolgskontrolle
  • Anpassung: Anpassung der Maßnahmen, womit der Kreislauf wieder neu gestartet wird

Dieser strategische Iterationskreislauf sollte alle vier Wochen erneut durchlaufen werden, um stetig zu prüfen, ob sie die SEO-Maßnahmen auch an den Unternehmenszielen orientieren und damit einen positiven Beitrag zum zugrundeliegenden Geschäftsmodell leisten.

Das Fundament einer SEO-Strategie:

Das Fundament für die SEO-Strategie von ethci-deals.de leitete sich aus dem vorher beschriebenen übergeordneten Ansatz ab, wobei Rene dann nochmals gesondert herausgestellt hat, was eine SEO-Strategie eigentlich ist und was es damit auf sich hat. Die wichtigsten Punkte habe ich hier nochmal zusammengefasst: 

  • Eine Strategie ist an ein Unternehmensziel ausgerichtetes Marktverhalten!
  • SEO-Strategie leitet sich eigentlich aus der Mission des Unternehmens ab!
  • Strategie anders definiert = “a set of choices that put you in a position to win”
  • Eine gute Strategie trifft eine Reihe klarer Entscheidungen, was zu tun und nicht zu tun ist!

Die Entwicklung einer SEO-Strategie anhand der fünf Lean Thinking Principles

Bei der Erstellung einer SEO-Strategie sollte man sich am besten an den fünf folgenden Punkten orientieren, wenn man damit eine nachhaltige Steigerung der Performance bei Google erzielen möchte: 

  • Festlegung des Wer für den Kunden (Customer Value), d. h. was ist er bereit zu zahlen?
  • Verknüpfung des “Customer Value Stream” ein mit den Bereichen, Themen der Website
  • Herunterbrechen des Customer Value Stream auf einzelne Website-Bereiche
  • Auslösen eines Handlungsbedürfnisses beim Kunden, das in ihm eine Kaufabsicht erweckt
  • Kontinuierliche Perfektionierung zur Steigerung des Customer Value

Die Umsetzung der SEO-Strategie

Die SEO-Strategie beruhte aufgrund des Nutzerverhaltens darauf, dass User generell nach einem Markennamen oder Shopnamen in Verbindung mit dem Begriff “Rabattcode” suchen. Demzufolge wurde auf das gesamte Inventar (für alle auf ethic-deals.de gelisteten Merchants) eine generelle Keyword-Optimierung auf Basis des vorher beschriebenen Ansatz vollzogen, um alle Landingpages der einzelnen Merchants mit guter Sichtbarkeit im Google Index zum Ranken zu bringen.

Ziel der SEO-Strategie war es, die Component-Sparte der einzelnen Merchants bei Google zu den harten Money-Keywords so gut wie möglich zu pushen. 

Der “Aggregator-Ansatz” als Erfolgsformel

Während ein Integrator selber seinen eigenen Content erstellt, bringen Aggregators ihre Nutzer oder in dem Fall Merchants dazu, dass diese ihre Daten auf der Plattform hinterlegen, damit sie diese dann weiter verarbeiten können. Mit Hilfe von Technical SEO, “Page Value” und “Quality” konnte Rene letztlich das Wachstum in der Sichtbarkeit erreichen. 

Umsetzung des Aggregator-Ansatz in der Praxis:

Auf der /deal/ PDP Template Seite hat der Merchant einen eigenen Backend-Zugang und hinterlegt im System, dass er einen Gutscheincode anbieten möchte. Im Sinne des Aggregator-Ansatz werden direkt im Backend sämtliche Attribute abgefragt, u. a. folgende: 

  • Bilder, die der Merchant hochladen muss → daraus erfolgt der Aufbau einer Slider-Galerie
  • USP des Merchants, z. B. bio zertifizierter Wein
  • Beschreibung des Weinguts (hier wird redaktionell geprüft ob der Content unique ist)

Durch die Tatsache, dass der Merchant alle Daten selber eintragen muss, fällt hier keine Arbeit zur Datenerfassung an. Der einzige Schritt dann noch ist, betrifft die Zusammenführung der Daten. Dadurch, dass hier schnell massenhaft Inhalte entstehen mit hochwertigen Inhalten, welche von den Merchants angeliefert werden, ranken die Seiten in Google besonders gut zu den im Vorfeld definierten Haupt-Keywords. 

Durch Snippet-Optimierung mit dem zugrundeliegenden Keyword-Konzept-Ansatz haben die SEO-Seiten in Google alle einen ordentlichen Push bekommen.  

Zusammenfassung der wichtigsten Key-Learnings:

  • Vor der Entwicklung einer Strategie ist es wichtig Zahlungsbereitschaft der Kunden zu kennen
  • Der Customer Value ist ein zentraler Aspekt bei der Festlegung einer Strategie
  • Eine SEO-Strategie muss immer an die übergeordneten Unternehmensziele ausgerichtet sein
  • Durch Einbindung von Nutzern in Form von Datenanlieferung entsteht High-Quality Content
  • Uniqueness ist dabei entscheidend, um die SEO-Performance nachhaltig zu steigern.
  • Jeder Content sollte einen direkten Mehrwert für den Kunden (Customer Value) liefern
Markus Maier

Recent Posts

Recap Analytics Summit Hamburg 2024

Nach einer großartigen Erfahrung in London beim Measure Camp 2024 entschieden wir uns, an einer…

1 Woche ago

MeasureCamp 2024 in London – Recap

MeasureCamp London 2024 - Recap Dieses Jahr hatte ich die Gelegenheit, für ReachX am MeasureCamp…

1 Monat ago

Mein Recap zum KI Day 2024 in Köln

Am 26.09.2024 fand der erste KI Day für dieses Jahr im RheinEnergieSTADION in Köln statt…

2 Monaten ago

Audisto Tech SEO Summit 2024 – Recap

Am 17.09.2024 fand der erste Tech SEO Summit in Hamburg statt. Das von Audisto hervorragend…

2 Monaten ago

Recap Ads Camp 2024

Wenn es eine Konferenz gibt, bei der sich alles um Neuheiten, Ads, Performance und Optimierung…

2 Monaten ago

OMT 2024 ‒ Viel Inspiration, spannendes Networking und große Party

Eine Pyramide in Mainz ist nicht wirklich ungewöhnlich. Zumindest für das Publikum, das einmal im…

2 Monaten ago