Der Seoday 2023 lieferte eine geballte Ladung Wissen über die aktuellen Trends in der SEO-Branche, detaillierte Einblicke in verschiedene SEO-Workflows mit hohem Praxisbezug. Der Schwerpunkt der diesjährigen Konferenz lag dabei besonders stark auf dem Thema KI und Chat GPT, um durch Automatisierung von Prozessen die alltägliche SEO-Arbeit dadurch einfacher zu gestalten.
Die SEO-Konferenz fand am 02. November im Rhein-Energie-Station in Köln statt. In 3 verschiedenen Räumen konnte man sich dann über verschiedene Themengebiete und Teilbereiche der Suchmaschinenoptimierung informieren, wo die Wahl oft gar nicht so leicht fiel. In dem folgenden Recap findet ihr die wichtigsten Fakten und Erkenntnisse, die ich aus meinen besuchten Vorträgen mitgenommen habe.
Den Auftakt zum diesjährigen Seoday bildete das heiß begehrte Thema „Google Analytics 4“. Leider fand der Vortrag 10 Minuten später als geplant statt, was den Raumwechsel danach schwieriger machte, um pünktlich zu Beginn des nächsten Tracks dort zu erscheinen. Was mich von Anfang an begeisterte war die Aussage, dass man bei GA4 komplett neu laufen lernen muss und es sich komplett von Universal Analytics unterscheidet.
Die ganzen Auswertungen als auch die Attribution sind mit Universal Analytics nicht mehr vergleichbar. GA4 ist somit keine Renovierung, sondern ein kompletter Neubau, den Google hier entwickelt hat. Die Namen der Reports haben sich nicht großartig geändert, aber es steckt datenmäßig etwas ganz anderes dahinter.
So wurde der Report frühere Traffic-Akquisition nun in “Neu generierte Zugriffe” umbenannt. Die Absprungrate wurde durch den Begriff “Interaktionsdauer” ersetzt. Während bei Universal Analytics der erste Seitenaufruf nicht mitgezählt wurde, beginnt Google Analytics 4 bereits mit dem 1. Zugriff auf die Seite mit der Messung der Daten. Der große Vorteil von GA4 ist auch, dass jedes Mal, wenn eine Conversion auf der Website ausgelöst wird, diese auch direkt mitgezählt wird.
Tipp: Google Signal kann man für die Berichte (Berichtsidentifikation) ausschalten. Es lohnt sich.
Auch der Report zur Auswertung der Nutzerdaten hat sich in GA4 dahingehend geändert, dass hier inzwischen zwischen aktiven und nicht aktiven Nutzern unterschieden wird. Dabei betreffen aktive Nutzer alle neuen, wiederkehrenden Nutzer mit genau einer getätigten Interaktion auf der Website. Es kann jedoch der Fall sein, dass in GA4 insgesamt weniger Nutzerzahlen ausgeliefert werden als in Universal Analytics.
Abschließend gab er 5 Impulse zum Abschluss:
Die wichtigsten Key-Learnings, die ich aus dem Vortrag mitgenommen habe, waren folgende:
Prinzipiell fand ich den Vortrag sehr aufschlussreich und praxisnah aufgebaut, weil Michael auch die Unterschiede zwischen Universal Analytics und Google Analytics 4 sehr anschaulich und nachvollziehbar dargestellt hat. Als Fazit bleibt noch zu sagen, dass jeder, der GA4 nutzt, hinsichtlich der geänderten Messverfahren komplett umdenken muss, um die Trackingdaten der Website-Aktivitäten optimal auswerten zu können.
Übrigens: Wer sich mehr mit Google Analytics 4 und seiner Einführung beschäftigen will, ist auch bei unserem Webinar genau richtig. Einfach auf den Banner klicken und das Webinar später in einem neuen Tab anschauen.
Aufgrund des verspäteten Beginns des 1. Vortrags habe ich nach dem Raumwechsel die ersten Minuten leider verpasst. Diana Karcz referierte über das Thema KI in Verbindung mit Content-Erstellung und zeigte in versch. Beispiele, wie sie es geschafft haben, durch den Einsatz von KI in Ihren Texten bei verschiedenen Themen damit ihre Rankings in Google zu verbessern. In einem Fall hat sich durch die Content-Optimierung mit KI die Position von 100 auf 13 verlagert.
Das Problem, das die Content-Erstellung mit KI mit sich bringt, ist, dass immer mehr Unternehmen diese Möglichkeiten nutzen. Demzufolge ist der Wettbewerb umso höher, weil es umso mehr Inhalte gibt und es erforderlich ist, Lösungen zu entwickeln, um sich mit den eigenen KI-Inhalten von der Konkurrenz abzuheben. Vor allem die EEAT-Kriterien spielen bei guten Texten eine wichtige Rolle. Anhand einer Search-Quality Evaluation Matrix hat Diana aufgezeigt, auf welchen Ebenen die verschiedenen Bewertungskriterien erfolgen und wie diese mit EEAT zusammenhängen.
Hier hat Diana aufgezeigt, dass richtig starke Backlinks essenziell sind, um bei Google z. B. in der TOP-3 zu ranken. Die Lösung, massenhaft Backlinks aufzubauen, funktioniert an dieser Stelle jedoch auch nicht. Abhilfe schafft hier die Nutzung des Matthäus-Effekts.
Was ist der Matthäus-Effekt?
Der Begriff kommt aus der Poker-Szene und sagt aus, dass Erfolge auf früheren Erfolgen aufbauen, d. h. wenn ich schon einen ersten Erfolg gehabt habe, werde ich auch mehr Erfolge haben. Wenn man dies auf die SEO-Arbeit überträgt, bedeutet dies, dass die Erstellung von qualitativ hochwertigem Content zu guten Rankings führt und infolgedessen die Website wertvolle Backlinks bekommt, was sonst nicht der Fall gewesen wäre.
Wie kann ich mir den Matthäus-Effekt im SEO zunutze machen?
Die KI ist hier das Erfolgsgeheimnis, weil es mir damit ermöglicht, deutlich mehr Inhalte zu erstellen und Themen abzudecken, die für meine Website relevant sind. Hier muss allerdings auch noch der Mensch eingreifen, da vor allem bei Google das Thema EEAT stark ins Gewicht fällt, wonach Texte für die Nutzer auch einen Mehrwert bieten müssen.
Ein Nachteil von verstärktem KI-Einsatz ist jedoch, dass ChatGPT und Co. selber keine so guten Texte produzieren kann, die wirkliche TOP-Platzierungen in Google erzielen. Ein wichtiges Kriterium, bei dem die KI noch Nachholbedarf hat, ist, dass die Texte teilweise eine miserable oder fast schon spamartige Keyword-Dichte aufweisen. Es ist also nach wie vor menschliche Arbeit nötig, um dieses Ziel zu erreichen.
Linkaufbau als Schlüssel-Erfolgsfaktor im KI-Zeitalter
Anhand eines Praxisbeispiels hat Diana schließlich aufgezeigt, wie sie es geschafft hat, einen Text, der schlecht gerankt hat, ohne Vornahme von Änderungen in die TOP-10 zu überführen. Das Learning hieraus war, dass eine Seite, die gute Inhalte und starke Backlinks aufweist, sich positiv auf andere erstellte Inhalte auswirkt, weil dieser SEO-Bonus sozusagen auf die anderen produzierten Inhalte übergeht, was wiederum dazu führt, dass man mehr Links bekommt.
Die TOP-Takeaways kurz zusammengefasst:
Zusammenfassend lässt sich sagen, dass der Vortrag gut beleuchtet hat, wie die KI heutzutage bei der Erstellung von Texten unterstützen kann und wo die Schwächen dabei liegen. In Verbindung mit dem Thema Linkaufbau kann die KI hier allerdings noch keinen großen Mehrwert leisten, sondern hier ist es nach wie vor erforderlich eigenständig Linkanalysen anzustoßen um potenzielle Linkquellen dadurch bewerten zu können.
Unser Kollege Jan hat, wie seit 2018 bereits jedes Jahr, auch wieder ein Thema auf die Seoday-Bühne gebracht. Diesmal war es eins, was ihn aktuell sehr stark herumtreibt: Enterprise-SEO und worauf es in der Zukunft ankommen wird.
Enterprise-SEO ist SEO für große Websites oder Unternehmen. Es hat damit meist eine sehr hohe Komplexität und als wären Unternehmen und Websites nicht bereits komplex genug wird der Dschungel immer dichter.
Jan ging auf die aus seiner Sicht 4 großen Faktoren ein, die es noch komplexer machen:
Tipps hätte es viele von Jan geben können. Da die Zeit natürlich begrenzt ist, brachte er 7 mit. Sieben Impulse, damit man mehr SEO in 2024 umsetzen kann. Es war ein Appell an alle SEOs, die Welt durch die Themen der anderen zu sehen und damit die SEO-Themen mal anders im Unternehmen zu platzieren.
Fazit von Jan an alle SEOs: Mehr “Out of the box”-Denken & mehr Anpassung an die “Umgebung”.
Da mich das Thema Content-Audit aktuell selbst beschäftigt, wollte ich mir den Vortrag von Lisa Bleser dazu nicht entgehen lassen. Sie ist hier auch als Ersatz-Speaker kurzfristig eingesprungen, da Johannes Beus von Sistrix krankheitsmäßig leider verhindert war.
Beim Einstieg von Lisa in Ihren Vortrag musste ich direkt lachen, als sie die Frage gestellt hat, wer von den Teilnehmern gerne am Strand wäre und dann deren Meinung eingeholt hat, ob sie sich an zugemüllten Stränden wohlfühlen. Die Antwort war natürlich ein klares Nein und so stellte Lisa direkt den Bezug zu SEO her, warum viele dann im Gegenzug zugemüllte Websites betreiben.
Ziele eines Content-Audits im Überblick:
Bei der Durchführung eines Content-Audits kommen zwei Analyse-Verfahren zum Einsatz, die man auf jeden Fall durchführen sollte:
Bei der quantitativen Analyse geht es darum, mittels KPI und wichtiger SEO-Kennzahlen (z. B. organischer Traffic, Meta, Daten, Absprungrate, Verweildauer, etc.) die Inhalte der Website datengetrieben zu bewerten. Hilfreiche Tools sind, ist hier das Screaming Frog Crawling-Tool und die Google Search Console
Qualitative Analyse
Bei der Durchführung der qualitativen Analyse geht es darum, die Website nach den Faktoren zu prüfen, die nicht objektiv messbar sind. Hierzu zählen die folgenden Aspekte, welche in der qualitativen Analyse berücksichtigt werden sollten:
Festhalten der Ergebnisse des Content-Audits:
Nach der fertigen Evaluierung anhand von quantitativen und qualitativen Merkmalen, werden die gesamten Inhalte aus dem Content-Audit in die folgenden 3 Haupt-Gruppen eingeteilt, woraus sich letztlich die Maßnahmen ableiten, wie mit dem Content zu verfahren ist:
Zur Optimierung von Inhalten zählen u. a. Maßnahmen wie die Optimierung von Snippets, Produktion von Infografiken oder auch das Zusammenlegen von Inhalten auf eine gemeinsame URL. Was Lisa auch nochmal extra betonte, war, dass nach dem Content-Audit vor dem Content-Audit ist, d. h. ein Content-Audit sollte einmal im Jahr wiederholt werden und die URL-Struktur dabei, sofern möglich, so wenig wie möglich verändert werden.
Parallel in Raum 2 sprach Julian darüber, wie K.I. als Game-Changer im SEO eingesetzt werden kann. Denn ChatGPT kann inzwischen weit mehr als nur schreiben, es kann sogar Grafiken erstellen. Und das in den Unternehmensfarben. Dafür muss man einfach nur mitgeben “Nutze die Farben” und dann die HEX-Codes, Deines Unternehmens.
Dafür braucht es ChatGPT + Lizenz und SEO-Tools, aus denen Du Excel oder GSC-Daten herausziehen kannst.
Nach einer kurzen Einführung hat er 3 Fallbeispiele mitgebracht inkl. den Prompts
Auch er betont wieder, wie wichtig es ist konkret zu sein. Prompts sind nicht kurz, sondern müssen detailliert sein. Einer seiner Tipps: Sage zum Abschluss immer: Erkläre nicht Deinen Erklärweg, sondern führe es aus.
Zusammengefasst – damit man direkt nochmal einiges als Reminder aus dem Vortrag hatte:
Um 11.15 erwartete mich ein Vortrag von Johannes, wo mich die Headline angesprochen hatte. Aber worum es konkret geht, wusste ich gar nicht, weil Johannes im Vorfeld gar nicht so viel verraten hat.
Den Grundstein für das Rezept-Portal von einfachbacken.de bildete die historische Entwicklung von daskochrezept.de, das sehr viel usergenerierten Content aufwies. Mit dem neuen Portal wollte man eine klare Ausrichtung der Website mit einem dazu passenden SEO-Konzept entwickeln. Aufgrund einer im Vorfeld durchgeführten empirischen Studie wollte man zuerst die Bedürfnisse der Zielgruppe untersuchen, was sich an Backrezepte generell für Erwartungen stellt.
Das Ergebnis der Studie hat gezeigt, dass Rezepte einfach, schnell und gelingsicher sein müssen, dessen Anforderungen die Seite einfachbacken.de erfüllen sollte. Um diese Ziele auch erreichen zu können, hat man sich bei der inhaltlichen Aufbereitung an einem Konzept der Harvard-Business University orientiert, dass der Professor Clayton Christensen aufgestellt hat und den Titel trägt “The job to be done”.
Das Konzept “The job to be done” von Harvard Professor Christensen
Bei diesem Konzept handelt es sich um einen Ansatz, der die Kundenbedürfnisse aus einer differenzierten Perspektive beleuchtet. Das ganze beruht darauf, dass Kunden, Produkte oder Dienstleistungen erwerben, um eine Aufgabe (den Job) zu erledigen. Dabei lassen sich die Kundenbedürfnisse in funktionale, emotionale und soziale Dimensionen einteilen.
In Verbindung mit einfachbacken.de war es essenziell, dass sich der Markenname komplett durch die gesamte Produktwelt und damit den Webauftritt durchziehen muss. Demzufolge beruhte der Erfolg von einfachbacken.de auf fünf Erfolgsrezepten, auf die ich im Folgenden kurz eingehen möchte:
Erfolgsrezept Nr. 1: Verstehe Deine Nutzer besser, als sie sich selbst!
Man sollte keine Produkte, sprich auch Webseiten bauen, die für den Nutzer zu kompliziert gedacht sind. In diesem Zusammenhang hat Johannes das mit der Regel in Verbindung gebracht, dass jede Seite in drei Klicks erreichbar sein muss. Dabei hat er ein Beispiel von einer Website aufgegriffen, wobei Nutzer nur zum Rezept gelangen, wenn sie sich durch einen Kategoriebaum durchklicken. Dies hat nicht auf eine positive User-Experience eingezahlt,
Erfolgsrezept Nr. 2: Nutze Siloing für Dein SEO
Ein maßgeblicher SEO-Erfolgsfaktor bei einfachbacken.de war die Umsetzung des Siloing-Ansatzes, was so viel bedeutet, dass sowohl Kategorien und Unterkategorien als auch die Rezepte untereinander verlinken. Damit wurde durch interne Verlinkungen eine Struktur erschaffen, die vor allem das Search-Intent der User berücksichtigt hat, was sich letztlich auch auf die SEO-Performance von einfachbacken.de positiv ausgewirkt hat.
Erfolgsrezept Nr. 3: High Quality Content is Key!
Mit einfachbacken.de wollte man erreichen, so wenig Geld wie möglich aufzuwenden, um soviel Content wie möglich auf der Plattform zu veröffentlichen. Hierfür kam eine Holistic Content-Strategie zum Einsatz und man wollte keinen User-generated Content mehr auf der Seite haben, wonach User ihre eigenen Rezepte online stellen können, die letztlich dann schlecht bis gar nicht auf Google optimiert sind.
Erfolgsrezept Nr. 4: Erstelle Video-Content
Während beim klassischen SEO die Snippet-Optimierung zu den Basics gehört, ist es bei Video-Content, z. B. auf YouTube entscheidend, die Thumbnails entsprechend zu optimieren. Auch der Title spielt für YouTube einen sehr wichtigen Faktor, wenn man hier mit seinem Content gut gefunden werden möchte. Bei YouTube zählt vor allem, ob der User in den ersten paar Sekunden einen “Hook” hat, wo er hängen bleibt. Wichtig hierbei ist, dass der User bei Klick auf die Thumbnail auf einem Ergebnis landet, was er sich wirklich erwartet hat.
Erfolgsrezept Nr. 5: YouTube-SEO ist einfach und eine Riesen-Oppurtunity
Der Speaker referierte darüber, dass es nahezu kein Unternehmen oder Content-Bereich geben würde, wo YouTube nicht relevant sei. Vor allem bei Rezepten werden Videos bei Nutzern immer beliebter, wo sie sich Anregungen holen können, wie ein Gericht genau zubereitet werden muss und wie sie letztendlich Schritt für Schritt durch die einzelnen Schritte durchgeführt werden.
Die SEO-Erfolgsfaktoren für 2030
Die Abrundung des Vortrags bildete eine Zusammenfassung, wo Johannes in Form einer pyramidalen Darstellung nochmals aufgeführt hat, welche Faktoren im SEO-Bereich in der Zukunft besonders entscheidend sein werden. Dazu gehören die folgenden Aspekte:
In diesem Vortrag ging es darum, wie man im Local SEO-Bereich möglichst viele Texte für verschiedene Ortsnamen erstellt, die sich so stark voneinander unterscheiden, dass sie von Google nicht als Duplicate Content eingestuft werden.
Ziel war es, mit einer Website im Gesundheitswesen eine hohe Sichtbarkeit im Bereich Dortmund und Umgebung, sowie in zahlreichen umliegenden Städten aufzubauen. Es sollten auch Online-Optionen für mögliche Zweigstellen geschaffen werden. Den Auftakt dafür bildete eine Analyse für den gesamten deutschen Raum, wobei auch diverse Wettbewerber identifiziert wurden, um diese in Google zu überflügeln.
Aufbau einer Strategie für lokales SEO & diverse Städte
Um möglichst viele verschiedene Stadt-Landingpages (Dortmund, Bochum, etc.) mit Inhalten zu bespielen, wurde pro Thema (Startseite/ Unterseite) ein einziger Text geschrieben, der dann auf andere Städte schnell und unique adaptiert werden konnte. Dazu musste ein Text erstellt werden, der so aufgebaut ist, dass er komplett unique veränderbar ist. Konkret bedeutet dies, der Textaufbau muss so gestaltet sein, dass durch Veränderungen bestimmter Passagen oder Wörter der gesamte Kontext der Seite schnell und einfach verändert werden konnte. Hierfür kam die Methode des Textspinnings zur Anwendung.
Vorgangsweise beim Text-Spinning:
Funktionsweise von Textspinning:
Beim Textspinning wird initial eine Syntax definiert, wonach bestimmte Wörter anhand von Platzhaltern ausgetauscht werden —> Diese Syntax wird auch Spintax genannt und muss jedoch mittels einer speziellen Software entwickelt werden. Über diese Software werden Texte dann importiert und kontextuell durch die oben beschriebene Vorgangsweise nachträglich verändert, bis sie sich inhaltsmäßig komplett von dem Ausgangstext unterscheiden. Das nachfolgende Bild zeigt ein Beispiel für den Aufbau einer solchen Syntax.
Damit werden diverse inhaltlich gleiche Texte mit diesem Verfahren so abgeändert, dass sie inhaltlich komplett anders aussehen. Beim Text-Spinning dagegen werden Begriffe anhand von Variablen, die in eckigen oder geschweiften Klammern im Text hinterlegt sind, durch andere Wörter ausgetauscht.
Einsatz von Text-Spinning:
Textspinning ist ein Verfahren, das vor allem bei Websites sinnvoll ist, die ähnlichen Content auf diverse lokale Seiten, z. B. verschiedene Städte, Zweigstellen oder Standorte verteilen müssen. Ein Beispiel trifft auf Versicherungsunternehmen zu, wo es oftmals Websites für unterschiedliche Niederlassungen gibt. In Zeiten von KI ist ChatGPT als Grundlage für einen Inhalt mit Textspinning durchaus geeignet, womit dieser initial erstellte Text z. B. 300 – 400x geschrieben und dann mittels der Textspinning-Methode weiter bearbeitet wird.
Persönliche Evaluation:
Der Vortrag war sehr interessant und hat einen Ansatz aufgezeigt, wie man anstatt von Zahlen auch in Texten Platzhalter bzw. Variablen integrieren kann, die aus verschiedenen einfach veränderbaren Textschnipseln bestehen. Eine Zusammenfassung, wie man dieses Variablen-Set am besten definiert bzw. welche Schritte hier erforderlich sind, um so eine Syntax auch zu erstellen, wäre wünschenswert gewesen. Prinzipiell braucht man aber eine passende Software dazu, um Textspinning überhaupt erst anwenden zu können.
In diesem Vortrag ging es auch wieder um die Vorteile, wie man durch Unterstützung von KI bessere Texte, bzw. den perfekten SEO-Text erstellen kann, worauf ich mega gespannt war, welche Tools und Hilfsmittel hier für mich bei meiner täglichen SEO-Arbeit von Nutzen sein können. Johanna Hartung hat erst über die Anforderungen gesprochen, die ein guter Text erfüllen muss, ist dann auf den Prozess eingegangen und hat am Ende nochmal die Optimierung beleuchtet, worauf es bei einem guten KI-Text ankommt.
Nachdem Google in Ihren Qualitätsrichtlinien die Kriterien von EEAT (Experience, Expertise, Authoritativeness, Trustworthiness) bei den Rankings eine immer größere Bedeutung beimisst, besteht die größte Herausforderung der KI darin, diese Anforderungen auch zu erfüllen.
EEAT-Kriterien, die bei KI-Texten wichtig sind:
Problematisch daran ist, dass es auch beim Verfassen vom KI-Texten bestimmte Punkte zu beachten gilt und hier auch diverse Fallstricke lauern, die man wissen muss, damit ein KI-Text nicht von Google abgewertet wird:
Die TOP-Tools zum Verfassen eines guten KI-basierten SEO-Texts
Johanna hat insbesondere zwei Tools näher beleuchtet, die beim Erstellen von guten KI-Texten verwendet werden sollen. Dies waren einerseits frase.io und auf der anderen Seite neuronwriter.com
Vorteile bei der Nutzung von Neuronwriter
Während fraise.io es ermöglicht individuell eigene Informationen einzubringen, ist Neuronwriter ein umfassendes Content-Marketing Tool, was die SEO-Arbeit durchaus erleichtern kann. Für die Erstellung der Outline (eine Art Gliederung für den Text) kommt Neuronwriter zum Einsatz, wobei neben der Festlegung der Keywords auch relevante Wettbewerber einbezogen werden können.
Anhand eines Content-Scores kann geprüft werden, wie groß der Übereinstimmungsgrad meiner Keywords mit den Wettbewerbern ist. Dann kann man entweder aus den Überschriften, welche diese verwenden, selber welche übernehmen oder der KI die Erstellung der Überschriften überlassen, wo ich vorher konkrete Keywords hinterlegen kann.
Vorteile bei der Nutzung von fraise.io
Das KI-Tool fraise.io hilft bei der Inhaltsrecherche und crawlt für das vordefinierte Haupt-Keyword die TOP-20 Ergebnisse in Google. Danach kann die erstellte Outline von Neuronwriter direkt in fraise.io übernommen werden. Fraise.io kann automatisch zu allen 20 Ergebnissen die Headlines und die Inhalte ausgeben.
Durch die vordefinierten Überschriften aus Neuronwriter liefert fraise.io dann direkt die Inhalte inklusive der Quellenangaben aus. Während Neuronwriter Tipps für die interne Verlinkung ausliefert, kann fraise.io dagegen herausfinden, wohin meine Wettbewerber verlinken, bzw. welche Quellen hier vertrauenswürdig mit hohem Trust sind!
Workflow für die Texterstellung
Anhand der Keyword-Vorgaben (Haupt- und Nebenkeywords) erstellt das Tool dann automatisiert für jede Überschrift einen PROMPT-Befehl, der dann individuell anpassbar ist. Im Main-Prompt muss man definieren, auf welche Keywords der Text optimiert sein soll. Und dann kann man die Inhalte noch um die selbst im Vorfeld recherchierten Punkte ergänzen. Durch Start mit “Write instructions with AI“ erstellt das Tool dann automatisch den Text mit KI und fügt die eigens zusammengetragenen Informationen (wozu die Quellen bekannt sind) direkt mit dazu ein.
Dadurch werden individuelle Inhalte mit KI-Inhalten kombiniert, die zwar durch menschliche Hand angestoßen wurde, aber der Text trotzdem komplett durch die KI verfasst wurde. Am Ende muss der fertige Text nochmals in Neuronwriter zum Feinschliff übertragen werden. Nichtsdestotrotz müssen evtl. Füllwörter oder Wiederholungen manuell noch gelöscht werden und der Text nochmal umgeschrieben werden.
Erstellung der optimalen Headline mit Chat-GPT
Die in Neuronwriter vorher definierten Haupt- und Neben-Keywords werden direkt in den KI-erstellten Text mit aufgenommen. Für die Erstellung der optimalen Headline (h1) sind die beiden Tools weniger geeignet. An diese Stelle tritt Chat-GPT, wonach ich mir anhand der Vorgaben direkte Überschriften-Vorschläge ausgeben lassen kann.
Nach dieser geballten Wissensladung über KI, klang der Titel des nächsten Vortrags äußerst vielversprechend, wie Matthis Petri die Website einer Sichtbarkeit in einem Jahr um das Fünffache steigern konnte.
Die Website bietet verschiedene Online-Kurse zu Bildbearbeitung, Office-Themen aber auch Designvorlagen an und wurde dann auf Basis eines speziellen Frameworks komplett neu aufgesetzt. Im Anschluss an die Bug-Fixing Phase folgte ein SEO-Sprint, wonach diverse Faktoren (u. a. PageSpeed) optimiert wurden.
Fakten zum SEO-Sprint im Überblick:
Bei der Optimierung der Website kam größtenteils das Tool von Seobility zum Einsatz. Hiermit wurde sowohl die SEO-Analyse, die Ableitung der daraus resultierenden Maßnahmen, als auch das Monitoring zur Erfolgsmessung durchgeführt.
Im Zuge des SEO-Sprints wurden alle Fehler beseitigt, welche von Seobility identifiziert wurden, u. a. die Optimierung problematischer Title-Tags und Meta-Descriptions. Ebenso gab es Probleme mit externen Links (z. B. zur Dev-Umgebung), die einen 403-Fehler (Zugriff verweigert) ausgelöst haben.
Optimierung von PageSpeed und Core Web Vitals
Bis Mitte Juli 2023 wies die Website Defizite bei den Core Web Vitals auf. Dann wurden diverse Page-Speed-Maßnahmen umgesetzt, was dazu geführt hat, dass sich die Impressionen auf Mobilgeräten um 50% und bei der Gerätebezeichnung Computer um 50% verbessert haben. Im Zuge der Verbesserungsvorschläge, welche Google geliefert hat, lag der Schwerpunkt auf der Bilder-Optimierung, d. h. beim Einsparpotential von Bildgrößen.
Bildformate WebP und AVIF als Page-Speed Booster
Eine Recherche hat ergeben, dass die traffic-stärksten Websites weltweit das Bildformat AVIF nutzen. Das Bildformat von WebPage (WebP) kommt im Gegensatz dazu nur zu von 10% zum Einsatz. Im nächsten Schritt wurde eine Prüfung durchgeführt, welche Browser mit diesem Bildformat kompatibel sind. WebPage weist bei der Browserkompatibilität einen Wert von 97% auf, während es bei AVIF nur 85% sind.
Der Vorteil der beiden Bildformate liegt darin, dass sie positiv auf die PageSpeed einzahlen. So benötigt WebP nur 80 KB und AVIF nur 42 KB Speicherplatz. Da auf der Website von Matthias ca. 50.000 Bilder vorhanden sind, konnten sie durch die Umstellung auf dieses Bildformat die Ladezeit deutlich verbessern.
Das Problem von AVIF mit WordPress
Gemäß der von Matthias vorgestellten Studie nutzen aber nur ca. 0,1% der Websites das Bildformat AVIF. Dies liegt u. a. daran, dass WordPress das Format nicht unterstützt und ca. 43% der Seiten auf WordPress laufen. Es gibt aber die Möglichkeit in WordPress auch AVIF zu nutzen, mithilfe eines Plugins, namens “AVIF Support”.
Learnings:
In den letzten Vortrag von Rene Dhemant bin ich einerseits auf Empfehlung gegangen, und andererseits habe ich mich sehr darauf gefreut, einen tieferen Einblick in die SEO-Strategie zu bekommen, die Rene bei dem Startup Unternehmen umgesetzt hat.
Konkret ging es um die Website ethic-deals.de. LOHAS bezeichnet dabei den Namen einer Zielgruppe, die besonders gesundheitsbewusst lebt oder einen nachhaltigen Lebensstil pflegt. Die Personas haben dabei ein überdurchschnittliches Einkommen und das Geschäftsfeld basiert auf einem rein digitalen Konzept.
Die Plattform ethic-deals.de verkörpert ähnlich wie Amazon einen Marktplatz, wo sich alle Unternehmen und Shops auf der Plattform registrieren und als Merchant auftreten können. Diese Merchants stellen exklusiv für die Plattform ethic-deals.de Rabattgutscheine zur Verfügung, die diese Kunden auf der Plattform beziehen und bei Drittanbietern wieder einlösen können.
Ethic-deals.de verdient sein Geld einerseits durch das Listung des Merchants über die Bezahlung des Verzeichniseintrags und über den Gutschein, der gesondert gekauft werden muss. Der Gutscheincode kann dann gegen einen harten Euro-Wert in einem beliebigen Merchant-Shop eingelöst werden. Insgesamt sind ca. 76 Marken und Shops auf ethic-deals.de gelistet.
Der strategische Iterationsprozess:
Rene ist anschließend auf das Thema Strategie eingegangen und hat dann im Speziellen ein Konzept genauer erläutert, was allgemein in der Strategieplanung Verwendung findet bzw. im Wesentlichen auf den fünf folgenden Etappen beruht, die iterativ ineinander greifen.
Dieser strategische Iterationskreislauf sollte alle vier Wochen erneut durchlaufen werden, um stetig zu prüfen, ob sie die SEO-Maßnahmen auch an den Unternehmenszielen orientieren und damit einen positiven Beitrag zum zugrundeliegenden Geschäftsmodell leisten.
Das Fundament einer SEO-Strategie:
Das Fundament für die SEO-Strategie von ethci-deals.de leitete sich aus dem vorher beschriebenen übergeordneten Ansatz ab, wobei Rene dann nochmals gesondert herausgestellt hat, was eine SEO-Strategie eigentlich ist und was es damit auf sich hat. Die wichtigsten Punkte habe ich hier nochmal zusammengefasst:
Die Entwicklung einer SEO-Strategie anhand der fünf Lean Thinking Principles
Bei der Erstellung einer SEO-Strategie sollte man sich am besten an den fünf folgenden Punkten orientieren, wenn man damit eine nachhaltige Steigerung der Performance bei Google erzielen möchte:
Die Umsetzung der SEO-Strategie
Die SEO-Strategie beruhte aufgrund des Nutzerverhaltens darauf, dass User generell nach einem Markennamen oder Shopnamen in Verbindung mit dem Begriff “Rabattcode” suchen. Demzufolge wurde auf das gesamte Inventar (für alle auf ethic-deals.de gelisteten Merchants) eine generelle Keyword-Optimierung auf Basis des vorher beschriebenen Ansatz vollzogen, um alle Landingpages der einzelnen Merchants mit guter Sichtbarkeit im Google Index zum Ranken zu bringen.
Ziel der SEO-Strategie war es, die Component-Sparte der einzelnen Merchants bei Google zu den harten Money-Keywords so gut wie möglich zu pushen.
Der “Aggregator-Ansatz” als Erfolgsformel
Während ein Integrator selber seinen eigenen Content erstellt, bringen Aggregators ihre Nutzer oder in dem Fall Merchants dazu, dass diese ihre Daten auf der Plattform hinterlegen, damit sie diese dann weiter verarbeiten können. Mit Hilfe von Technical SEO, “Page Value” und “Quality” konnte Rene letztlich das Wachstum in der Sichtbarkeit erreichen.
Umsetzung des Aggregator-Ansatz in der Praxis:
Auf der /deal/ PDP Template Seite hat der Merchant einen eigenen Backend-Zugang und hinterlegt im System, dass er einen Gutscheincode anbieten möchte. Im Sinne des Aggregator-Ansatz werden direkt im Backend sämtliche Attribute abgefragt, u. a. folgende:
Durch die Tatsache, dass der Merchant alle Daten selber eintragen muss, fällt hier keine Arbeit zur Datenerfassung an. Der einzige Schritt dann noch ist, betrifft die Zusammenführung der Daten. Dadurch, dass hier schnell massenhaft Inhalte entstehen mit hochwertigen Inhalten, welche von den Merchants angeliefert werden, ranken die Seiten in Google besonders gut zu den im Vorfeld definierten Haupt-Keywords.
Durch Snippet-Optimierung mit dem zugrundeliegenden Keyword-Konzept-Ansatz haben die SEO-Seiten in Google alle einen ordentlichen Push bekommen.
Zusammenfassung der wichtigsten Key-Learnings:
Nach einer großartigen Erfahrung in London beim Measure Camp 2024 entschieden wir uns, an einer…
MeasureCamp London 2024 - Recap Dieses Jahr hatte ich die Gelegenheit, für ReachX am MeasureCamp…
Am 26.09.2024 fand der erste KI Day für dieses Jahr im RheinEnergieSTADION in Köln statt…
Am 17.09.2024 fand der erste Tech SEO Summit in Hamburg statt. Das von Audisto hervorragend…
Wenn es eine Konferenz gibt, bei der sich alles um Neuheiten, Ads, Performance und Optimierung…
Eine Pyramide in Mainz ist nicht wirklich ungewöhnlich. Zumindest für das Publikum, das einmal im…