Meine Blog-Liste

Freitag, 16. Mai 2014

150516_OnlinePR_Hummingbird

Liebes Tagebuch,

heute war unser Thema Online PR und wir haben dem kleinen Google Zoo einen ersten Besuch abgestattet ...

Thema 1: Texte und Formate

a) Hummingbird

Um noch mehr über meine Zielguppe zu erfahren, um Sie im Anschluss besser ansprechen zu können, wird die nächste Stufe nach Web 2.0 gezündet: Web 3.0, das semantische Web.
Nachdem sich die Suchmaschine zunächst gemerkt hatte, was ich präferiere, will Web 3.0 die Worte semantisch verstehen. Das heißt, die Suchmaschine als intelligentes Wesen versucht nun herauszufinden, was ich unter dem Wort "Imker" verstehe und mit dieser Anfrage suchen will (Versuch der Interpretation war hierzu bisher ehr unkonkret, da der Zweck nicht ersichtlich wurde ... Imkerei = Honig? oder = Imkereien in einer best. Stadt? oder will ich Imker werden???)
Hierzu lernen wir nun den neuen (2013) Such-Algorithmus von Google kennen: Hummingbird.
Link: http://www.sistrix.de/frag-sistrix/google-algorithmus-aenderungen/google-hummingbird-update/

Ziel: Das Ziel von Hummingbird ("Kolibri") ist es, Such-Anfragen der User besser interpretieren zu können und somit die Qualität der Suchergebnisse weiter zu erhöhen.
Der Kodenamen Kolibri soll darauf hinweisen, dass die Suchergebnisse künftig schnell und präzise präsentiert werden.
Der neue Such-Algorithmus vermag die gesamte Suchanfrage (besser) zu interpretieren, statt wie bisher nur nach einzelnen Wörtern innerhalb der Suchanfrage zu suchen. Dadurch ist Google (besser) in der Lage die Intention eines Users hinter seiner Suchanfrage zu verstehen sowie die Ausrichtung/Intention eines gesamten Textdokuments (z.B. eine Website) zu interpretieren. Diese beiden Faktoren legen den Fokus auf eine verbesserte Ausgabe der Suchergebnisse.

Als Unternehmer nutze ich Hummingbird nun, um bei der Google Suche von Platz 50 weiter vor zu rücken, wenn man nach z.B. "Honig" sucht.

Aufgaben:
  • will verhindern, dass es doppelten Content gibt (Erkennen von kopierten Texten via http://www.copyscape.com/) --> Suchmaschine will indiv. Content für User
  • Erkennen von automatisierten Programmen
  • fragmentierte Texte
  • Individualisierug bzw. besseres Clustern des Users (Suchanfragen besser interpretieren); Verstehen der Semantik (was will der User bei Eingabe eines best. Keywords)
Mit Hummingbird möchte Google Antwortgeber sein, anstelle einer lapidaren Suchmaschine.

Prinzip: Google Glasses (wie SIRI, nur das ich mit meiner Brile spreche; Brille scannt die Umgebung, Menschen und deren letzten online Kontakt zu dir, ... kann Leute damit direkt Listen zuweisen, wenn sie vor mir stehen; die physischen Grenzen werden sukzessive aufgelöst).

Meine Zielgruppe kann ich nun entsprechend besser definieren: anstelle von Alter, Geschlecht, Familienstand, ... erhalte ich erweitertes online Wissen via deren Suchanfragen über sie.

Keyword Stuffing: Ich versuche eine maximale Keyword Platzierung, um bei der Google Suche auf einen vorderen Listenplatz zu kommen. Zu diesem Zweck bediene ich mich Synonymen, um eine breite Streuung zu gewährleisten.

b) Textspinner:
Mit Hilfe dieses Tools (auch: search-one.de) kann man punktuell Texte abwandeln, indem man Synonyme für das eigene Keyword wählt. Das System stellt bis zu fünf auswahlvarianten  des Ausgangstextes zur Verfügung, so dass man an diverse Affiliates unterschiedliche Textvarianten versenden kann.
Bsp.: Wir ersetzen Busunternehmen mit den Synonymen "Reiseunternehmen", "Fuhrunternehmen", "Reisegesellschaft", ...
Damit hat sich Google um die semantische Suche erweitert, indem bei der Suche nach "Mantel" nicht nur "Mantel" Ergebnisse angezeigt werden, sondern auch "Jacke", "Wintermantel", ...
Früher hingegen galt "Reise" ungleich "Reisebuchung".
(Beispiel: als Spiegel online Leser suche ich nach "Urlaub" und es werden mir alle Beiträge von Spiegel online angezeigt, die mit "URlaub" zu tun hatten.)

Konkretes Beispiel:

ILS --> Content/Text
Affiliate auf ZANOX --> Text wird von ILS zur Verfügung gestellt
                                    --> Nutze den kopierten Inhalt, um ihn auf meinem Blog zu veröffentlichen

--> Die Suchmaschine erkennt nun, welcher Text vorher da war, so dass der kopierte Text ignoriert wird, da er als Dopplung erkannt wird.
--> Textspinner:  Ersetze im Text das wort "Urlaub" durch "Resien", "Entspannung", ...
--> Affiliate 1 bekommt Text "Reisen"
--> Afiliate 2 bekommt Text "Entspannung", ...

Aber, ... jetzt kommt der Humminbird. Dieser erkennt nämlich nun das Sprachmuster, so dass wir trotz der alternativen Wortwahl herabgestuft werden.
Ich muss als Unternehmer also darauf achten, dass ich der Erste bin, der den content online stellt.

c) Density Checker:
Der Density Checker ist ein Tool, um die Dichte eines Wortes aufzuzeigen (z. B. des Wortes Coca-Cola). Heißt, wie häufig ist das Wort aufgetaucht bzw. genannt worden und wie häufig wurde es im Verhältnis zur Gesamtheit erwähnt (http://tools.seobook.com/general/keyword-density/).
Regel: Eine Dichte zwischen 2-6 % gilt als ideal, alles darüber hinaus als zu extrem.
Beispiel Honig: Count: 55 / Density: 2,68%,
Das bedeutet, dass das Wort Honig 55x in dem überprüften Dokument vorkommt. Die Density von 2,68% sagt aus, dass das Wort Honig 2,68% meines gesamten Dokuments ausmacht.

WDF*IDF:
WDF (whithin document frequency)--> Term-Analyse: Wie häufig kommt ein Term in einem Blog bzw. Doc vor?
Regel: Wert sollte hoch sein (sprich häufiges Vorkommen des Wortes in Texten, Grafiken, ...)
IDF (inverse document frequency) --> Netz-Term-Analyse: Wie oft kommt der Term im gesamten Netz vor? Wie wichtig bin ich im Netz mit diesem Wort?
Regel: Wert sollte möglichst klein sein. Besonders wichtig für Nischenprodukte mit neuen Wortkreationen. (Autohdl. sollte daher das Wort "Auto" vermeiden, da Wort hohen WDF/IDF Wert aufweist).
Kummuliert sollte der WDF/IDF Wert möglichst klein sein (--> niseschiger).
Mit der Formel WDF*IDF lässt sich bestimmen, in welchem Verhältnis einzelne Wörter in einem Textdokuments oder einer Website im Verhältnis zu allen potenziell möglichen Dokumenten gewichtet werden. Diese Formel kann für die OnPage Optimierung genutzt werden, um die Relevanz einer Website für Suchmaschinen zu erhöhen, ohne dass dabei die Keyword-Dichte allein eine Rolle spielt (vgl. http://de.onpage.org/wiki/WDF*IDF). WDF/IDF gibt damit eine bessere Orientierung, wie Google die Keyword gewichtet.

Um eine solche Analyse zu starten, melden wir uns bei onpage.org mit einer oneminutemail an http://de.onpage.org/product/demo/?success=true&refres
Mit Hilfe einer Demo Version (Preise - Demo - https://acc.onpage.org/www.care.de/content/wdf-idf/
- oneminutemail; Demo: Rubrik: Inhalt --> WDF/IDF)) steht uns eine entsprechende Testversion für einen WDF/IDF Report zur Verfügung. (Neben der Demo Version kann man dieses ReportingTool auch abbonieren, muss dafür aber mind. 100 Euro/Monat ausgeben). Besonders für Texter eine lohnende Investition, da sie nach WDF/IDF texten müssen.
Für den Wettbewerb wird anhand dieses Reports dagegen ersichtlich, welche Worte andere Unternehmen nutzen, um im Netz entsprechend präsent gelistet zu werden.

Beispiel: Term = Honig

0,59  WDF  Wiki

0,49  WDF  2.Platz

In diesem Fall müsste ich versuchen, einen WDF Wert von über 0,49 anstreben, um mich direkt hinter Wiki (stets erstgelistet) zu positionieren.

Textbroker: Textbroker vermittelt hochwertige Qualitätstexte im Agentur-Service jetzt auch mit WDF-IDF-Optimierung -->  http://www.textbroker.de/magazine/news/wdf-idf-optimiert-die-zukunft.

Thema 2: Content Marketing, das Streuen von Inhalten

a) Contentarten: alle möglichen Veröffentlichungen
  1. Texte: Blogbeiträge, Pressemitteilungen, Foreneinträge
  2. Multimedia: Bilder, Podcast, Video, Spiele
  3. Downloads: PDF's, Ratgeber, Broschüren, Fyler
Um sich erfolgreich zu positionieren, sollte man eine Variabilität an Contentarten sicher stellen. Neben der Qualität ist hier auch die Quantität ein entscheidender Vorteil.


b) Textgüten

Die Textgüte sagt aus, ob ein Text eher verständlich oder kryptisch bzw. verschachtelt, kurz: unverständlich, geschrieben worden ist.
Die Qualität eines Textes wird anhand verschiedener Kriterien bewertet, darunter die Zielgruppe.
Texte, die an Universitätsstudenten gerichtet sind, können etwas hochwertiger bzw. komplexer geschrieben sein (im Bezug auf Textstruktur, Begriffswahl, etc.) als Texte an die Zielgruppe der Biertrinker. Es gibt nun verschiedene Suchmaschinen, die die Textgüte im Hinblick auf Zielgruppe, etc. prüfen. Wie alt sind die Leute, die unsere Texte verstehen sollen und welchen Bildungsstand haben sie.
Die Skala reicht dabei von 0 (völlig verständlich) bis 20 (absolut Ägypten).

Zum Ermitteln helfen z. B. die folgenden Tools:
textinspektor.de --> (TA-Index = Textanalyse Index)
leichtlesbar.ch --> FL-Wert = Flesch-Wert)

c) Pressemitteilungen

Anders als bei der klassischen PR, erreichen die Pressemitteilungen im Netz sowohl Journalisten als auch Kunden. Die Struktur gleicht der einer umgekehrten Pyramide, die wichtigste Information (oder Argument) steht zu Beginn der Meldung. Nach einer knackigen Überschrift werden die folgenden Fragen, Wer?Was?Warum?Wann?Wie? Wie viel? beantwortet. Überschriften und Texte sollten dabei mit relevanten Kexwords versehen werden, damit die Nachrichten besser von Suchmaschinen gefunden werden können (Buch S. 227).
Wichtig: a) Kein doppleter Content und b) Meinungsführer bzw. Steakholder finden, um  unsere Themen im Netz weiter zu streuen.

Thema 3: Presse 

a) Online PR - schnelles Verteilen

Nicht zu verwechseln mit dem Schreiben von Pressemitteilungen! Es handelt sich hierbei um die Verteilung meiner Pressemitteilungen. Diese mache ich einfach aus dem Grund um meine Informationen möglichst breit zu streuen. Hier handelt es sich um den Bereich der Offpage-Programmierung!
Content Curation: Was ist wesentlich für meine ZG? Im Vorfeld stelle ich mir diese Frage und beginne mit meiner Recherche, die u. a. Banner, Videos, Foren und Blogeinträge umfasst. Um dieser Vielfalt strukturiert zu begegnen, kann man die Inhalte (Videos, Bilder,....) auf keeep.com - http://www.content-marketing.com/besseres-content-marketing-durch-content-curation-mit-keeeb/  -
sammeln und verwalten.

Redaktionsplan: 
  1. Idee
  2. Clustern
  3. Bewerten
  4. Erstellen
  5. Kanal wählen
  6. Veröffentlichen 
Andere sollen meine Mitteilungen veröffentlichen, so dass wir uns fragen müssen, wo wir unsere Texte verteilen können, um eine schnelle Streuung zu gewährleisten:
http://www.dmoz.org/ oder auch openpr.de sind entsprechende Webverzeichnisse, die alle möglichen Veröffentlichungen verwalten.
Um der Suchamschine zu suggerieren, dass ich im Netz ne große Nummer bin, veröffentliche ich meine Nachricht also auf dmoz.de oder openpr.de.

Eine Liste der Artikelverzeichniss findet Ihr unter

http://www.contentmarketers.de/die-besten-artikelverzeichnisse-2013/.

b) Seeding: Native Advertising

Wie können wir die Leute ansprechen?
Versteckte Werbung derart, dass man Werbung nicht mehr von PR unterscheiden kann (--> Affiliate Marketing auf redaktioneller Ebene).
http://meedia.de/2014/04/23/fuenf-populaere-irrtuemer-ueber-native-advertising/
Unter http://www.buzzfeed.com/advertise/casestudies/mini findet Ihr einige Keystudies (z. B. MINI).

Das Content-Seeding bezeichnet die Verbreitung von Inhalten über reichweitenstarke Kanäle, um dort von der anvisierten Zielgruppe konsumiert und im besten Fall weiter verbreitet zu werden. Die Kernaufgabe ist somit die Vermarktung der Inhalte in relevanten Netzwerken bei gegebener Relevanz.
Bei der Durchführung einer Seeding-Kampagne sind u.a. folgende Fragen essentiell:
  1. Wer ist die Zielgruppe des Unternehmens?
    -> Wer soll die Produkte kaufen?
  2. Wer ist die Kampagnen-Zielgruppe?
    -> Wer soll den Content konsumieren?
  3. Wer sind die Influencer der Branche?
    -> Wer beeinflusst die Zielgruppen?
  4. Welche Webseiten und Social-Accounts nutzen die Zielgruppen und Influencer?
    -> Wo muss der Content verbreitet werden?










Keine Kommentare:

Kommentar veröffentlichen