Logo von Mediengestaltung Torsten Kelsch

SEO: Serverstandort, Webseitensprache und TLD

Gelegentlich habe ich es erlebt, dass deutsche Webseitenbetreiber die Top-Level-Domain .com statt .de gewählt hatten. Die Überlegung, die dahinter stand, beruhte wohl auf der Annahme, .com (commercial) würde geschäftsmäßiger wirken. Nun ist diese TLD in der Vergangenheit typischer Weise von Unternehmen in den USA verwendet worden und wird sie auch heute noch. Natürlich sind inzwischen viele neue »Endungen«, also Top-Level-Domains, hinzugekommen, und die ländertypischen mögen ihre ehemalige Bedeutung in gewisser Weise verloren haben. Dennoch tendiere ich dazu, für deutsche Websites die deutsche Endung .de zu empfehlen.

Ich denke, Suchmaschinen »empfinden« es als schlüssig, wenn ein deutschsprachiger Webauftritt mit Serverstandort Deutschland und mit entsprechenden Sprachangaben im Kopfbereich der HTML-Dateien auch die TLD .de trägt.

Ein international agierendes Unternehmen hingegen, das seine Website oder seinen Blog mehrsprachig betreibt, könnte sich natürlich für jede Sprache eine entsprechende länderspezifische TLD buchen. Diese Multi-Domain-Strategie wird im Zweiblog näher behandelt. Einiges spricht nämlich dafür.

Webseiten auf Schwachstellen überprüfen

Mit einem Online-Tool von Microsoft kann man Webseiten auf Schwachstellen hin überprüfen. Es sucht nach veralteten Bibliotheken, Layout-Fehlern und Mängeln in der Benutzerfreundlichkeit.

Die Tipps zu gefundenen Schwachstellen in den drei Kategorien Interoperabilität im modernen Web, Browserübergreifende Erfahrung und Windows-Features sind zunächst sehr knapp gehalten, aber es werden Links angeboten, wo man zu vertiefenden Informationen gelangt.

Mein Fazit: Brauchbare Informationen, um die Benutzerfreundlichkeit von Webseiten zu verbessern.

Hier geht es zur englischen Version und hier zur deutschen.

Webfonts mittels .htacess-Datei beschleunigen

Die Geschwindigkeit eines Webauftrittes ist ein wichtiges Suchmaschinen-Kriterium, denn Suchmaschinen legen gerade das Wert, worauf auch Menschen Wert legen. Die Seiten sollen sich also möglichst verzögerungsarm aufbauen. Dass man zum Beispiel Bilder klein halten sollte, ist weitläufig bekannt. Wer sich näher mit der Thematik befasst, weiß auch, dass man die Anzahl der Anfragen an den Webserver begrenzen sollte, indem man zum Beispiel CSS- oder JavaScript-Dateien zu jeweils einer einzigen zusammenfasst.

Darüber hinaus gibt es noch die sehr effiziente Möglichkeit, die Daten für die Übertragung zu komprimieren, und zwar mit Gzip bzw. Deflate (Gzip ist ein Wrapper für den Deflate-Algorithmus), falls der Webserver dies unterstützt. So können zum Beispiel auch HTML-Quelltexte verkleinert werden. Nur hatte ich bisher nicht an die Webfonts gedacht – bis ein Online-Prüfprogramm, nämlich WebPagetest, mich darauf aufmerksam machte.

Und bei Page-Speed.net habe ich den Code gefunden, den man (falls die Website auf einem Apache-HTTP-Server läuft) in die Datei .htacess einfügt: Webfonts optimieren. Ich erlaube mir, den Quellcode von der genannten Webseite zu kopieren. Darüber hinaus wird dort ein Code gezeigt, der weitere Dateiformate mit abdeckt.

<IfModule mod_deflate.c>
<IfModule mod_mime.c>
Addtype font/opentype .otf
Addtype font/eot .eot
Addtype font/truetype .ttf
</IfModule>
AddOutputFilterByType DEFLATE font/opentype font/truetype font/eot
</IfModule>

Für andere HTTP-Server gibt es sicherlich adäquate Lösungen.

Suchmaschinen-Optimierungs-Spam

Und wieder einmal habe ich Suchmaschinen-Optimierungs-Spam erhalten. Er wurde, wie schon bei den letzten Malen, an die E-Mail-Adressen mehrerer meiner Domains geschickt. Mal nennt sich der Versender Tobias Koch, mal Olaf Mayer und beim nächsten Mal vielleicht Lieschen Müller.

Angeboten wird eine einmalige Dienstleistung zum kleinen Preis, bei der angeblich der Quelltext der Website des Spam-Empfängers optimiert wird. Es wird die Versprechung gemacht, dass nach der Optimierung die Website in der Rangfolge der Suchergebnisse höher als die der Konkurrenz erscheint.

Ah so. Und innerhalb welcher Zeit? Und mit wie vielen Keywords? Und auf welcher Such­er­geb­nis­sei­te soll meine Website überhaupt platziert sein? Auf Seite 96 vor drei Konkurrenten, die erst auf Seite 782 erscheinen, oder was jetzt?

Na, ich unterstelle einmal, dass es sich hier um eine Briefkastenfirma handelt. Ein seriöses Unternehmen würde weder Spam verschicken noch seine SEO-Dienstleistungen, die lang­jährige Erfahrungen und ständige Wissens-Updates voraussetzen, für 200 Euro oder so was verscherbeln, wenn doch der Kunde dadurch vielleicht 20.000 Euro mehr Umsatz im Jahr macht.

Und vermutlich geht es dem Spam-Versender gar nicht wirklich um eine Suchmaschinen-Optimierung, sondern darum, weitere Daten zu erhalten. Die sich dann schön verkaufen lassen. Oder vielleicht will man ja Zugänge zu FTP-Servern erhalten? Sodass man dort wunderbar Affiliate-Links oder Schadcode einfügen kann?

Netter Versuch. Und ich hoffe, niemand fällt auf so etwas herein. Kaufen Sie lieber Viagra oder die Geschäftsanteile eines verstorbenen Afrikaners. 😉

Kontextbezogene Suchergebnisse

Google möchte den Suchenden ja möglichst passende Ergebnisse liefern, und deswegen wird die Suchmaschine ständig verbessert. In der Frühzeit war es so, dass jeder Suchende mit demselben Suchbegriff auch dieselben Ergebnisse erhielt. Dann kamen die personalisierten Suchergebnisse hinzu – Anfragen, Ergebnisse und Klickverhalten wurden per Cookie gespei­chert, solange man die Personalisierung anhand des Suchverlaufs nicht deaktivierte. Im Zusammenhang mit der personalisierten Suche stehen die lokalen Suchergebnisse. Es ist ja im Regelfall sinnvoll, dass ich als Remscheider vorwiegend Unternehmen aus Remscheid und Umgebung angezeigt bekomme anstatt vielleicht aus Hamburg oder München.

Aber in der Vergangenheit blieb die Frage offen, in welchem Zusammenhang Suchanfragen eingegeben werden. Das ändert sich. Google möchte sozusagen erkennen können, in welcher Situation eine Suchanfrage eingegeben wird. Es macht vermutlich einen Unterschied, ob die suchende Person gerade unterwegs ist und mit dem Smartphone in der Hand die nächste Bushaltestelle sucht, oder ob sie Verbindungsmöglichkeiten vorab zu Hause am Computer angezeigt bekommen möchte. Oder handelt es sich um ein Schulkind, das einen Aufsatz über den öffentlichen Personen-Nahverkehr schreiben muss? Neben dem Schlüssel­wort selbst spielt also der Kontext eine Rolle, damit die Suchergebnisse möglichst gut zu dem Vorhaben der suchenden Person passen.

Der Wunschtraum der Google-Leute ist es, dass Suchanfragen überhaupt nicht mehr nötig sind, sondern dass mir Ergebnisse quasi automatisch und zu meiner jeweiligen Situation passend angezeigt werden. Google Now für Mobilgeräte zeigt, wohin sich das alles entwickelt: »Sie erhalten Karten mit hilfreichen Informationen für Ihren Tagesablauf – und das sogar, bevor Sie danach suchen.« Demnach wird die Bedeutung der Keywords, die bisher für die Such­ma­schi­nen­opti­mie­rung eine so große Rolle gespielt haben, in den nächsten zwei bis drei Jahren abnehmen.

Es wird sich also in sehr naher Zukunft die gesamte SEO-Branche umstellen müssen. Suchmaschinen-Optimierer werden in der Lage sein müssen zu erahnen, zu erfühlen, für welche Menschen in welchen Situationen bestimmte Informationen wichtig und interessant sein könnten. Und es werden verschiedene, speziell zugeschnittene Landing-Pages für verschiedene Kategorien von Suchenden erstellt werden müssen. Ich denke, es wird noch mehr Erfahrung, Ex­peri­men­tier­freude und – ja, auch in gewisser Weise Intuition – vonnöten sein.

Und vielleicht wird sich noch mehr die Spreu vom Weizen trennen.

Quellen:
Personalisierung anhand des Suchverlaufs deaktivieren
Unverfälscht suchen – Google Suche ohne Personalisierung
Von Keywords hin zu Kontexten: Wie sich die Suche verändert
From Keywords to Contexts: the New Query Model
Google Now – Die richtigen Informationen zur richtigen Zeit

Suchmaschinen-Pessimierung

Immer wird nur über Suchmaschinen-Optimierung nachgedacht, gesprochen und geschrieben. Aber nie über eine Pessimierung, so dachte ich mir, also eine Suchmaschinen-Ver­schlech­te­rung.

Doch halt – einer hat sich doch Gedanken darüber gemacht, zumindest in Bezug auf die Benutzerfreundlichkeit, und die Ergebnisse seiner Überlegungen hier niedergeschrieben:
Accessibility: In 13 Schritten zur Suchmaschinen-Pessimierung

Witzig!

Gute und schlechte SEO-Agenturen

Suchmaschinenoptimierung oder search engine optimization (SEO) ist zwar keine Geheim­wissen­schaft. Aber sie ist eine komplexe, zeitaufwändige, arbeitsintensive Angelegenheit. Fachwissen, Erfahrungswerte und eine gewisse Experimentierfreudigkeit sind auf jeden Fall erforderlich.

Nun ist es so, dass oftmals falsche Vorstellungen bei den Kunden über dieses Themengebiet herrschen. Einen Fall aus meiner Berufspraxis möchte ich kurz schildern. Die Interessentin hatte ihre ursprüngliche Domain, nennen wir sie xyzbeispiel.de, in der Vergangenheit aus mir nicht näher bekannten Gründen gekündigt. Vor gut einem halben Jahr entschloss sie sich dann, diese Domain wieder zu betreiben. Natürlich hatte sich ein Domaingrabber die frei gewordene Domain gebunkert und hätte sie nur gegen einen erheblichen Geldbetrag wieder abgegeben.

Kurzer Zwischenstopp hier. Wenn Sie Ihre Domain momentan, vielleicht wegen Geschäfts­auf­gabe, nicht benötigen, jedoch auch nur die Winzigkeit einer Chance besteht, dass Sie später mit Ihrem Geschäft neu durchstarten werden: Behalten Sie die Domain! Sie können den Webspace, also den Server-Speicherplatz, gerne kündigen, um Kosten zu sparen. Aber be­halten Sie den Domainnamen und bezahlen Sie halt die zwölf oder vierzehn Euro pro Jahr. Denn wenn Sie die Domain kündigen, muss der Webhoster sie an die Registrierungsstelle (in Deutschland die DENIC) als frei geworden melden. Und so mancher Domainhändler wartet nur auf solche freien Domains.

Zurück zu unserer Interessentin. Die gekündigte Domain xyzbeispiel.de war ihr also in der Zwischenzeit weggeschnappt worden, und sie hatte dafür xyzbeispiel.com von einem Dienst­leister anmelden, Speicherplatz dazu buchen und einen Shop installieren lassen. Sechs Monate waren umgegangen, der Shop lief nicht, sie schob es auf die Unfähigkeit des Dienst­leisters und bat mich am Telefon um Tipps.

Weiterer Zwischenstopp. Dieser Dienstleister hatte die neue Domain auf seinen eigenen Namen registrieren lassen, nicht auf den der Kundin! Das ist eine absolute Unverschämtheit, da er nun alle Rechte an der Domain besitzt. Wenn Sie Ihrem Webdesigner nicht absolut ver­trau­en, weil Sie vielleicht erst kurz mit ihm zusammenarbeiten: registrieren Sie die Domain lieber selbst! Dann können Sie sicher sein, dass diese auch wirklich Ihnen gehört.

Ich erklärte der Anruferin, dass die Domains xyzbeispiel.de und xyzbeispiel.com für Google und andere Suchmaschinen zwei völlig unterschiedliche Dinge sind. Da hilft keine Namens­gleich­heit vor dem Punkt, da helfen nicht die bisherigen Shopkunden und da hilft schon gar nicht das Firmenlogo oder eine eingetragene Marke. Eine neu angemeldete Domain, die es vorher noch nie gegeben hatte, ist eben schlicht und ergreifend neu. Man fängt ganz von vorn an. Bitter, aber wahr. Natürlich kann man sich mittels Google AdWords an die Spitzen der Such­ergebnis­seiten bringen. Aber das geht auf Dauer richtig ins Geld. Und viele Benutzer lassen diese bezahlten Ergebnisse auch mittels Adblockern ausblenden.

Der Dienstleister hatte es jedenfalls nicht geschafft, die Domain innerhalb von sechs Monaten nach Abschaltung der teuren AdWords-Anzeigen mit irgendwelchen Suchbegriffen auf Such­ergebnis­seite eins zu bringen. Natürlich nicht, denn erstens kann man das mit seriösen Mitteln in dieser Zeit kaum schaffen, weil die Domain eben völlig neu ist, und zweitens ist er nicht auf Such­maschinen­optimierung spezialisiert.

Kurzum, die Interessentin glaubte mir einfach nicht. Ich frage mich bloß, an wen sie sich wohl nach mir gewendet hat und ob es eine seriöse Agentur ist. Und hier sind wir endlich, nach langem Einstieg, bei der eigentlichen Thematik angelangt: Was ist denn eine gute und was ist eine schlechte SEO-Agentur?

Nun, ich würde sagen: eine unseriöse und daher schlechte Agentur macht unerfüllbare Versprechungen, wirft mit Fachbegriffen um sich und betreibt Geheimniskrämerei. Welche kuriosen Aussagen bei unseriösen oder ahnungslosen Such­maschinen­opti­mierern oft anzutreffen sind, wird sehr schön beschrieben in dem Blogartikel SEO Agenturen: Welche Aussagen nicht kommen dürfen drüben bei Seokratie. Viel Spaß beim Lesen!

Linkverwaltung mit Advanced Link Manager

Advanced Link Manager in der Enterprise-Version ist ein äußerst umfangreiches Programm für Windows, Mac OS X und Linux zur Link-Verwaltung, wie der Name schon sagt. Es ist zwar stark spezialisiert auf die Offpage-Optimierung, hilft aber auch bei der Onpage-Optimierung. Nachdem man die Projektdaten eingegeben hat, wie zum Beispiel die eigene Webadresse, die präferierten Suchmaschinen und die Schlüsselwörter, kann man sich die verschiedensten Daten ausspucken lassen.

alm-logo.png

www.advancedlinkmanager.com

Generell sollte man zuallererst immer zusehen, dass die Website valide ist, dass also der HTML-Quelltext und die CSS-Angaben den Standards entsprechen. Noch wichtiger ist vermutlich, dass die Inhalte hochwertig und interessant sind. Und zu guter Letzt sollten die Schlüsselwörter zum Beispiel in den Titeln, Überschriften und natürlich in den Texten vorkommen. All das sollte allerdings in erster Linie dem Zweck dienen, den menschlichen Besuchern in übersichtlicher Weise die gesuchten Informationen darzubieten. Eine zu exzessive Optimierung, die einzig und allein zu dem Zweck durchgeführt wurde, auf die vorderen Plätze zu kommen, wird zumindest von Google nicht gern gesehen.

Wenn man diese ganzen Dinge erledigt hat, geht es darum, Links zu erhalten. Ein starker Faktor für Suchmaschinen ist bekanntlich die Anzahl und Qualität der von außen kommenden, auf die eigene Website verweisenden Links. Im Optimalfall passiert das von ganz alleine, weil sich vielleicht die guten Inhalte der Webpräsenz herumgesprochen haben. Oft genug muss man aber ein wenig nachhelfen. Es kann auch sein, dass man zwar recht viele Links schon bekommen hat, die eigenen Platzierungen in den Suchergebnissen aber trotzdem schwächeln. Dann gilt es herauszufinden, woran es liegen könnte.

Und hierbei kann der Advanced Link Manager eine große Hilfe sein. Er erlaubte es, effektiv die Linkaufbau-Kampagnen zu verwalten und Möglichkeiten aufzuzeigen, um die Linkpopularität zu steigern. Er analysiert beispielsweise, von welchen Domains Links eingehen, von welcher Seite genau sie kommen, auf welche Seite sie gesetzt wurden (Homepage oder Unterseiten) und wie die Linktexte lauten. Außerdem kann man die Qualität der Linkquellen prüfen: Google PageRank, Alexa Rank und Reputation.

domain_information-small.png

Aber die Software kann noch mehr: Man kann die Referrer verschiedenen Kategorien zuordnen, zum Beispiel Bezahlte Links, Linkpartner, Blogs, Verzeichnisse und einige andere. So kann man (bei regelmäßigem Einsatz des Programmes) gut überprüfen, ob Linkpartner ihre Links auch wirklich dauerhaft gesetzt lassen oder sie vielleicht nach einiger Zeit entfernen. Außerdem kann die Software helfen, potenzielle Linkpartner zu finden.

Damit sind die Möglichkeiten von Advanced Link Manager Enterprise nur angerissen. Ich bin selbst noch dabei zu testen, aber ich kann jetzt schon sagen, dass man mit dieser Software ein professionelles Werkzeug in den Händen hält, welches mit $ 399,– oder umgerechnet ca. € 306,– den gängigen Preisen entspricht. Es gibt auch noch zwei kleinere, preisgünstigere Pakete mit etwas geringerem Funktionsumfang. Um nicht die Katze im Sack zu kaufen, kann man sich eine 30-tägige Testversion herunterladen. Die Software ist in englischer Sprache.

www.advancedlinkmanager.com

SEO mit Advanced Web Ranking

Ich bin dabei, ein für Windows, Mac OS X und Linux erhältliches Programm zur Suchmaschinenoptimierung (SEO) zu testen. Es handelt sich um Advanced Web Ranking in der Enterprise-Version.

awr-black.png

www.advancedwebranking.com

Wozu dient die Software? Nun, sie hilft einem, die eigene Website oder die eines Kunden so zu optimieren, dass sie von Suchmaschinen gut gefunden wird und möglichst auf den vorderen Plätzen der Suchergebnisseiten erscheint. Es gibt eine ganze Menge Tools am Markt, die man für solche Zwecke einsetzen kann, aber die preiswerten sind meistens nicht sehr umfangreich. Anstatt sich mehrere Werkzeuge zu kaufen, die nur in ihrer Gesamtheit alle benötigten Funktionen abdecken, kann man lieber ein einziges kaufen, welches alles unter einem Dach bietet. Die Enterprise-Version, die ich hier vorstelle, kostet $ 399,– oder umgerechnet ca. € 306,– und ist geeignet für »Small Businesses«. Genauer gesagt, handelt es sich um eine Einzelplatz-Lizenz, die für Freiberufler interessant sein dürfte.

Die deutsche Übersetzung ist nicht ganz vollständig, aber man findet sich gut zurecht, denn die Bedienung ist intuitiv. Das Programm ist in diverse Module aufgeteilt, die man mittels einer bebilderten Leiste am linken Rand auswählen kann. Die Menüpunkte lauten:

  • Rankings
  • Analytics
  • Links
  • Social
  • Research
  • Reports
  • Alerts
  • Data
  • Project
  • Settings

Am oberen Rand kann man die einzelnen Einstellungen jedes Moduls festlegen.

overview-ui-screen-shot-small.png

Fangen wir mal mit dem untersten Punkt an, Settings (Einstellungen): Hier werden die Basiseinstellungen vorgenommen, nämlich Programmeinstellungen, Aussehen der Reporte, Angabe von Proxy-Servern und vieles mehr. Unter Project (Projekt) stellt man ein, welche Suchmaschinen abgefragt werden sollen, welche Keywords (Schlüsselwörter) geprüft und welche Websites gescannt werden sollen. Das können eigene, aber auch die der Konkurrenten sein.

Und nun zu den wirklich interessanten Punkten!

Rankings (Rangliste) zeigt die Platzierung der Schlüsselwörter in den Ergebnissen der Suchmaschinen. Man behält so einen guten Überblick, wie sich die eigenen Platzierungen und die der Konkurrenten verändern. Eine Aktualisierung der Daten lässt sich zeitgesteuert automatisieren, sodass man zeitnah und gezielt auf Veränderungen reagieren kann. Hat man viele Suchbegriffe und mehrere Konkurrenten eingegeben, dauert die Abfrage ziemlich lange, man kann sie also am besten zum Beispiel in der Mittagspause laufen lassen.

Analytics erlaubt es, ein Google-Analytics-Konto anzubinden und zeigt die Daten an. Suchbegriffe, die sich mit den Schlüsselwörtern decken, die man unter Rankings eingegeben hat, werden farbig und gefettet angezeigt. Somit kann man ganz gut vergleichen, ob nach den favorisierten Keywords überhaupt auch gesucht wird und gegebenfalls auf bessere umsteigen.

Interessant ist auch das Modul Links. Es prüft die eingehenden Links, also diejenigen, die von anderen Webseiten auf die eigenen Webseiten verweisen. Leider wird nicht angezeigt, auf welche Seiten genau gelinkt wird, also ob auf die Startseite oder eine Unterseite. Dies wäre schon wichtig zu wissen, damit man erkennen könnte, welche eigenen Inhalte am interessantesten für die Linkgeber sind. Immerhin wird die Autorität der Linkgeber angezeigt. Einen Link von beispielsweise DMOZ, Wikipedia oder einer großen Tageszeitung zu bekommen, ist natürlich bedeutsamer als einen von einer unbekannten privaten Webpräsenz zu erhalten.

Social (gesellschaftliche Medien) klopft die Bekanntheit in Facebook, Twitter und Google+ ab, also wie oft Inhalte geteilt oder weiterempfohlen wurden. Man kann die Entwicklung im Laufe der Monate anhand der Grafik nachverfolgen. So sieht man, ob irgendwo der Fortschritt stagniert, sodass man versuchen kann, mehr Fans zu gewinnen – indem man sich über eine eventuelle Steigerung der Qualität oder Häufigkeit der Publikationen Gedanken macht.

Research (Recherche/Forschung) beinhaltet mehrere Werkzeuge. Unter anderem werden hier mögliche Fehler oder Schwachstellen aufgezeigt, wie etwa Seiten mit demselben Titel oder gar gleichem Inhalt. Ferner gibt es hier mehrere Keyword-Hilfen, zum Beispiel kann man eine Schlüsselwörter-Recherche betreiben, wenn man Advanced Web Ranking mit seinem Google-AdWords-Konto verknüpft. Diese und die weiteren ausgefeilten Analyse-Möglichkeiten hier im einzelnen zu besprechen, würde den Rahmen eines Blogartikels allerdings sprengen.

Unter Reports (Berichte) kann man Umfang und Aussehen der Ergebnisberichte einstellen. Die Berichte lassen sich als PDF-Datei, HTML, CSV usw. ausgeben und per E-Mail verschicken oder auf einen FTP-Server hochladen.

Alerts (Warnungen) gibt Warnhinweise aus, wenn irgendwas nicht stimmt, und unter Data (Daten) lassen sich Projekte speichern, Daten im- und exportieren und die Programm-Einstellungen als XML-Datei abspeichern.

Advanced Web Ranking Enterprise bietet also eine beeindruckende Fülle an Hilfen, Analysen und Kontrollen, die einem Suchmaschinenoptimierer die Arbeit wesentlich erleichtern können. Vor allen Dingen hat man hier alle notwendigen Werkzeuge in einem einzigen Programm. Das dürfte wesentlich übersichtlicher und zeitsparender sein, als mit drei oder vier verschiedenen Programmen zu werkeln und die Daten dann irgendwie zusammenfügen zu müssen. Der Preis für so eine gewaltige SEO-Software ist moderat, und ein SEO-Freiberufler ist hiermit bestens bedient.

Agenturen benötigen allerdings die Mehrplatz-Lizenz, und Unternehmen, die selbst ihre Webseiten optimieren wollen, werden vielleicht eher zur Professional- oder Standard-Version greifen. Diesen beiden fehlen aber verschiedene erweiterte Funktionen der Enterprise-Version.

www.advancedwebranking.com

twitterfeed versus dlvr.it

Eines der vielen Kriterien, um gut in Suchmaschinen-Ergebnissen dazustehen, ist eine beachtenswerte Präsenz in den sogenannten »Social Media«. Das Vorhandensein vieler Fans signalisiert den Suchmaschinen eine hohe Beliebtheit.

Doch die selbst geschriebenen Artikel immer von Hand auf Twitter, Facebook etc. hoch­zu­laden, wäre ein immenser Aufwand. Gut, dass jedes einigermaßen brauchbare Content-Management-System aus den News- oder Blogartikeln einen Feed generieren kann – und dieser wiederum lässt sich automatisiert weiter verteilen.

Ich benutze zu diesem Zweck sowohl twitterfeed als auch dlvr.it. Leider zickt twitterfeed gelegentlich rum und weigert sich aus unerfindlichen Gründen (API-Änderungen der Social-Media-Anbieter?) von Zeit zu Zeit, die Feeds auszuliefern. Deswegen habe ich seinerzeit dlvr.it ausprobiert, und es arbeitet, soweit ich sehen kann, sehr zuverlässig.

Nun läge es ja nahe, komplett umzusteigen. Aber twitterfeed ist gänzlich kostenlos, bei dlvr.it hingegen ist der kostenlose Account begrenzt auf fünf verschiedene Feeds und/oder drei verschiedene Social-Profiles. Damit komme ich nicht aus. Ein Upgrade auf die Pro-Version wäre eine Möglichkeit, die kostet knapp 10 US-Dollar pro Monat. Na, erst mal abwarten, wie sich beide Anbieter und ihre Dienste weiter entwickeln …

twitterfeed.com
dlvr.it


Fatal error: Uncaught Error: Call to undefined function twentyeleven_content_nav() in /var/www/ud04_82/html/torstenkelsch.de/blog/wp-content/themes/mediengestaltung-tk/category.php:19 Stack trace: #0 /var/www/ud04_82/html/torstenkelsch.de/blog/wp-includes/template-loader.php(74): include() #1 /var/www/ud04_82/html/torstenkelsch.de/blog/wp-blog-header.php(19): require_once('/var/www/ud04_8...') #2 /var/www/ud04_82/html/torstenkelsch.de/blog/index.php(17): require('/var/www/ud04_8...') #3 {main} thrown in /var/www/ud04_82/html/torstenkelsch.de/blog/wp-content/themes/mediengestaltung-tk/category.php on line 19