Google Mini Suggest

Habe gerade ein neues Google Suggest Feature gefunden, und ich würde einfach mal behaupten (da ich es nirgends gelesen habe): FIRST! muhahaha… Darum taufe ich es auf den Namen Google Mini Suggest. Whatever, see below…

Das neue Google Mini Suggest scheint zur Zeit nur mit googles hauseigenem Chrome zu funktionieren (getestet mit 15.0.865.0 dev-m). Mit Firefox und IE konnte ich die neue Funktion nicht begutachten.

Die Wörter aus dem Minisuggest scheinen nicht in einem engen Verhältnis zur vorherigen Wortgruppe zu stehen, wie ich erst vermutet hatte ( wie man unschwer an den ersten drei Screens erkennen kann). Stattdessen scheinen sie eher ein gewissen Suchvolumen aufzuweisen, denn was hat Homer mit Sehnsucht zu tun und was macht Apple schon wieder in Libyen? Naja, so einfach ist es dann doch nicht, den Homer hat mit Libyen scheinbar nichts zu tun, darum kommt an dieser stelle auch kein Mini Suggest Vorschlag von Google.

Und damit übergebe ich an alle testfreudigen Google Suggest Experten. Ich würde mich freuen, wenn ihr ein paar lustige Zusammenstellungen in den Kommentaren postet. Patrick

Zu unmenschlichen Zeiten schläft auch ein Bot!

Seit einer Weile schwirrt in meinem Kopf schon der Gedanke eines Twitterbots. Das ganze soll ähnlich wie Hootsuite funktionieren, allerdings wünsche ich mir noch ein paar individuellere Features, die mir Hootsuite nicht bieten kann / können wird. Alle die es nicht kennen, können sich hier das Hootsuite Review von Michael Gray reinziehen – und den Blog in den Feedreader aufnehmen 😉 Gut, nun wisst ihr, worum es geht.

Twittern kann mein Bot schon, dafür muss man nur eine TwitterApp registrieren, mal einen Abend die Doku der Twitter API durchlesen – die übrigens erstklassig dokumentiert ist – und die ebenfalls erstklassige Twitter OAuth Library von Abraham benutzen. Die Tweets werden dann aus der Datenbank gezogen und über die REST API zu Twitter gepusht.

Nun stellt sich nur noch die Frage, wie man den Bot twittern lässt, ohne das es unmenschlich aussieht, denn niemand hat Bock, einem Bot zu folgen. Ich weiß, dass jeder zweite Leser hier selbst einen automatisierten Twitter Account benutzt und es den meisten nicht auffällt, aber hey: für Conversions ist es wohl zu wenig, ein paar RSS Feeds durchlaufen zu lassen.

Bitte nur zwischen 06:00 und 24:00

Also twittert der Bot nicht ständig, sondern zu einer Zeit, in der Leute die Tweets auch lesen. Die Idee ging jetzt noch etwas weiter. Lassen wir den Bot doch ausschlafen und zeitig ins Bett gehen. Morgens und Abends twittert er also wesentlich seltener. Das Ziel ist jetzt klar. Aber die Umsetzung?

Crons

Als erstes habe ich einen Cron erstellt, der alle 10 Minuten zwischen 6:00 Uhr und 23:59 Uhr ein Shellskript ausführt. Eine kurze Erklärung, für alle die nicht über die Crons Bescheid wissen: Der Cron prüft jede Minute, ob ein Job, ein sogenannter Cronjob, auszuführen ist. Diese Cronjobs sind im Crontab eingetragen, jeder User besitzt seine eigene Liste an Cronjobs. Wie das bei Windoof ist und ob es das ein Komplement gibt weiß ich nicht – und es ist mir auch egal. 😛 Pro Zeile lassen sich 6 Optionen einstellen:

  • m – Minute : Zu welcher Minute der Stunde soll ein Cron ausgeführt werden? (0-59)
  • h – Stunde: Zu welcher Stunde des Tages soll der Cron ausgeführt werden (0-23)
  • dom – Day of Month: An welchem Tag im Monat soll der Cron… (1-31)
  • mon – Monat: In welchem Monat… (1-12)
  • dow – Day of Week: Und schließlich, an welchem Tag der Woche soll der Cron ausgeführt werden.

Einstellen kann man als Minute dann zum Beispiel 10 (zur zehnten Minute ausführen), verschiedene Werte mit Komma trennen (10,12,17,23 – zur zehnten, zwölften, 17. und 23. Minute), eine Range angeben (0-29, jede Minute der ersten halben Stunde) oder aller x Minuten ( */10 – Aller zehn Minuten). Letzte Option habe ich gewählt. Was der Eintrag bei den Stunden bedeutet, sollte euch jetzt auch klar sein. Ein „*“ steht für immer. Schließlich erfolgt noch der Befehl, der ausgeführt werden soll. In meinem Fall wird ein Shellscript ausgeführt. Dieses muss natürlich vorher mittels chmod +x /home/netzaffin/crons/myawesometwitterbot/updateStatus.sh ausführbar gemacht werden.

 # m h dom mon dow command # SHELL=/bin/bash 10 6-23 * * * /home/netzaffin/crons/myawesometwitterbot/updateStatus.sh 

Jetzt kommt die Magie: Bashscripting

Zuerst wird die aktuelle Stunde mit Hilfe der Funktion date ausgewertet und in eine Variable gespeichert. Danach wird mit einer case Abfrage ausgewertet, wie wahrscheinlich das Skript zu einer bestimmten Zeit ausgeführt werden soll. So weit, so gut:


#!/bin/bash
#get current hour 
iHour=`date +"%H"` 
#get probability for executing the tweetscript by time 
case $iHour in 
 6|7) 
    iProbability=5 # set a 5% probability for tweets between 6:00 and 8:00 
 ;; 
 8|9|10) 
    iProbability=20 # set a 20% probability for tweets between 8:00 and 11:00 
 ;; 
 1[1-9]) 
     iProbability=50 # set a 50% probability for tweets between 11:00 and 20:00 
 ;; 
 20|21) 
     iProbability=20 # set a 20% probability for tweets between 20:00 and 22:00 
 ;; 22|23) 
     iProbability=5 # set a 5% probability for tweets between 22:00 and 0:00 
 ;; 
esac

Wenn übrigens jemand weiß, wie man 11|12|13|14|15|16|17|18|19) zusammen fassen kann… Immer raus damit. 11-19 ging jedenfalls nicht. Danke Matthias! Nachdem die Wahrscheinlichkeiten für die Zeiträume festgelegt sind, benötige ich noch eine weitere Zufallszahl, um zu prüfen, ob der Wert auch wirklich in dem Wahrscheinlichkeitsbereich liegt. Also erstelle ich mir eine weitere Zufallszahl – 1 bis 100 – und prüfe, ob iProbability kleiner als meine neue Zufallszahl ist. Wenn ja, soll das PHP Script zum twittern ausgeführt werden. Aber halt. Auch den nicht Mathematikern fällt da etwas auf, denn das sind doch ein paar Tweets zu viel…

So viele Tweets wären auch den Junkies nicht zumutbar...

So viele Tweets wären auch den Junkies nicht zumutbar...

Da mir aber ein Tweetvolumen von 3-4 Tweets am Tag vorschwebte, habe ich meine Wahrscheinlichkeitszufallszahl einfach um den Faktor 10 multipliziert. Haben wir halt Promille, statt Prozente. Damit kennen wir uns sowieso besser aus 😉

 # get random number for probability check iRandom=$(($RANDOM % 1000 + 1)) # if probabilty > random, execute the tweet if [ $iProbability -gt $iRandom ]; then # but first, wait some seconds (up to 9.5 minutes) iRandomSleep=$(($RANDOM % (9*60)+30 )) sleep $iRandomSleep # then curl the php script to execute url='http://myawesometwitterbot.com/tweet.php' curl -s "$url" >> /dev/null # and save the logfile echo `date`': update status for '$1 >> /home/netzaffin/crons/myawesometwitterbot/log fi 

Dieses Stück Bashcode einfach noch hinten dran. Was euch auch noch aufgefallen sein könnte, ist der sleep Befehl. Ich warte also eine zufällige Zeit ab, damit die Tweets nicht immer nur zu jeder xten Minute erscheinen, sondern tatsächlich kein Muster zu erkennen ist.

Das war auch schon fast alles. Probehalber habe ich das Skript mal in eine Schleife mit 3348 Durchläufen gepackt (31 Tage zu je 108 Aufrufen (Anzahl pro Tag)). Die Verteilung, die sich daraus ergab, sieht so aus:

Verteilung der Tweets durch den Twitterbot

Verteilung der Tweets durch den Twitterbot

Ich denke, das sollte als Anregung genügen. Wenn du Ideen hast, was mein Twitterbot alles können sollte, freue ich mich über deinen Kommentar.

Patrick

Neues Google Design – Update


Habe ja neulich schon über das neue Google Design gebloggt. Inzwischen hat sich wieder einiges geändert, da möchte ich euch gerne auf dem aktuellen Stand halten. Zum einem sind in dem neuen neuen Google Design die Zeilenabstände wieder  verringert wurden – das hatte ich ja schon beim letzten mal als störend vermerkt, also DANKE GOOGLE! – und zum anderen sind die grünen URLs nach oben gerutscht, direkt unter das Snippet vom Title. Wirkt auf den ersten Blick doch recht ungewohnt. Zeigt aber, das Google weiterhin den BRAND hervorheben will. Kennst du die Seite, dann klick drauf, kennst du sie nicht, lies weiter. Also ist Google nicht nur algorithmisch auf diese Veränderung bedacht sondern versucht das auch im neuen Design so umzusetzen.

Aber seht einfach selbst. Ich habe die selben Keywords wie beim letzten Post genommen, jetzt aber ohne direkten Vergleich 😉

google-neues-design2_1google-neues-design2_2google-neues-design2_3

google-neues-design2_4
google-neues-design2_8google-neues-design2_7google-neues-design2_6google-neues-design2_5

Google Design – Alles muss neu?!

Das neue Google Design der Ergebnisseiten hat mich schon etwas erschreckt. Nicht, dass ich das neue Google Layout grundsätzlich schlecht finden würde. Es wirkt sehr aufgeräumt, übersichtlich und schlicht. Ein paar Unterstreichungen sind bei dem Redesign weggefallen, ein etwas schöneres Blau wurde gewählt um die Titles anzuzeigen und die Seitenbeschreibungen sind nun grau, nicht mehr schwarz. Aber am meisten fällt wohl etwas anderes auf: Durch das neue Google Design entstehen wesentlich größere Abstände. Zum einen hat sich der Zeilenabstand erhöht, zum anderen auch die Abstände zwischen den einzelnen Ergebnissen. Dadurch wird natürlich auch wesentlich mehr Platz von den Werbeanzeigen oberhalb der Ergebnisse eingenommen.

Ich bin gespannt, wie sich das auf die Klickraten auswirkt. Ein Abfall des Traffics ist sogar schon zu spüren, vielleicht liegt der aber auch nur am guten Wetter 😉 Trotzdem lässt es nur eine Schlussfolgerung zu: Die Top 10 wird unwichtiger, auch wenn Markus immer betont, dass man doch bitte immer versuchen soll, die komplette erste Seite einzunehmen. Denn erstens gibts es eh kaum noch die Top 10 und zweitens sind User viel zu faul zum scrollen. Was nicht im Sichtfeld liegt wird erstmal ignoriert. (Und bestätigender Weise haben ich heute einem Kumpel beim suchen über die Schulter geschaut. Mir ist fast schlecht geworden. Vielleicht sollte man statt Sport mal Google unterrichten…)

Wie dem auch sei, ich habe hier mal mit meinem Notebook ein paar Screenshots vom neuen Google Design gemacht (Auflösung: 1280×800). Im Vergleich dazu die alte Variante der Google SERPs, wobei die Screenshots mit dem Firefox aufgenommen sind. Man beachte also, dass die Seite an sich erst wesentlich weiter unten anfängt, was noch mal dramatischer ist, wenn man auch dort das neute Google Layout ausrollt.

Google Layout Screenshots (Vergleich)

Der erste Screenshot zeigt ein hybrides Suchergebnis in den SERPs

Der erste Screenshot zeigt ein hybrides Suchergebnis in den SERPs

SERP Domination, 4 Ergebnisse nehmen nun noch mehr Platz ein

SERP Domination, 4 Ergebnisse nehmen nun noch mehr Platz ein

SERP Domination mit Werbung

SERP Domination mit Werbung

Lokale Ergebnisse ohne Beschreibung

Lokale Ergebnisse ohne Beschreibung

Lokale Ergebnisse mit Beschreibung

Lokale Ergebnisse mit Beschreibung

Google bester Freund: Werbung

Google bester Freund: Werbung. Sowas gehört vom Panda weggeklatscht 😉

Wichtige Neuigkeiten: Google News

Wichtige Neuigkeiten: Google News

Ich denke jeder sieht, dass es deutlich mehr zu scrollen gibt. Farblich sehr angenehm, aber der Abstand ist doch zu krass. Hoffentlich rudert das Team da noch zurück.

Was ist eure Meinung zum neuen Design? Seid ihr positiv oder negativ überrascht? Oder überrascht es euch gar nicht? Wenn das neue Google Design selber nicht sehen könnt, aber eine bestimmte Resultpage sehen wollt, schreibt es einfach in die Kommentare oder schickt mir eine Mail über das Kontaktformular, wenn es nicht öffentlich sein soll.

Schönen Sonntag und allen Müttern natürlich einen schönen Muttertag.

Amiando: letzte Chance auf ein Seo Campixx Ticket?

Wie ihr alle wisst, ist die Campixx 2011 seit Wochen ausverkauft. Marco hat sich ja alle Mühe gegeben, die Tickets fair zu verteilen, aber ich glaube, dass ihm das nicht gelungen ist. Wieso? Na, ich hab keins bekommen! Ach, was solls, so is es halt – damit könnte man sich zufrieden geben. Muss man aber nicht. Denn bei amiando wird zur Zeit noch ein – vielleicht letztes – Ticket verlost. Die Teilnahmebedingung ist denkbar einfach, amiondo wünscht sich Feedback, positives wie negatives. Da ich sowieso ein kleiner Usabilityfreak bin, habe ich auch kein Problem, was kleines darüber zu schreiben. Weiterlesen

PHP + CSS Style Sheets + rand() = cooles Webdesign

Nur noch was kleines mit PHP und CSS für heute, bevor ich mich ins Bett schmeiße. Vor einiger Zeit habe ich mal eine Website für einen Jugendgottesdienst in Leipzig gebastelt. Heute möchte ich euch ein kleines Feature daraus vorstellen. Wenn ihr euch die Seite anseht werdet ihr beim zweiten Besuch merken, dass sich das Guestbook verändert hat. Ja richtig, die Wolken sind nun anders positioniert. Außerdem wird ab bestimmter Textlänge ein anderes Hintergrundbild gewählt (je 3 Varianten pro Kommentarlänge). Ganz schön tricky, oder? Doch das lässt sich alles ganz einfach über PHP + CSS Style Sheets (Inline Styles) realisieren. Weiterlesen

Geile Imagemap Navigation

Hey Leute, heute möchte ich euch mal eine richtig coole Möglichkeit zeigen, Navigationen für eure Websites zu erstellen. Wir nutzen dafür Imagemaps. Einige von euch werden davon noch nie etwas gehört haben, was sehr schade ist, denn Imagemaps sind wirklich geil! Ich muss euch allerdings warnen, wenn ihr hier eine vollständige Anleitung zu Imagemaps erwartet. Davon gibts schon genug, bitte sucht euch eine raus. Das hier ist nur eine Anregung.

Imagemap Navigation

Alles was wir brauchen ist ein wenig HTML, CSS und JavaScript in Form von JQuery:

HTML:

<div id="navigation">
 <img width="420" height="45" alt="" usemap="#hover" src="imagemap.png">
  <map name="hover">
   <area shape="poly" coords="8,21,10,43,109,43,104,11,9,20," href="#link1" alt="link1" title="link1" id="link1" />
   <area shape="poly" coords="82,6,84,16,100,11,107,42,184,46,182,8,81,5," href="#link2" alt="link2" title="link2"  id="link2" />
   <area shape="poly" coords="181,42,271,43,268,11,179,18,186,44," href="#link3" alt="link3" title="link3" id="link3" />
   <area shape="poly" coords="272,41,348,42,350,9,253,3,256,12,266,16,278,41," href="#link4" alt="4" title="link4" id="link4" />
  </map>
</div>

CSS:

#navigation {
 background: url("navigation.png") no-repeat scroll 0 0 transparent;
 height: 45px;
}


Die Grundvorraussetzungen sind also da und eigentlich reicht es uns auch schon, zumindest in punkto Funktionalität. Aber sicherlich fragt ihr euch, und wenn nicht, solltet ihr genau das jetzt nachholen, warum ich ein zweites Bild als Map nutze und nicht das Navigationsbild selbst. Nun, wir wollen schließlich etwas Interaktion! Darum ist das eigentliche Bild (als Hintergrund von #navigation) auch etwas größer:

Imagemap Navigation

Jetzt geben wir noch etwas JQurey hinzu:

$(document).ready(function(){
 var reiter = {
  'link1':'0 -45px',
  'link2':'0 -90px',
  'link3':'0 -135px',
  'link4':'0 -180px'
 };

 $("area").hover(function(){
  $('#navigation').css("backgroundPosition", reiter[$(this).attr('id')]);
 }, function(){
  $('#navigation').css("backgroundPosition", '0 0');
 });
});

Wir haben unseren einzelnen Navigationselementen nun also noch verschiedene Background-Positionen zugewiesen, welche zu beginn im Array „reiter“ gespeichert werden. Was dann passiert ist eine einfache Verschiebung der Hintergrundgrafik nach oben und unten. Deswegen benötigen wir auch das transparente Bild für die Imagemap: Andernfalls kommt es durch die Verschiebung zu einen permanenten Flackern. Dafür gibt es zwar ein Plugin (Maphighlight), welches in diesem wunderbaren Beispiel eingesetzt wird, aber ich bin der Meinung, dass man auf die 5.1 kB Balast locker verzichten kann – do it yourself, babe 😉

Die Kurve in Richtung SEO

Bounce-Rate ist ein entscheidender Faktor für Suchmaschinenoptimierung geworden. Daher gilt es, den User möglichst lang an die eigene Seite zu fesseln. Das bekommt ihr mit spitzenmäßigem Content hin (write what your user wanna read) und/oder mit ansprechendem Design. Eine Navigation kann Aufgrund des zentralen Position gut als Eyecather genutzt werden und bietet sich daher optimal an.

Beispiel

Wenn ihr noch nicht gleich alles verstanden habt, schaut es euch am besten mal in diesem Beispiel an. Wenn danach noch fragen auftreten, helfe ich euch gerne weiter.

Patrick

Sheerseo – Die geniale SEO Suite

SheerSEO ist eine einfach zu bedienende SEO Suite!

SheerSEO ist eine einfach zu bedienende SEO Suite!Heute möchte ich euch SheerSEO vorstellen, eine SEO Suite, die mich als no budget Optimierer total begeistert hat. Im Gegensatz zu vielen anderen SEO Tools gibt es keinen nervigen Daypasses für „wenig“ Geld oder Testaccounts, bei denen man schon wieder deaktiviert wird, bevor man überhaupt alle Bereiche verstanden hat. Stattdessen erhält einen kostenlosen 90 Tage Testaccount. Zahlen muss man erst, wenn man nach diesen 90 Tagen weiteres Tracking (oder andere Features) möchte. Das heißt: Alle zahlen, die sich inzwischen sehr an SheerSEO gewöhnt haben, weil sie es auch dauerhaft nutzen. Denn die Daten sind vorhanden und möchten weiter verfolgt werden. Wer SheerSEO nicht genutzt und schon vergessen hat, hat auch keine Verpflichtungen. Frei nach dem Motto: Wem es nicht gefällt, muss nicht dafür löhnen. Gefällt mir sehr gut! Genug geschwafelt , kommen wir zu den harten Fakten und den wichtigsten Modulen.

Rankings

Ein mal pro Woche checkt SheerSEO die Rankings einzelner Keywords bis zur Position 200. Diese Daten lassen sich (wie alle anderen auch) exportieren. Außerdem kann man sich die History sehr komfortabel anschauen und auswerten. In der Übersicht sieht man auch gleich die Veränderung zur Vorwoche. Für alle, die nicht täglich die Positionen für ihre Kunden durchschauen müssen, sollte dies vollkommen ausreichen.

Main Referrers

Eine Umfangreiche Tabelle mit den wichtigsten Daten über unsere Linkgeber. Dieses Modul gefällt mir sehr gut! Angezeigt werden Linkgebende Seite, Pagerank der Seite, Anchortext, Zielseite, Follow/Nofollow, PR Boost und wann der Link das erste mal gesehen wurde. Braucht man für eine Übersicht mehr? Ich denke nicht! Natürlich lässt sich die Tabelle nach jeder Spalte ordnen, gesucht nach Pagerankboost hat man schnell eine nette Liste mit den guten, Linkspendenden, Domains. Das wirklich coole ist übrigens, dass man seine Domain nicht authentifizieren muss! Und so kann man richtig leicht auch die Konkurrenz mittracken. Pssst!

Directory Submission:

Alle, die mit Artikelverzeichnissen arbeiten, werden sich hier ganz besonders freuen. Je nach Lizenz kann man verschieden viele Artikelsubmissions durchführen. Dafür legt man einfach ein Profil an (Title, Description, EMail zur Überprüfung, ZielURL) und wählt dann die Verzeichnisse aus. Im nächten Schritt muss mann nur noch einige Captchas lösen, das ganze wird über AJAX realisiert. Mit einem Klick auf Submit ist man schon fertig. Wer eigene/andere Submitter nutzt findet hier zumindest eine nette Liste mit neuen und gut gepflegten Verzeichnissen. Reinschauen lohnt sich auf jeden Fall.

Weitere Module:

  • Pagerank: Zeigt den PR der Domain an.
  • Number of Backlinks: Zeigt die Anzahl der von SheerSEO bekannten Backlinks an.
  • Twitter: Wird deine Domain gezwitschert? Hier erfährst du, wer seinen Schnabel nicht halten kann.
  • Social Bookmarking: Hier wird gezeigt, wie deine Seite im Social Bookmarking Diensten aussieht. Aktuell werden leider nur Digg und Delicious unterstützt,
  • Keyword Density: Welche Wörter nutzt du auf deiner Seite am häufigsten? Oder wieder anders herum: Welche Keywords nutzt denn dein Mitbewerber auf seiner Seite am häufigsten? Und wieder Pssst! 😉
  • Indexed Pages: Die Anzahl der indexierten Seiten.
  • Supplemental Index Ratio: OK, du hast einige Seiten im Index. Aber wie viele Seiten schwirren im Supplemental Index rum? Eine prozentualer Graph bzw. 2 Zahlenwerte helfen, die Übersicht nicht zu verlieren.
  • Backlinks Watchdog: Für alle, die Links tauschen, sehr interessant. Hier kannst du alle Linkpartner eintragen und werdet informiert, wenn euer Tauschpartner eurer Links abbaut.
  • Summary: 2 Graphen zeigen die Anzahl der Keywords auf der ersten Seite bzw. den “Total Pagerank Boost” (siehe oben) aus der History.

Masteraccount

Über einen Masteraccount kann man mehrerer Domains leicht verwalten und im Überblick behalten. Wer SheerSEO zum Beispiel zum Beispiel nutzt, um seinen Markt im Überblick zu behalten, hat damit ein gutes Tool gefunden. Wer seine eigenen Projekte überwachen will selbstverständlich auch!

Seltsamerweise scheint dieses Tool in Deutschland kaum jemand zu kennen. Wie sieht es mit Dir aus? Wenn du schon Erfahrungen mit SheerSEO hast, würde ich mich über deine Meinung in den Kommentaren freuen. Ich hoffe, du kannst mit SheerSEO etwas anfangen. Ich habe meine 90 Tage ausgereizt und bin bisher sehr zufrieden. Auch der Support hat immer sehr schnell und zuverlässig reagiert!

Patrick

Mehr Traffic für Ihre Website – Buchvorstellung

Das Buch Mehr Traffic für Ihre Website von Ulrich Wimmeroth und Thomas Brochhagen ist ca. 400 Seiten dick und damit schon fast ein kleiner Wälzer. Langweilig wird es aber nicht, denn dieses Buch ist kein Nachschlagewerk für Technikfreaks. Ganz im Gegenteil, es richtet sich an eher unerfahrene Webmaster im Bereich SEO/SEM und ist prall gefüllt mit vielen Praxisbeispielen, Screenshots und sehr detaillierten Anleitungen.

Im ersten Kapitel, auf nur 5 Seiten, werden wichtige Grundlagen angerissen, um im Web erfolgreich zu sein. Das Kapitel lautet „Für Eilige: in zehn Schritten die eigene Website für Suchmaschinen optimieren“ und ist tatsächlich für all die geschrieben, die es verdammt eilig haben. Alle anderen lesen sich das Buch Mehr Traffic für Ihre Website lieber ganz durch, denn ganz so schnell und einfach bringt man seine eigene Website in den Suchmaschinen nicht in die Top Positionen. Und darum geht es schließlich, mehr Traffic durch bessere Rankingergebnisse.

Neben Begriffserklärungen und weiteren Grundlagen, die auch wirklich jeder Quereinsteiger im Bereich Suchmaschinenoptimierung und Suchmaschinenmarketing versteht, werden in den Folgekapiteln erklärt, worauf man beim erstellen der eigenen Website achten sollte. Es geht also um die sogenannte „Onpage Optimierung“. Hier werden Dinge wie das richtige Weiterleiten von einzelnen Seiten, der Optimierung von Bildern und vielen weiteren kleinen Kniffen sehr genau erläutert.

Doch wie versierte SEOs wissen, macht die Onpage Optimierung nur ca. ¼ des Erfolgs in den Suchergebnissseiten, SERPs genannt, für die eigene Website aus. Bei kleinen Themenbereichen, in denen es kaum Mitbewerber gibt, mag eine gute Struktur auf der eigenen Seite noch ausreichen, um erfolgreich zu sein. Wenn jedoch mehr Konkurrenz im Spiel ist, müssen andere Wege gegangen werden, damit die Suchmaschinen die eigene Seite für die wichtigste halten. Deshalb wird auch sehr ausführlich auf den Bereich der Offpage Optimierung eingegangen. Von gezielten Maßnahmen zum Linkbuilding bis hin zum cleveren Einsatz vom Web 2.0 – hier wird gezeigt, wie man in diesem äußerst komplexen Umfeld die ersten Schritte machen kann ohne zu stolpern.

Jeder kennt Werbung im Internet. In den SERPs ist sie immer präsent. Aber ob man Werbung auch sieht, hängt von vielen Faktoren ab. Von der Suche, die man getätigt hat. Vom Ort, an dem man sich gerade befindet. Von der Uhrzeit. Und von vielen weiteren Faktoren. Der große Vorteil von Werbung im Internet ist, dass man sie im Gegensatz zu Printmedien oder Fernsehen sehr genau steuern kann. Das Einsteigerwerk „Mehr Traffic für Ihre Website“ zeigt sehr detailliert, wie man sich einen Account bei Google AdWords anlegt, die erste Kampagne startet und richtig konfiguriert. Der Vorgang wird außerdem, wenn auch gekürzt, für das Yahoo!-Partnernetzwerk beschrieben.

Was das ganze gebracht hat, erfährt man mit Trackingtools wie Google Analytics. Dieses überaus nützliche Werkzeug wird auf 40 Seiten beschrieben, doch natürlich können in diesem Umfang auch nur die mehr oder weniger grundlegenden Funktionen vermittelt werden. Wer sich mit Google Analytics ganz genau beschäftigen will, sollte ein Buch lesen, welches nur auf Google Analytics eingeht. Denn die Trackinglösung von Google ist so umfangreich geworden, dass sie in all ihren Einzelheiten nicht nebenbei geklärt werden kann. Danach werden noch weitere kostenlose wie kostenpflichtige Tracker zum Messen des Erfolgs der eigenen Website vorgestellt.

Abschließend werden noch wichtige Tools genannt, um den Erfolg im Internet etwas zu erleichtern. Und wie im ganzen Buch werden auch diese Tools ausführlich beschrieben und damit für jeden bedienbar gemacht. Ganz besonders zu nennen sind hier die Google Webmaster Tools, deren Bedienung die Hälfte dieses Kapitels ausmacht. Zurecht, denn sie sind für jeden Webmaster ein wunderbares Geschenk um die Arbeit zu erleichtern.

Mein Fazit:

Dieses Buch richtet sich ganz klar an Einsteiger mit wenig Erfahrung im Umfeld von Suchmaschinenoptimierung und Werbung im Internet. Für alle, die sich in diesem Thema schon länger belesen haben, bietet das Buch Mehr Traffic für Ihre Website vielleicht eine ganz gute Auffrischung – denn auch die Profis vergessen gerne mal Grundlagen – aber eigentlich lohnt es sich dann eher, das Geld in andere spezifischere Lektüre zu investieren.

Viel Spaß beim lesen!

Meine Bewertung: 4/5
Anforderung an den Leser: Keine
ISBN: 978-3-8158-2951-6
Verlag: DATA BECKER
Autoren: Ulrich Wimmeroth und Thomas Brochhagen

Convention Camp 2010 #cch10 – Recap

Das Convention Camp ist zum aktuellen Zeitpunkt noch nicht mal vorbei, erst in ca. 10 Minuten. Macht aber nichts, ich schreibe trotzdem schon mal ein Recap!

Alles in allem fand ich das Convention Camp 2010 sehr sehr cool! Es war das erste Mal, dass ich es besucht habe und es war gleichzeitig meine erste, etwas größere Konferenz im Bereich Online Buisness! Nächste Woche geht’s dann mit der SEOkomm weiter, aber dass wird sicher eine andere Geschichte.

Sehr erfreut war ich natürlich darüber, einige neue Leute kennen zu lernen. Zu aller erst sei da Dennis Tippe genannt, von dem ich auch das Ticket für das Convention Camp gewonnen habe! Dafür natürlich noch mal besonderen Dank! Außerdem hatte ich das Vergnügen, Björn Tantau von tameco kennen zu lernen. Aber auch das Wiedersehen mit dem pixeldrehenden André Nitz war sehr erfrischend. Unter allen Teilnehmern herrschte, soweit ich das beurteilen kann, eine gelassene und gute Stimmung. Das lag sicher nicht zu letzt am herausragenden Buffet 😉

Besucht habe ich natürlich nicht alle Sessions, war ja auch gar nicht möglich, darum hier nur kurz etwas zu denen, wo ich auch dabei war:

1. Opening und Keynode

War lustig und moderat. Etwas gestört hat mich die doch recht unprofessionelle Bedienung der Medien, wie z.B. das „rüberziehen“ vom Videoplayer. Kann man meiner Meinung nach etwas besser machen, kostet natürlich auch etwas mehr Vorbereitungszeit. Dem Inhalt hat das aber nicht geschadet.

2. Fehler bei Onlineshops

Die erste richtige Session drehte sich um Fehler von Online Shops. Es wurden einige schlechte Beispiele gezeigt (kleine, eher private Websites) und erklärt, wie man es besser machen könnte. OK, es waren berechtigte Einwände, aber die Zielgruppe wäre vermutlich eher an Fehlern von großen Portalen interessiert gewesen. War irgendwie nichts neues, hätte mir von der Session etwas mehr erwartet. Man hätte die 45 Minuten schließlich mit wenigen Worten erklären können: Usability, User-Experience.

3. Shopping mit iPad und Co

Wie verändert sich das Shopping Verhalten von Usern? Wie wollen die Leute einkaufen, die Abends mit dem iPad oder anderen mobilen Gadgets surfen? War sehr interessant und aufschlussreich! Danke.

Mal eben ein kurzer Locationwechsel von der Messehalle zum MC Dreck im schönen Bahnhof von Hannover.

4. Strategien für erfolgreiches Linkbuilding

Weiter gings mit einer schönen SEO Session, bei der ich Björn dann auch gleich live erleben konnte. Solide Präsentation und eine schöne Zusammenfassung der Linkbuilding Basics. Follow/Nofollow, Linkgraph, Aussehen der linkgebenden Domain, pros und contras zu Linktausch und Linkmiete und viele weitere Themen wurden gut angeschnitten. Mehr passt in diesen kurzen Zeitraum ja auch nicht rein. Durch einige kritische Fragen aus dem Publikum wurde die ganze Session zum Ende hin auch noch richtig spannend. Für einen offenen Diskurs in dieser Runde hätte ich die Folgesessions auch gerne ausfallen lassen. 😉 So kam es dann auch fast. Die nächste Session habe ich ausgelassen und in kleiner Runde geschnackt. Danach war gemütliche Kaffeepause und die Folgesession Vernetztes Spielen ist leider ausgefallen. Also noch mal 45 Minuten lang in kleiner Runde austauschen.

5. Die Zukunft des Social Commerce

Etwas verspätet angekommen war auch diese wortwörtlich last but not least Session sehr interessant. Wie geht google mit dem sozialen Engagement um Shopbewertungen um? Wie sollten sich Shopbetreiber entwickeln, um die potentiellen Käufer über die Social Schiene auch wirklich zum Kauf zu animieren? Ein sehr schönes Beispiel wurde am Ende von einem Teilnehmer eingeworfen, der Shop von Samsung, welcher direkten Kontakt mit den Kunden auch wirklich promotet.

In 15 Minuten fährt meine Bahn Richtung Heimat und mein Akku ist auch bald leer. Zum Glück gibt es in der Bahn ja Ladestationen. Darum abschließend noch herzlichen Dank an alle Orgas! Alles in allem eine Top Veranstaltung.

Patrick

Seite 2 von 41234