Die großen Suchmaschinen haben ein Problem

single

Mitglied
Die Suchmaschinen haben ein Problem!

Es kommt immer häufiger vor das man den meisten Spam mittlerweile schon auf der ersten Seite einer Suchmaschine findet.
Dies bringt dem Suchmaschinenbetreiber keine zufriedene Kunden, vielmehr bleibt die Kundschaft fern.
Mit dem fern bleiben der Kundschaft, verringern sich natürlich die Umsätze der Betreiber!
In der Vergangenheit waren die Betreiber ziemlich locker mit ihren Kontrollen bei Spam-Einträgen umgegangen.
Doch nun steht bei dem ein oder anderem Betreiber einiges auf dem Spiel, entweder schaffen sie es ihre Suchergebnisse wesentlich zu verbessern oder sie werden an kleinen redaktionellen geprüften Verzeichnissen immer mehr Marktanteile verlieren.
Viele User haben mittlerweile eh ihre Stammseiten zu den verschiedensten Themen und dies werden immer mehr.

Jedem Betreiber ist es doch wohl klar das es nicht sein kann, dass wenn z.B. eine Kinderkrankenschwester die mit dem Suchwort „Muttermilch“ nach einer Info über Muttermilch sucht, ganz entsetzt ist das sie eine Seite aus dem Pornobereich zur Empfehlung bekommt. Nebenbei kommt dann noch der Satz „ Muttermilch günstig ersteigern bei Xy „.

Die meisten Suchmaschinen sind zwar schon ziemlich „Intelligent „ doch es mangelt einfach an einer guten Kontrolle.
Im Moment ist wohl ein ziemlich großer Kampf im Gange wer die besten Suchergebnisse liefert und nun werden alle Mitteln eingesetzt um den Spam so gering wie möglich zu halten.

Da könnte man natürlich auch das alte Mittel Click-Popularität mit einbeziehen.
Die Seiten die oft abgerufen werden, kann man ja dann auch öfters per Robot überprüfen lassen.

Die wesentlichen Punkte einer Prüfung könnte im Moment ungefähr folgender weise ablaufen.

Wenn der Robot feststellt das die Seite dauernd bearbeitet wird, gibt es ein OK.
Wenn er weiter feststellt das, Thema, Inhalt und Angaben in den Tags einen Sinn ergeben, gibt es wieder ein OK.
Nächster Punkt wäre wohl ob die Seite aktuelle Themen behandelt oder mit aktuellen Themen als erster im Netz ist,
hier könnte man das nächste OK geben.
Nun müßte man natürlich noch einige Punkte aufzählen.
Verlinkung der Seite etc., kennen wir ja alle schon.

Wäre nett wenn der ein oder andere von Euch hier noch einige Punkte
hinzufügt, mit denen man zu einem besseren Ranking- Ergebnis kommen könnte.



Gruß
Adi
 
Mit welcher Intention machst du dir Gedanken über solche Sachen?

Entschuldige die Zwischenfrage
wink.gif
 
QUOTE (c-e @ Do 26.8.2004, 18:19)Mit welcher Intention machst du dir Gedanken über solche Sachen?

Entschuldige die Zwischenfrage
wink.gif

Hallo c-e,


brauchst Dich nicht zu entschuldigen, ich denke Du wirst dich auch irgendwie mit dem Thema befassen.


Wenn man sich schon einige Jahre mit dem Thema Suchmaschinen beschäftigt und irgendwie auch davon betroffen ist, dann kommt das von ganz alleine das man sich darüber Gedanken macht.

Gruß
Adi
 
Das ist schon korrekt das man sich automatisch auch als 'advanced user' bzw. Webmaster
mit diesen Themen beschäftigt, dennoch frage ich mich
was du mit dieser öffentlichen Diskussion erreichen möchtest?

Btw: Ich beschäftige mich ziemlich oft mit diesem Thema, da wir
hier im Haus einige Suchmaschinen betreiben: http://www.uchoose.de/
Beispiel: http://www.gamekit.de/
 
QUOTE (c-e @ Do 26.8.2004, 18:40)Das ist schon korrekt das man sich automatisch auch als 'advanced user' bzw. Webmaster
mit diesen Themen beschäftigt, dennoch frage ich mich
was du mit dieser öffentlichen Diskussion erreichen möchtest?

Hallo c-e,

also ich gehe mal auf deine Frage ein (hab da kein prob mit).

Erreichen kann ich damit alleine wohl nicht viel, aber wenn sich einige Leute mal mehr mit dem Gedanken befassen weshalb das manipulieren von Suchmaschinen die falsche Richtung ist, dann hätten auch die Betreiber weniger Probleme.
Es wäre natürlich viel besser wenn die Betreiber selbst etwas mehr zu diesem Thema beisteuern würden. Na ja, ob erreichen oder nicht, ich denke es ist einfach ein Thema was man auch in einem Forum bringen kann.
Es ist allerdings nicht meine Absicht hier irgendwie eine
Negative Meinung über Suchmaschinen in Netz zu stellen, nein das würde ich nie tun! Ich mag alle Maschinen.
Die Betreiber wissen doch am besten womit sie zu kämpfen haben, das brauche ich dir ja wohl nicht zu sagen mit welchen Mitteln bei Suchmaschinen Anmeldungen gearbeitet wird.
Du selber betreibst ja zwei davon und wirst mit Sicherheit auch von Hand kontrollieren.

So nun wünsche ich noch allen Teilnehmer eine gute Nacht

Gruß
Adi
 
Hi Single

Ich bin sehr froh, dass du deine Gedanken hier so frei mit uns teilst.

Aber glauben tue ich nicht, das Click Popularität der Schlüssel zu 'sauberen' SERPs ist, sondern dass man hauptsächlich mit der Interconnectivität arbeiten muss.
Google hat da eigentlich schon sehr interessante Ansätze. Thematische Vektoren könnten theoretisch zu sehr guten Ergebnissen im Kampf gegen den Link Spam führen. M.E. ist das die populärste Spam Methode und Links von zum Thema absolut unrelevanten Seiten werden immernoch zu stark bewertet. Weiter auch Links von gleichen Hosts. M.E. sind Links also der Schlüssel.

Einen weiterer, sehr wicher Faktor ist die Erkennung von Doppeltem Content. Dies muss umbedingt weiter verbessert werden, da Spam Seiten sehr selten mit eigenem Content einzeln von Hand zusammengestellt wurden. M.E. ist der Dubicate Content Filter einer unserer grössten post-Florida-Wohltäter, da er alle die Affiliate Seiten ohne eigenem Inhalt ins Nirvana befördert hat.

Deine Ideen zum Einbezug der Click Popularity in die Spam finde ich sehr interessant. Vor allem die Überprüfung bei Auffälligkeit. Ich glaube aber die sollte stattfinden, bevor die Seite überhaupt in den SERPs auftaucht, aber ich bin mir nicht sicher, ob ich deinen Ideen komplett folgen konnte.
Leider klicken halt viele Leute auch auf Spam. Nicht jeder ist so oft in den SERPs unterwegs wie unsereins uns riecht Spam. Ausserdem bin ich mir nicht ganz bewusst, wie die im Artikel im anderen Thread erwähnte überprüfung der Surfer-Rückkehr machbar ist. Tabbed Browsing? Google weiss nicht, welches Tab ich zumache, weil es Spam ist. Dies ist für mich die grösste offene Frage.
Ausserdem halte ich die Manipulierbarkeit immernoch für gegeben, da ich klicken kann. So viel wie ich will ;-)

Wenn du an die pre-Florida-SERPs denkst, frage ich mich, wieso du diesen Gedanken jetzt äusserst ;-)

Das einzige was ich mir ganz sicher bin ist folgendes: die Lösung ist algorithmischer Natur, da die Datenmasse zu gross ist. Viel zu gross.

gn8
Alain

PS Zu Dublicate Content kann ich dir das Paper von meinem Lieblings-Googler empfehlen (falls nicht schon passiert): http://citeseer.ist.psu.edu/bharat99comparison.html
 
Hallo Alain,

ja Danke! Freut mich das Du es so siehst.
Auwei Alain nun bringst Du mich zur später Stunde noch richtig ans arbeiten,
ich probier mal was zurück zugeben, allerdings in Kurzform.


:::Deine Ideen zum Einbezug der Click Popularity in die Spam finde ich sehr interessant.::

Es gibt für mich eigentlich nur ein Grund dafür wieso dieser zur Zeit wieder vermehrt eingesetzt wird.
Ich selbst würde als Betreiber auch zu diesem Mittel greifen, zumindest als zusätzliches Mittel, da kommen natürlich noch einige Faktoren hinzu.

::::::Einen weiterer, sehr wicher Faktor ist die Erkennung von Doppeltem Content::::::
Doppeltem Content ist das Beste Mittel, eine Webseite zu zerstören, mittlerweile dürfte der nirgendwo mehr hoch bewertet werden.


:::::::Spam Methode und Links von zum Thema absolut unrelevanten Seiten.:::::::
Diese Links sollte man möglichst in Zukunft noch mehr vermeiden. Wenn doch, dann ein Thema dazu bauen!


::::::Spam Seiten sehr selten mit eigenem Content einzeln von Hand zusammengestellt wurden:::::
Da wird mit Sicherheit in Zukunft mehr drauf geachtet! Eigener Content der wird punkten.


::::Thread erwähnte überprüfung der Surfer-Rückkehr machbar ist. ::::::

Das dürfte wohl kein Prob. Sein, zumindest nicht für eine einfache Überprüfung.


:::::Ausserdem halte ich die Manipulierbarkeit immernoch für gegeben, da ich klicken kann. So viel wie ich will.:::::

Ja Alain! Da brauchen wir gar nicht drüber zu reden, mit der ersten Maschine die vom Mensche gebaut wurde gab es auch das Manipulieren. Das Manipulieren treibt ja auch die Entwicklung der Maschinen an. Doch ich denke man sollte vielmehr offen darüber reden, damit aus dem Negativen manipulieren ein positives manipulieren wird.


:::: Die Lösung ist algorithmischer Natur, da die Datenmasse zu gross ist. Viel zu gross.:::::

Ja, da wirst Du wohl recht haben und die Hilfe dazu kann man geben wenn man über das manipulieren redet, so können Maschinen schon von vorne weg mit gewissen kleinen Grundeinstellungen starten und müßen nicht erst alle Datenmassen durchwühlen bis sie feststellen das sie im Abfall gewühlt haben.

::::::aber ich bin mir nicht sicher, ob ich deinen Ideen komplett folgen konnte.::::
Doch Alian, Du bist mir ziemlich gut gefolgt.



Tut mir leid, aber mit dem normalen zitieren bin ich bei dieser Antwort nicht zurecht gekommen, doch ich hoffe mal das ihr wißt wo drum es geht.


Gruß
Adi
 
QUOTE (Alain Aubert @ Do 26.8.2004, 22:35) PS Zu Dublicate Content kann ich dir das Paper von meinem Lieblings-Googler empfehlen (falls nicht schon passiert): http://citeseer.ist.psu.edu/bharat99comparison.html
Hmm...

Wenn ich das richtig verstehe möchten die Herren Autoren einfach so mal
eben alle aus den Suchmaschinen rausschmeissen die ein nicht uniques CMS/
Forum/Script benutzen?!

Also alle die das Invision Board benutzen fliegen aus der Suchmaschine
weil Pfade/Linktexte/Hierachie ähnlich anderen Sites sind?
 
QUOTE (c-e @ Do 26.8.2004, 23:52)
Wenn ich das richtig verstehe möchten die Herren Autoren einfach so mal
eben alle aus den Suchmaschinen rausschmeissen die ein nicht uniques CMS/
Forum/Script benutzen?

dann hast Du das wohl falsch verstanden.
Es spricht doch hier keiner von rausschmeißen.

Gruß
Adi
 
Der Einwand an dieser Stelle ist trotzdem berechtigt, da wir den Begriff Duplicate Content definieren müssen;-)

Also, Duplicate content:
Text ist zu 95% identisch, gleiche platzierung, anordnung, geklaut, kein eigener, selbstgeschriebener text. Siehe oft bei affili, erotik und geklauten seiten und spamfarmen. Auf diesen Seiten gibt es keine einzigartigen,sinnvollen Informationen.
Mfg David
 
Der Erkennung von 'duplicate-Content' würde doch rein logisch
eine Entfernung/Minder-Bewertung etc. folgen.

You know what i mean.
wink.gif
 
QUOTE (c-e @ Fr 27.8.2004, 0:11) Der Erkennung von 'duplicate-Content' würde doch rein logisch
eine Entfernung/Minder-Bewertung etc. folgen.

Nein und ja, hier muß man wirklich genauer definieren wie David das schon erwähnt.
Duplicate Content ist nicht gleich Duplicate Content.
David weißt sicher was ich meine, er befaßt sich wahrscheinlich noch mehr wie ich damit.

Ich zeichne nun nur ein Beispiel von vielen auf:
Content der zum Beispiel mit der Quelle versehen ist oder sogar eine Verlinkung zu dem Verfasser hat, den braucht man nicht zu fürchten.

Doch wenn nun jemand hingeht und ganz offensichtlich fremden Content Kopiert um sich damit ein besseres Ranking zu verschaffen und dabei die Herkunft des Content nicht nennt, der handelt nicht korrekt.

Es gibt ein Urheberrecht.

Hier mal ein Info Link dazu: http://www.urheberrecht.org es gibt natürlich auch noch einige andere Seiten dazu.
Nur um hier mal für ein wenig Klarheit zu schaffen worum es unter anderem auch geht.
Ich denke die wesentlichen Punkte zum Urheberrecht sollte jeder Webmaster mal durchlesen.
Kann mir aber auch nicht vorstellen das es einen Webmaster gibt der sich damit noch nicht beschäftigt hat.


Gruß
Adi
 
Guten Abend Adi!
O doch es gibt ne menge hobby webmaster und auch "profis" die sich damit nicht auskennen.
Und wegen duplicate content, es fliegt immer der mit weniger links..
Wenn ich einen WF artikel mit erlaubnis nehme, zur quelle linke, kann ich trotzdem rausfliegen wegen duplicate, siehst du, müsste ich mal so einen test durchführen.
Wo und wie die seiten liegen, sprachstellung, satzzeichen usw.. kann alles zählen. Hat jemand zum Thema Duplicate Content genauere Links, Analysen, Erfahrungen oder auch Fragen und Anregungen für durchzuführende Tests?
 
Hallo David,

das ist mir wirklich neu was Du da schreibst.
Wenn Du das so sagst, dann bin ich mir sicher das da was dran ist ;-).
Ich werde mal genauer drauf achten.

Gruß
Adi






 
Beweis dafür sehe ich in den odp clones, die großteils dmoz links beinhalten bzw somit verweise zur Quelle.
Wenn mich jemand hier bestätigen oder wiederlegen kann, ich denke eigentlich nur noch laut, ist etwas spät
smile.gif
 
QUOTE Wenn ich das richtig verstehe möchten die Herren Autoren einfach so mal
eben alle aus den Suchmaschinen rausschmeissen die ein nicht uniques CMS/
Forum/Script benutzen?!
Wenn du es richtig verstanden hast, dann habe ich es falsch verstanden ;-)

Der Artikel beschreibt nur Methoden um doppelten Content auf Websites zu erkennen. Wie du richtig bemerkst, sind Sanktionen logisch, aber abhängig von dem Grenzwert an Ähnlichkeit der überschritten werden muss. M.E. wird auch der eigentliche Inhalt der Seiten überprüft, was den Effekt der gleichen Software mindern würde; das interessante für die Suchmaschinen steht zwischen den Tags!
Vor einiger Zeit hatten wir Diskussionen zu diesem Thema, mal suchen, nice ;-)) Google ist schon einfach: http://www.google.com/search?hl=de&ie=UTF-...plicate+content -> http://www.webmasterforum.ch/topic-1891.html
 
Zurück
Oben