Google mit Erklärungsnotstand
Eine Schwachstelle von Google gegenüber anderen Suchmaschinen ist das hauseigene Duplicate-Content-Abgleichsproblem. Die unbarmherzige Suche nach Web-Duplikaten in Verbindung mit zwanghafter Link-Netzwerk-Neurose verführt die Suchmaschine nicht selten dazu, Content-Diebe, Web-Kataloge und RSS-Verteiler dem eigentlichen Unique Content der Originalquelle vorzuziehen. Drum prüfe, wer sich wann und wo und wie mit wem verbindet. Vor allem junge Websites, kleine Websites und unerfahrene Website-Betreiber müssen derzeit verstärkt unter der Last von Manipulationen leiden. So werden Web-Kataloge, Social Bookmarks und RSS-Verteiler optimiert, die Content-Quellen geraten ahnungslos ins Schwanken. Etwas ärgerlich, dass Google so viel Nachhilfe benötigt, um Originalquellen richtig zuordnen zu können. Google kaputt oder nicht kaputt? Das bleibt hier die Frage.
Google mit Erklärungsnotstand
Benutzerinformation und Links:
- Autor: fob (Dienstag, - 30. März 2010 - 17:05 Uhr)
- Blog-Ablage: Google
- Stichwortsuche /
Logisch, der Suchgigant ist in der prikären Situation jan und jeden und alles zu kontrollieren. Das kann einfach nicht mehr funktionieren, dafür ist das Internet mit all seinen Funktionen zu umfangreich geworden.
Es sieht jedoch momentan danach aus, als wäre ein wichtiges Sortierkriterium kürzlich korrigiert worden, in etwa zeitgleich mit dem Oster-PageRank-Toolbar-Update.
Nun das wundert mich gar nicht. Google ist doch so groß, glaub die wissen doch zum Teil selber nicht was da alles passiert. Dafür ist das Internet wirklich zu vielfältig.
Ich kann mir beim besten Willen nicht vorstellen, dass Google an diesem „Manko“ scheitert. Es gibt immer eine Maschine, die neuer und besser filtert, aber hey – wir reden hier von Google…