Eine Schwachstelle von Google gegenüber anderen Suchmaschinen ist das hauseigene Duplicate-Content-Abgleichsproblem. Die unbarmherzige Suche nach Web-Duplikaten in Verbindung mit zwanghafter Link-Netzwerk-Neurose verführt die Suchmaschine nicht selten dazu, Content-Diebe, Web-Kataloge und RSS-Verteiler dem eigentlichen Unique Content der Originalquelle vorzuziehen. Drum prüfe, wer sich wann und wo und wie mit wem verbindet. Vor allem junge Websites, kleine Websites und unerfahrene Website-Betreiber müssen derzeit verstärkt unter der Last von Manipulationen leiden. So werden Web-Kataloge, Social Bookmarks und RSS-Verteiler optimiert, die Content-Quellen geraten ahnungslos ins Schwanken. Etwas ärgerlich, dass Google so viel Nachhilfe benötigt, um Originalquellen richtig zuordnen zu können. Google kaputt oder nicht kaputt? Das bleibt hier die Frage.