Seohackers netlinking

Identifier les pages en résultats complémentaires

Ecrit par admin le lundi 12 novembre 2007 à 14:55 - Catégorie Google

Depuis quelques temps déjà (juillet 2007), la mention « pages en résultats complémentaires » n’apparait plus dans les résultats de google suite à une volonté de Google, voir ce post en anglais sur googlewebmastercentral.

En tant que référenceur, on a besoin de connaitre quelles sont ces pages, afin de pouvoir les éliminer ou au contraire d’essayer de les rapatrier dans l’index principal.

Les commandes site:seoblackout.com **-wqk ne retournent plus de résultats, mais d’autres commandes fonctionnent encore :

site:seoblackout.com/*
site:seoblackout.com/&

La commande site:seoblackout.com/ donne toutes les pages d’un site (ici je n’utilise les www donc j’obtiendrai également les pages d’éventuels sous-domaines, pour obtenir les pages d’un domaine uniquement, il faut ajouter les www). La commande site:seoblackout.com/& donne les pages de l’index principal, pour voir quelles pages risquent d’être dans l’index complémentaire de Google, il suffit donc de saisir la commande suivante :

site:seoblackout.com/ -site:seoblackout.com/&

P.S : j’ai écrit ce billet suite à la lecture de cet article : L’index supplémentaire de Google

Articles liés :

Commentaires (9)

Catégorie: Google


9 Commentaires

Commentaire par Brad

lundi, 12 novembre , 2007 à 17:10

Merci pour cette excellente astuce !

‘tin, j’ai donc 272 pages latente 🙁
Vilain petit google !

Commentaire par admin

lundi, 12 novembre , 2007 à 17:30

Ca va 272 sur 1200, on a vu pire 😉

Commentaire par Boris

mardi, 13 novembre , 2007 à 12:25

Merci !

Pour ceux qui utilisent wordpress, une petite astuce pour diminuer le nombre de pages dans le supplemental index :

http://www.chrisg.com/blog-seo-get-your-blog-out-of-the-supplemental-index/

Commentaire par Brad

mardi, 13 novembre , 2007 à 15:44

Oui ça pourrait ètre pire, surtout avec le contenu de mon blog et le fait qu’il n’ai pas encore 3 mois. Mais par contre je ne vois pas trop la logique de l’index « supplemental », car mes pages s’yy trouvant ne sont pas forcement du contenu dupliqué

@Boris
Pas mal cette astuce ! PErso je me suis fait un robots.txt en béton, qui correspond quasiment à l’astuce de ton lien. Là j’hesite juste a exclure egalement les archives (Disallow: /date/) …

Commentaire par Boris

mercredi, 14 novembre , 2007 à 12:38

Brad > Moi je te conseille d’exclure les archives, AMHA ça fait également du contenu dupliqué, et de toute façon il n’y a pas besoin que ces pages soient référencées.

Commentaire par admin

mercredi, 14 novembre , 2007 à 18:13

Tout à fait d’accord avec Boris, je vais d’ailleurs mettre en place cette exclusion sur mon blog aussi ;

P.S : Sympa Boris ton article sur scoopeo : http://gueschla.com/2007/10/01/hacking-scoopeo-for-fun-and-profit/ , tu n’as pas trouvé un moyen de faire cliquer tes scoops, par des utilisateurs de Scoopeo (loggués à leur compte) qui visitent une page de ton site, à leur insu ? ca serait le top 😆

Commentaire par Brad

mercredi, 14 novembre , 2007 à 21:39

Oui effectivement exclure les archives pourrait être une bonne idée 🙂

Ps: Oui mdr le petit hack scoopeo ^^

Merci

Commentaire par Boris

jeudi, 15 novembre , 2007 à 21:59

Pour « forcer » les utilisateurs de scoopeo à cliquer, le problème c’est que j’ai pas trouvé de page qui valide le clic sans action de l’utilisateur, il faut obligatoirement qu’il clique.

Donc l’option iframe « basique » ne marche pas, puisque le browser nous interdira d’exécuter du JS dans l’iframe scoopeo car domaines différents.

Ouvrir directement l’url de la requete AJAX en GET ne marche pas non plus.

Mais il y a sans doute moyen, j’ai pas cherché très longtemps.

Après, tu te fais griller rapidement je pense, dès que les gars verront qu’ils ont cliqué sans rien faire 😉

Commentaire par ranks

mardi, 20 novembre , 2007 à 11:55

J’aurais bien jeté un coup d’oeil sur scoopeo mais impossible de voter depuis hier « Vous ne pouvez pas cliquer ce scoop pour le moment : erreur inconnue » >> c’est un filtre ou c’est que leur site marche pas ?

Les commentaires sont fermés pour cet article.



SEO BLACKOUT

Site web dédié aux techniques de référencement et de positionnement de sites web sur Google.

Certaines parties du site sont en accès restreint, ces espaces sont réservés à la SEO Black Hat Team.


Don't Be Evil !