Formation référencement

Récupérer des liens en provenance d’adresses IP différentes

Ecrit par ranks le Mercredi 9 juillet 2008 à 11:13 - Catégorie Backlinks

Comment récupérer des liens en provenance d’IPs différentes ?

Ce n’est un mystère pour personne : pour bien se positionner dans les SERPs, il faut récupérer un maximum de liens retours pointant vers votre site.

La « force » de ces liens retours (pagerank), la thématique identique, sont des exemples de critères qui ont de l’importance dans l’algorithme de Google. La diversité des adresses IPs des serveurs vous faisant un lien retour est également un critère non négligeable.

D’où la question : comment récupérer un maximum de backlinks sur des serveurs varié ?

Il existe une astuce toute bête, mais efficace : les web-proxys. Il s’agit de pages web permettant d’accéder à d’autres pages de manière automatisées.

Par exemple, ce lien vous permet d’accéder à la page d’accueil de google.fr en direct :

http://www.phproxy.fr/index.php?q=aHR0cDovL3d3dy5nb29nbGUuZnI%3D&hl=3ed

L’idée est donc de créer une page -http://www.monsite.com/page_proxy.php
dans laquelle vous allez mettre des liens vers votre site, puis d’y accéder via l’url du web-proxy.

Puis, comme tous les liens de cette URL seront-eux aussi « cachées », une deuxième astuce consiste à décocher la case « Remove Scripts », puis d’insérer un lien javascript simple sur votre page (et suivi par Google depuis quelques temps déjà) :

<a href="#" onclick="window.open('http://www.monsite.com')>Mon lien retour</a>

Au final, vous obtenez un lien du type http://www.phproxy.fr/index.php?q=blablabla&hl=2ed
qu’il ne reste plus qu’a faire indexer par google, et le tour est joué :-)

Astuce référencement proposée par Ranks du site ranks.fr :
Service de suivi de positionnement sur Google.

Articles liés :

Commentaires (22)

Catégorie: Backlinks


22 Commentaires

Commentaire par TOMHTML

Mercredi, 9 juillet , 2008 à 12:02

Encore faut-il que ces pages soient indexées. Je ne sais pas si c’est une chose si facile que ça, avec des URL générées pas toujours permanentes (quand il y en a), des frames pour certains webproxy russes, sans oublier les robots.txt avec le disallow all et la balise meta noindex ajoutée automatiquement.

Mais si quelqu’un a une liste de web proxies « efficaces », je suis preneur :)

Commentaire par TOMHTML

Mercredi, 9 juillet , 2008 à 12:12

Du coup y’a toujours moyen d’utiliser ce système de cache
http://bit.ly/info.php?id=2WUOzE (lien Mirrored URL)
:-)

Commentaire par Salemioche

Mercredi, 9 juillet , 2008 à 14:01

salut,

tous tes pages/liens ont l’ip du serveur phproxy (91.121.140.14)
il faut donc créer une page / webproxy que l’on trouve

j’ai raté quelque chose ?

@+

Nico

Commentaire par ranks

Mercredi, 9 juillet , 2008 à 15:57

salut

@tomhtml: oui, c’est clair qu’il faut filtrer ces webproxys (même si peu mettent des robots.txt et noindex).
Le principe de bit.ly est le même à la différence près qu’il ne te permet pas de personnaliser l’ancre voulue :-)

@salemioche: oui, c’est ça, l’idée est de créer une page par webproxy utilisé et donc d’en faire indexer autant qu’on en trouve. Désolé si j’ai pas été clair.

Commentaire par rikem

Mercredi, 9 juillet , 2008 à 20:27

Et toutes ces pages que nous indexons dans google, ne risquent t-elles pas de se retrouver en duplicate content ? Du coup elles seraient désindexées.

Commentaire par lemoussel

Jeudi, 10 juillet , 2008 à 12:01

Je ne sais pas si j’ai bien compris.

Je resume.
1) creation d’une page PHP (ex. page_proxy.php) contenant les liens du site.
2) ajout du code Javascript : <a href="#" rel="nofollow">Mon lien retour</a> dans cette page PHP.
3) Soumission de cette page PHP a WebProxy.FR
4) Indexation par Google de la page PHP indexée par WebProxy.fr

Est ce exact ?

A faire autant de fois (autant de pages PHP différentes) que de WebProxy.

Et quelle est la différence entre -www.phproxy.fr et bit.ly ?

Commentaire par alex de referencement blog

Jeudi, 10 juillet , 2008 à 20:50

Salut à tous,

La question que je me pose, mais qui a réussit à prouver qu’il fallait mieux que les liens soient d’IP différentes ?

Je pense qu’il vaut mieux qu’il y a aient des liens d’IP différentes pour éviter certains filtres antispamdexing, mais je ne crois pas que Google puissent se permettre de moins bien considérer les centaines de milliers* de sites indépendants se trouvant sur une poignée d’adresse IP, comme c’est le cas pour notre hébergeur francais numéro 1 : OVH, qui pour ses 5 « hébergements pro » mutualisés a seulement 5 adresses IP.

* Ce chiffre est un peu au hasard, mais il est probable

Commentaire par alex de referencement blog

Jeudi, 10 juillet , 2008 à 20:52

D’ailleurs, je parle uniquement des hébergements pro d’OVH, parce qu’ils sont multidomaines (et que j’y pense parce que j’en ait :D ), mais en fait cela fonctionne évidemment pour tous les autres hébergements mutualisés.

Commentaire par abseo

Vendredi, 18 juillet , 2008 à 22:39

je partage complètement tes points Alex

Commentaire par Lee

Jeudi, 24 juillet , 2008 à 13:26

Bonjour,

J’aimerais savoir quels liens on mets exactements dans le fichier PHP (ex. page_proxy.php) ? sous quelle forme ?

Merci

Commentaire par Jice

Jeudi, 24 juillet , 2008 à 22:13

Ne pas lire le passage cité ci-dessous, ou alors juste pour comprendre mes incertitudes.

Et moi je me pose la même question que rikem.

Je pensais au début que : comme le code n’est pas le même (lien, source d’images par exemple), le site ressemble en tout point au notre niveau contenu, mais au niveau data, tout « semble » stocké sur un autre serveur.

Et là je me suis dit : mais si j’étais un bot, que verrai-je. Je fais l’expérience, je pars de ma page page_proxy.php si chére à Lee (mets-y autant de lien vers les proxys qui pointent vers ton site… et sans rel= »nofollow » de préférence ;D ). Sur cette page je rencontre le lien en question. Tiens, un nouveau lien à indexer, je vais le suivre. Je le suis, mais au final, il n’y a pas de redirection 301 sur ces proxys. Google va enregistrer une page qui ressemble fort à la notre, et qu’il croit être stockée sur le serveur du proxy.

Donc, selon moi, il n’y a aucun bénéfice au niveau SEO pour cette astuce. Pouvez-vous me dire si je me trompe?

Finalement je viens de comprendre l’astuce du javascript, donc je retire tout le passage ci-dessus. Pas mal pas mal…
Je pense que l’article devrait être re-écrit un tout petit peu pour être plus clair.

Commentaire par Jice

Jeudi, 24 juillet , 2008 à 23:08

En même temps, en y re-re-réfléchissant : un bon backlink c’est un BL en contexte, non? Donc un bon titre de lien, mais aussi des mots clés qui portent dans la page. Or, si tu fais juste une page avec ton petit lien javascript, c’est … pauvre.

Par contre, si on veut broder et rajouter du contenu sur cette page, là ça risque d’entrainer un duplicate content : tous tes proxys pointeront vers la même page, mais qui est sensée se trouver sur des serveurs différents=> D.C.

Comment contourner ça : page aléatoire, avec du contenu modifier comme vu sur les autres articles de seoblackout peut être…
Pour le moment j’ai pas le niveau, je laisserai juste un lien javascript et un titre porteur ;-)

Commentaire par mehdi

Mardi, 5 août , 2008 à 18:02

Varier les IP des des lien retour sert seulement a éviter les filtres de google, ça permet entre autre d’éviter la sandbox qui peut affecter un site si un grand pourcentage de ses liens sont issus d’IP ientiques

Commentaire par Jonathan

Mercredi, 6 août , 2008 à 13:38

Oui mais maintenant comme les gens de Google lisent ton blog, on va inclure cette pratique dans l’algo de Google ;-)

Commentaire par AJC Interactive

Mercredi, 6 août , 2008 à 16:38

Il n’y aura pas un problème de pages orphelines ?

Commentaire par Lee

Jeudi, 7 août , 2008 à 21:53

« L’idée est donc de créer une page -http://www.monsite.com/page_proxy.php
dans laquelle vous allez mettre des liens vers votre site
 »

quelqu’un peut me donner un exemple de ce fichier page_proxy.php où l’on met les liens.

Merci

Commentaire par conseil sante

Mardi, 10 février , 2009 à 17:10

Oula assez poussé cette technique !

@ alex : 5 adresses ips pour OVH en mutualisé ?
C’est très peu tout de même…

Bonne fin de journée david

Commentaire par psg

Vendredi, 21 août , 2009 à 22:32

C’est un peu hard comme méthode il me semble non ? Dans quelle mesure les ip sont elles prises en compte par google ?

Commentaire par Blog astuces web

Dimanche, 23 août , 2009 à 1:54

Une très bonne astuces comme d’habitude :-)
Toutes mes félicitations :-)

Commentaire par mutuelle

Samedi, 5 septembre , 2009 à 11:20

Il n’y aura pas un problème de pages orphelines ?

Commentaire par Patrenet

Mardi, 24 novembre , 2009 à 15:51

J’avais déjà testé ce type d’astuce il y a quelques temps sans grand succès (ni beaucoup d’insistance), et je me demandais si d’après votre expérience, cette astuce fonctionne encore ?

Commentaire par sos-toulouse

Dimanche, 2 mai , 2010 à 3:35

Ah je suis content de trouver ce post
Depuis le temp que ca me trotte dans la tête je voulais justement en parler

le classement par ip -> le classement par hébergeur

Plusieurs fois le sujet reviens
Quoi qui se passe ces deux facteurs vont prendre de plus en plus d’importance

Je vais plus loin imaginons que on ai 2 site sur la même ip
Est ce que si un des 2 sites est complètement merdique cela vas affecter le ref du premier

Moi je pense que oui
Donc je pense aussi que du coup le choix de l’hébergeur vas être super compliqué
Il vas falloir aller voir la qualité des site hébergé
Du coup on en reviens au moyen

Il vas falloir prendre des hébergeurs qui n’héberge que des sites de qualités

On peut retourner le schémas imaginons

Un hébergeur ou que des sites sont nikel

Donc vas falloir prendre des offres d ‘hébergement dédiés avec une ip à soi ou des offre mutualisé accessible uniquement a des sites de qualité

Est ce que vous seriez prêt à payer cher un hebergement pour installer un site merdique
Je pense que non

Ou alors vas arriver la censure hébergeur

Ou alors encore pire
Des hebergeurs fonction des pr

Pr1 mutu1
pr2 mutu2
pr3 mutu3

De toute facon on y coupe pas c’est logique

Si sur 100 site y en a 99 de merdique forcement le dernier a beaucoup de chance d’ être merdique

Moi j’ inclurai cette variable ( la qualité des site sur la même ip ) dans la formule pas vous?

Moi j ai déjà fait des test avec les sous domaine
ok c’est pas des ip
Mais si sur un domaine pr3 je creer un site en sous domaine
Le pr 3 est accessible facilement

Apres je doute vraiment de la pertinence d’une page php proxie
même avec du contenu
Si ça marche ca vas pas marcher longtemps
Du coup autant utiliser des systèmes type google site pour faire ces pages

Alors svp
Qui sais chez qui est hébergé google ????

PS : C’est belle et bien une blague svp répondez pas lol

Les commentaires sont fermés pour cet article.



SEO BLACKOUT

Site web dédié aux techniques de référencement et de positionnement de sites web sur Google.

Certaines parties du site sont en accès restreint, ces espaces sont réservés à la SEO Black Hat Team.


Don't Be Evil !