Seohackers netlinking

Spam Google : Redirection vers sites de spam

Ecrit par admin le mardi 20 novembre 2007 à 7:48 - Catégorie Google,Outils de spam

Les spammeurs utilisent Google et plus précisement le bouton submit « j’ai de la chance » pour rediriger des visiteurs vers des sites spammy tout en leur faisant croire qu’ils cliquent sur un lien de confiance : Google.

Exemple :

Imaginons que je souhaite spammer mes abonnés newsletter avec des liens vers des sites spammy, si j’insère mes liens tels quels dans mon texte, mon mail risque d’être filtré par les logiciels antispam… D’autre part, le lecteur pourra facilement voir que je souhaite le rediriger vers un site spammy en regardant l’url qui s’affiche au survol de la souris dans la barre d’etat.

Spam Google : Redirection vers sites de spam

Commentaires (8)

Catégorie: Google,Outils de spam

Autosubmit del.icio.us – Script Php Curl

Ecrit par admin le samedi 17 novembre 2007 à 4:23 - Catégorie Backlinks,Outils de spam,Scripts PHP

Ce script PHP permet d’ajouter automatiquement une page web à vos favoris sur Del.icio.us à l’aide de Curl et en utilisant l’api de Del.icio.us.

Autosubmit del.icio.us – Script Php Curl

Commentaires (9)

Catégorie: Backlinks,Outils de spam,Scripts PHP

Spammer les top hits, top votes

Ecrit par admin le jeudi 15 novembre 2007 à 21:59 - Catégorie Outils de spam

Spammer les top visites, top votes…

L’idée vient de Pagetronic, webmaster du site Footballistique, site sur le football, vous l’aurez compris :), merci à lui pour le partage de cette astuce et l’autorisation de la diffuser publiquement.

De quoi s’agit-il ?

De nombreux annuaires et autres sites possèdent un classement de sites par votes, par visites… Le but est d’augmenter artificiellement ces statistiques et d’apparaitre en haut de ces pages afin de bénéficier de linking supplémentaire bien sûr mais aussi de traffic, de visiteurs supplémentaires vers vos sites web.

Comment ?

Tout simplement en insérant une image invisible dans une page ou plusieurs pages souvent visitées de vos différents sites web qui contient comme source l’url de la page cible, c’est à dire l’url de la page qui enregistre le vote ou la visite.

Exemple :

Imaginons que mon site soit inscrit dans plusieurs annuaires dont certains sont des annuaires basés sur le script FreeGlobes. Ce script FreeGlobes, qui est un excellent script d’annuaire en php, propose l’affichage des sites les plus visités et les mieux notés par un système de votes.

Si je veux voir mon site dans les top votes de cet annuaire, il suffit d’afficher le code source et de fouiller un peu dans le fichier nommé utils.js (javascripts) pour touver la fonction vote et donc l’url qui va incrémenter le vote, exemple : http://demo.freeglobes.net/vote.php?id=45

L’id correspond à l’id du site enregistré dans l’annuaire à modifier par le votre (ici l’id 45 correspond au site google.fr).

Ensuite il suffit de créer une image de 0 pixel sur 0 pixel que l’on insère sur les pages d’un ou plusieurs sites :

Et hop le tour est joué ! Chaque fois qu’un internaute visitera une de ces pages contenant l’image, alors ce sera son ip qui sera prise en compte et donc le vote, la visite… seront enregistrés.

L’image est interprétée par le navigateur de l’internaute, donc c’est l’ip de l’intenaute qui sera renvoyée pas celle du serveur.

J’ai pris comme exemple FreeGlobes mais c’est valable pour de nombreux annuaires et autres sites, suffit à chaque fois de trouver la bonne url à appeler. Cela ouvre aussi à d’autres type d’applications…

Commentaires (20)

Catégorie: Outils de spam

MSN réintroduit les commandes link et linkdomain

Ecrit par admin le lundi 12 novembre 2007 à 17:16 - Catégorie Backlinks,Msn Live

Il était impossible depuis quelques mois, d’utiliser les commandes link, linkdomain sur msn, même la commande linkfromdomain fonctionnait sur certains domaines et pas d’autres. Ceci était une volonté de MSN qui recevait trop de requêtes automatiques sur ces commandes.

EDITION : Les commandes MSN link et linkdomain ne fonctionnent plus à nouveau.

Depuis la semaine dernière, il est à nouveau possible d’utiliser ces commandes aussi appelés opérateurs sur MSN, le seul changement a été l’ajout du signe + devant ces commandes ou opérateurs :

Commande linkdomain :

Liens pointants vers le domaine (ensemble des pages du site).

Commande link :

Liens pointants vers une page du site en particulier, ici une page interne du site :

Commande linkfromdomain :

Liens sortants du site seoblackout (liens vers d’autres sites/pages présents sur le site) :

Pour voir les liens entrants en dehors des liens internes du site, il suffit d’ajouter la commande :
-site:seoblackout.com

Ce qui donne :

+linkdomain:www.seoblackout.com -site:www.seoblackout.com

Vous pouvez mettre à jour vos scripts d’analyse des backlinks 😉

Et un petit lien provisoire pour choco et son challenge commande link:.

Commentaires (7)

Catégorie: Backlinks,Msn Live

Identifier les pages en résultats complémentaires

Ecrit par admin le lundi 12 novembre 2007 à 14:55 - Catégorie Google

Depuis quelques temps déjà (juillet 2007), la mention « pages en résultats complémentaires » n’apparait plus dans les résultats de google suite à une volonté de Google, voir ce post en anglais sur googlewebmastercentral.

En tant que référenceur, on a besoin de connaitre quelles sont ces pages, afin de pouvoir les éliminer ou au contraire d’essayer de les rapatrier dans l’index principal.

Les commandes site:seoblackout.com **-wqk ne retournent plus de résultats, mais d’autres commandes fonctionnent encore :

site:seoblackout.com/*
site:seoblackout.com/&

La commande site:seoblackout.com/ donne toutes les pages d’un site (ici je n’utilise les www donc j’obtiendrai également les pages d’éventuels sous-domaines, pour obtenir les pages d’un domaine uniquement, il faut ajouter les www). La commande site:seoblackout.com/& donne les pages de l’index principal, pour voir quelles pages risquent d’être dans l’index complémentaire de Google, il suffit donc de saisir la commande suivante :

site:seoblackout.com/ -site:seoblackout.com/&

P.S : j’ai écrit ce billet suite à la lecture de cet article : L’index supplémentaire de Google

Commentaires (9)

Catégorie: Google

SEO BlackOut est désormais en dofollow

Ecrit par admin le lundi 12 novembre 2007 à 14:53 - Catégorie SEO BlackOut Life

Jusqu’à présent les liens laissés dans les commentaires et le champs site web n’étaient pas suivis par les bots (à part Slurp de Yahoo) car ils étaient en nofollow. Désormais les liens postés dans les commentaires et dans le champs « votre site web » sont suivis par les bots sous certaines conditions :

  • Il faut que vous postiez plus de 10 commentaires pour que l’attribut nofollow disparaisse.
  • Les liens postés dans le champs commentaire doivent être en rapport avec le thème de l’article.
  • Les liens vers des sites X, sites d’affiliations… seront supprimés systématiquement sans que l’auteur soit prévenu à la fois dans le champs commentaire et le champ site web.

Le but étant de motiver les visiteurs à laisser des commentaires mais aussi d’éviter le spam, d’où cette limite de 10 commentaires minimum avant que le lien soit suivi.

Commentaires (13)

Catégorie: SEO BlackOut Life

Attention proxy web, risque duplicate content

Ecrit par admin le vendredi 9 novembre 2007 à 16:18 - Catégorie Google,Proxies,Sécurité Internet et SEO

Les proxies peuvent nuire au positionnement de votre site et envoyer vos pages dans les méandres des résultats de google. Je ne parle pas de l’internaute qui navigue avec un logiciel proxy ou qui modifie les paramêtres de son navigateur pour naviguer sur le web à l’aide d’un proxy. Je parle de celui qui passe par des proxys installés sur des sites web, exemple :

cache google page proxy

Ce sont donc ces proxies développés en php ou perl que les webmasters installent sur leur sites pour proposer à l’internaute de naviguer anonymement qui peuvent nuire à vos pages.

En quoi ces proxies sont-ils dangereux ?

Les pages visitées à l’aide de ces proxies sont mises en cache et indexées par les moteurs de recherche, les liens présents sur ces pages sont aussi suivis et mis en cache par ces scripts de proxy et surtout ces liens passent par le proxy, donc Googlebot suit ces liens.

google proxy result

Si vous venez de créer votre site, qu’il n’a pas ou peu de popularité, peu de liens entrants… alors vous êtes concerné par ce souci. Ces proxies pour certains existant depuis longtemps, ils ont bénéficiés d’une certaine popularité auprès de Google qui peut décider de leur attribuer la paternité de vos articles et donc de dégager vos pages de l’index pour duplicate content (contenu identique).

Attention proxy web, risque duplicate content

Commentaires (9)

Catégorie: Google,Proxies,Sécurité Internet et SEO

Code Captcha antispam : comment les contourner

Ecrit par admin le vendredi 2 novembre 2007 à 9:06 - Catégorie Captchas,Outils de spam

Pour se protéger des spammeurs, de plus en plus de webmasters ajoutent à leurs formulaires (de contact, de soumission d’articles, de commentaires, d’inscriptions….) un code antispam à recopier. Ce code est la plupart du temps représenté dans une image.

En tant que référenceur/webmaster, on a parfois besoin d’inscrire des sites dans des annuaires de sites web, pour cela on va soit soumettre manuellement nos sites en renseignant le formulaire de soumission (long travail fastidieux quand il est question de renseigner de nombreux annuaires pour y inscrire différents sites).
On peut aussi créer un script qui va le faire automatiquement pour nous, avec l’aide de PHP et Curl, cela est assez simple à faire…
Mais cela ne résoud pas notre souci de code captcha qu’il faudra quand même renseigner à la main ou alors utiliser des logiciels complexe à mettre en oeuvre sur un serveur web comme les programmes de traitement de caractères du type OCR. Il existe un programme développé par HP et mis en open source sur google code, mais il nécessite un serveur dédié.

Il existe une astuce toute bête qui permet de contourner ces protections de formulaires par codes antispam: faire saisir ces codes captcha par vos propres visiteurs.

Comment ?

Là encore tout dépend de l’imagination de chacun, le tout c’est de comprendre le principe.

On a tous des sites web sur lesquels on utilise différents formulaires, on peut alors ajouter un code captcha ou remplacer le code captcha existant, si on en utilise déjà un, par celui du formulaire de soumissions aux annuaires.

Les étapes :

1 – on construit par exemple un formulaire de contact
2 – on récupère le code captcha issus de l’annuaire cible et on l’affiche au bas de notre formulaire de contact
3 – On récupère les variables du formulaire de soumission de l’annuaire cible (nom, mail, catégorie, titre, description…)
4 – On les ajoute en champs cachés au formulaire de contact qui va à la fois nous permettre de recevoir le mail du visiteur et dans le même temps de soumettre le site à l’annuaire cible.

Là j’ai choisi d’utiliser un formulaire de contact mais vous pouvez utiliser n’importe quel formulaire… Ce n’est qu’une question d’imagination.

Autres articles sur les failles de captchas :

Commentaires (18)

Catégorie: Captchas,Outils de spam



SEO BLACKOUT

Site web dédié aux techniques de référencement et de positionnement de sites web sur Google.

Certaines parties du site sont en accès restreint, ces espaces sont réservés à la SEO Black Hat Team.


Don't Be Evil !