Je viens de découvrir Pushover, une application Android/Iphone qui permet de recevoir des notifications sur son Smartphone grâce à une API et quelques lignes de codes.
Les développeurs pourront ainsi recevoir des alertes dès qu’un de leur script vérifie certaines conditions, comme par exemple, dès qu’un fichier log contient des données spécifiques, et tout ça sans aucune limite mensuelle.
Dernière nouveauté de cette aplication? un chanel Pushover sur le service web Ifttt.
Continuer la lecture de « Pushover, le nouveau compagnon d’IFTTT »
Google Suggest ou le nouvel ami des spammeurs
Google Suggest, j’adore cet outil fourni par Google. Il est le reflet de ce que cherche les internautes et est capable de faire remonter de belles requêtes longue traine.
Je l’utilise régulièrement à travers des scripts dont un plus particulièrement qui m’envoie un e-mail dès que des nouvelles suggestions font leur apparition (afin que je sois le premier à me positionner dessus entre autre).
Mais ce script m’a remonté des drôles de suggestions récemment: des adresses e-mail. Continuer la lecture de « Google Suggest ou le nouvel ami des spammeurs »
WordPress et les URL de catégories: le bug
Ouille Aïe Aïe!!! Alors que je testais un nouvel outil SEO du nom de Minalyzer pour la rédaction d’un prochain article (qui est loin d’être fini vu l’interface peu intuitive de ce crawler), j’ai eu la surprise de voir des URL de catégories WordPress assez étranges remonter.
Bug de WordPress? Erreur de programmation? J’ai découvert que l’on pouvait générer du contenu dupliqué sur les blogs utilisants WordPress en toute facilité.
Continuer la lecture de « WordPress et les URL de catégories: le bug »
Traquer les erreurs de crawl rencontrées par GoogleBot
Oui, je suis encore dans ma phase d’analyse et de décorticage des fichiers logs, j’avoue! Mais c’est tellement passionnant…
Au delà de l’aspect traitement des logs afin de mieux comprendre le crawl de Googlebot sur un site pour optimiser le maillage interne et lui faciliter le crawl vers des pages profondes par exemple, je vais me pencher sur les différentes erreurs qu’il est susceptible de rencontrer en visitant un site, pour les corriger au plus vite! Continuer la lecture de « Traquer les erreurs de crawl rencontrées par GoogleBot »
Tiens Googlebot, des fichiers logs rien que pour toi
Je préfère vous prévenir, cet article sera très bref. Pas trop de temps mais vous allez vite comprendre, j’en suis persuadé. Je suis en mode « Googlebot est mon ami ». J’aime rentrer en contact avec ce fou de liens et ingurgiteur de contenus, lui faire voir certaines choses et le guider au mieux sur les sites que je gère. Pour ça, j’ai besoin de logs!
Continuer la lecture de « Tiens Googlebot, des fichiers logs rien que pour toi »
Test de 5 méthodes de désindexation d’une page sur Google
Plusieurs techniques sont envisageables pour supprimer une ou plusieurs pages de l’index de Google: via Google Webmasters Tools? meta noindex? code d’erreur 410 ?
A priori elles sont toutes efficaces, mais combien de temps faut-il? Afin d’avoir plus d’informations sur le délai de suppression d’une page en fonction de la méthodologie utilisée, je lance un test sur cinq pages que Google va découvrir via cet article.
Continuer la lecture de « Test de 5 méthodes de désindexation d’une page sur Google »
Supprimer une liste d’URL de l’index Google avec IMacros
Il est parfois nécessaire de supprimer des URL indexées malgré vous par GoogleBot pour faire le ménage dans l’index de Google. Cela est possible (entre autres) dans Google Webmasters Tools via le formulaire de demande de suppression d’URL.
Quand il s’agit de supprimer les URL d’un répertoire précis, c’est faisable dans l’interface de GWT directement (supprimer le dossier /perso/ et les URL qu’il contient) mais pour des URL provenant de différents répertoires, c’est une par une qu’il faut les supprimer…
Continuer la lecture de « Supprimer une liste d’URL de l’index Google avec IMacros »
Barcamp BlackHat 2012, apprivoisons les manchots
Après une semaine placée sous le signe du SEO entre le SMX Paris et l’#AperoSEO parisien lancé à cette occasion par @baxxx et @florianmarlin, voici un rapide retour sur le barcamp BlackHat 2012 qui a cloturé la semaine en beauté!
Des conférences bien sympathiques mais surtout une journée agréable avec tout plein de belles rencontres et retrouvailles. Matt Cutts, tu nous a manqué!
Continuer la lecture de « Barcamp BlackHat 2012, apprivoisons les manchots »
Test de Negative SEO – Infographie
Le Negative SEO fonctionne vraiment?
Voici un test réalisé par Tasty Placement qui a effectué du mass linking sur un site de 2 ans d’âge.
Cela s’est traduit par une baisse de position 1 mois plus tard sur l’une des requêtes principale du site (de la 3ème à la 14 ème position). L’infographie sera plus parlante:
Continuer la lecture de « Test de Negative SEO – Infographie »
Quelques pistes pour éviter le NSEO Duplicate Content
Je profite du fait que Google indique vouloir lutter contre le Negative SEO pour sortir un article qui était dans mes cartons . Je ne vais pas m’attarder sur l’efficacité (ou non) de ce phénomène de « concurrence déloyale » , mais plutôt vous montrer comment nous pourrions commencer à s’en protéger.
Tout référenceur le sait, le contenu dupliqué, c’est mal! mais au fond, qu’est ce qui m’empêche aujourd’hui Continuer la lecture de « Quelques pistes pour éviter le NSEO Duplicate Content »