Posted:
Niveau webmaster : avancé

Durant l'été, l'équipe des outils pour les webmasters a préparé une mise à jour de l'API Webmaster Tools. Cette nouvelle API est cohérente avec les autres API Google, elle facilite l'authentification pour les applications et les services Web, et elle permet d'accéder à certaines des principales fonctionnalités des outils pour les webmasters.
Si vous avez déjà utilisé des API Google, vous n'aurez aucun mal à vous servir de l'API Webmaster Tools. Voici quelques exemples pour Python, Java, ainsi que pour OACurl (pour les fans des lignes de commande).

Cette API vous permet :
  • de répertorier, d'ajouter ou de supprimer des sites de votre compte (actuellement, celui-ci peut en contenir jusqu'à 500) ;
  • de répertorier, d'ajouter ou de supprimer des sitemaps pour vos sites Web ;
  • d'obtenir le nombre d'avertissements, d'erreurs et d'indexations pour des sitemaps individuels ;
  • d'obtenir une série chronologique de tous les types d'erreurs d'exploration sur votre site ;
  • de répertorier des exemples d'erreurs d'exploration pour des types d'erreurs spécifiques ;
  • de marquer les erreurs d'exploration individuelles comme étant "corrigées" (cela ne change pas la manière dont elles sont traitées, mais peut permettre de simplifier l'interface utilisateur pour vous).
Nous serions ravis de voir ce que vous concevez avec nos API. N'hésitez pas à insérer un lien vers vos projets dans les commentaires ci-dessous. Si vous avez des questions sur l'utilisation de l'API, vous pouvez également publier un message sur notre forum d'aide.


Publié par John Mueller, fan des longues lignes de code, Google Zurich



Posted:
Niveau : débutant.



Aujourd'hui, nous lançons la nouvelle Webmaster Academy en 22 langues, dont le français ! Désormais, si vous êtes un webmaster débutant, vous pouvez acquérir les principes de base pour concevoir un site de qualité, offrir une expérience utilisateur agréable et figurer en bonne position dans les résultats de recherche, le tout dans la langue de Molière. Si vous pensez déjà bien connaître ces sujets, prouvez-le en répondant aux questionnaires qui figurent à la fin de chaque module :)

Consultez la Webmaster Academy dans votre langue de préférence, et dites-nous ce que vous en pensez dans les commentaires ou sur le Forum d'aide. Après le lancement de la version anglaise en mars dernier, nous avons reçu des avis extrêmement pertinents, et nous espérons que ce guide simple et accessible sera utile à tous.

Alors qu'attendez-vous pour créer du contenu de qualité et nous montrer vos talents de webmaster ?


Ecrit par Mary Chen, Webmaster Outreach

Posted:
Niveau webmaster : tous

Aujourd'hui, vous allez découvrir un nouveau champ de recherche associé aux liens sitelink. Lorsqu'il s'affiche, il permet aux internautes d'accéder plus facilement à un contenu spécifique sur votre site, directement via vos propres pages de recherche sur site.

En quoi consiste ce champ de recherche et à quel moment s'affiche-t-il pour mon site ?

Lorsque les internautes recherchent une entreprise par son nom, comme [Dinoco] ou [Dunder Mifflin], ils recherchent peut-être une information spécifique sur le site en question. Auparavant, lorsque ce type de recherche était identifié par nos algorithmes, ces derniers affichaient un plus grand nombre de liens sitelink, ainsi qu'un champ de recherche supplémentaire sous le résultat. Ceci permettait aux internautes d'effectuer des recherches sur le site à l'aide de l'opérateur site:, directement depuis les résultats (par exemple, [site:example.com stations-service dinoco]).

Ce champ de recherche est désormais plus visible (au-dessus des liens sitelink), il accepte la saisie semi-automatique et, si vous utilisez le bon balisage, il renvoie directement les internautes vers vos propres pages de recherche sur site.


  


Comment baliser mon site ?

Vous devez disposer d'un moteur de recherche spécifique à votre site qui doit être fonctionnel. Si c'est déjà le cas, vous pouvez nous le signaler en balisant votre page d'accueil comme une entité schema.org/WebSite avec la propriété potentialAction du balisage schema.org/SearchAction. Pour cela, vous pouvez utiliser un format de balisage JSON LD, microdonnées ou RDFa. Consultez tous les détails de cette mise en œuvre sur notre site pour les développeurs.

Si vous balisez votre site, les internautes auront la possibilité de passer directement du champ de recherche associé aux liens sitelink à la page des résultats de recherche sur votre site. Si nous ne détectons aucun balisage, nous leur présenterons une page de résultats de recherche Google correspondant à la requête effectuée avec l'opérateur site:, comme c'était le cas jusqu'à présent.

Comme d'habitude, si vous avez des questions, n'hésitez pas à les poser sur notre Forum d'aide pour les webmasters.

Publié par Mariya Moeva, analyste des tendances des webmasters

Posted:
Niveau webmaster : avancé



Tout le monde souhaite utiliser moins de bande passante : les propriétaires de sites Web veulent réduire le montant de leurs factures, les mobinautes cherchent à ne pas dépasser leur limite d'utilisation de données, et personne n'a envie d'attendre le chargement d'octets inutiles. Sur le Web, les occasions d'économiser de la bande passante ne manquent pas : pages diffusées avec gzip, feuilles de style et code JavaScript minimisés, et images optimisées, pour ne citer que quelques exemples.
Alors pourquoi le Web n'est-il pas déjà optimisé pour réduire la quantité de bande passante utilisée ? Si ces économies sont bénéfiques pour tous, pourquoi ce problème n'a-t-il pas encore été réglé ? Principalement parce que ces changements sont trop compliqués. Les concepteurs Web sont encouragés à utiliser la commande "Save for Web" ("enregistrer pour le Web") lorsqu'ils exportent leurs créations, mais ils oublient parfois cette recommandation.  Les programmeurs JavaScript n'aiment pas travailler avec du code réduit, car cela rend les débogages plus difficiles. Vous pouvez mettre en place un pipeline personnalisé qui garantit que chacune de ces méthodes d'optimisation est systématiquement appliquée à votre site dans le cadre de votre processus de développement ou de déploiement, mais cela représente une charge de travail considérable.
L'utilisation d'un proxy d'optimisation, comme celui de Chrome, est une solution simple pour les internautes. Lorsqu'ils choisissent ce service, leur trafic HTTP passe par notre proxy, ce qui optimise le chargement de leurs pages et réduit de 50 % la quantité de bande passante utilisée.  Cependant, même s'il s'agit d'une bonne solution pour ces internautes, elle se limite aux utilisateurs de Chrome qui activent cette fonctionnalité et elle ne permet pas d'optimiser le trafic HTTPS.
Avec la fonctionnalité Optimiser pour la bande passante, l'équipe PageSpeed apporte cette technologie aux webmasters afin que chacun puisse en bénéficier : les internautes qui utilisent d'autres navigateurs, les sites sécurisés, les utilisateurs d'ordinateurs et les propriétaires de sites qui veulent réduire le montant de leurs factures pour le trafic sortant. Il vous suffit d'installer le module PageSpeed sur votre serveur Apache ou Nginx [1], d'activer la fonctionnalité "Optimiser pour la bande passante" dans votre configuration, et PageSpeed se chargera du reste.
Si vous décidez par la suite d'utiliser les fonctionnalités d'optimisation plus avancées de PageSpeed, de l'extension de cache et de l'intégration, aux méthodes plus agressives comme le report du chargement d'images et l'exécution différée de JavaScript, il vous suffit de les activer dans la configuration de PageSpeed.
Publié par Jeff Kaufman, Make the Web Fast

[1] Si vous utilisez un autre serveur Web, nous vous conseillons d'exécuter PageSpeed sur un proxy Apache ou Nginx.  Toutes ces solutions sont Open Source, avec des efforts de portage en cours pour IISATS entres autres.

Posted:
Il y a quelques semaines, nous avons lancé sur les réseaux sociaux une campagne d'une semaine appelée #NoHacked. La campagne #NoHacked avait plusieurs objectifs : mettre en garde les utilisateurs contre les attaques des pirates informatiques et leur offrir des conseils pour protéger leur site contre ces derniers.

Nous avons diffusé la campagne en 11 langues différentes sur plusieurs réseaux sociaux, y compris Google+, Twitter et Weibo. Environ un million de personnes ont vu nos conseils, et des centaines d'internautes ont utilisé le hashtag #NoHacked pour sensibiliser le public et partager leurs propres conseils. Vous pouvez les consulter ci-dessous.




Retrouvez la suite des messages que nous avons partagés sur Google+.

Quelques-uns des nombreux conseils partagés par les internautes du monde entier :


  • Pablo Silvio Esquivel, du Brésil, recommande aux internautes de ne pas utiliser de logiciels piratés (source).
  • Rens Blom, des Pays-Bas, suggère d'utiliser différents mots de passe pour vos comptes, de les changer régulièrement, et d'ajouter un niveau de sécurité tel que l'authentification en deux étapes (source).
  • Дмитрий Комягин, de Russie, invite à contrôler régulièrement les sources de trafic, les requêtes de recherche, ainsi que les pages de destination, et à surveiller les pics de trafic (source).
  • 工務店コンサルタント, du Japon, conseille à tous les utilisateurs de choisir un hébergeur fiable qui connaît bien les problèmes de piratage, et de configurer le transfert d'e-mails dans les outils pour les webmasters (source).
  • Kamil Guzdek préconise de remplacer le préfixe par défaut du tableau de wp-config par un préfixe personnalisé lors de l'installation d'un nouveau WordPress, afin de diminuer le risque de piratage de la base de données (source).


Le piratage est encore un problème étonnamment fréquent dans le monde entier, c'est pourquoi nous encourageons tous les webmasters à suivre ces conseils utiles. N'hésitez pas à continuer d'utiliser le hashtag #NoHacked pour partager vos propres conseils ou expériences en matière de prévention du piratage et de sensibilisation au problème. Merci de soutenir la campagne #NoHacked !

Et si par malheur votre site était piraté, nous pouvons vous aider à régler le problème rapidement dans son intégralité :

Suivre les étapes du processus de nettoyage
Publier une question ou rechercher des réponses sur notre forum d'aide


Publié par l'équipe #NoHacked

Posted:

La sécurité est l'une de nos priorités majeures. Nous investissons beaucoup afin de garantir que nos services s'accompagnent de systèmes de sécurité de pointe, à l'image de notre solide système de chiffrement HTTPS par défaut. Ainsi, les utilisateurs de la recherche Google, de Gmail et de Drive, par exemple, disposent automatiquement d'une connexion sécurisée à nos services.

Au-delà de ce que nous offrons à nos utilisateurs, nous cherchons à rendre Internet plus sûr de manière générale. L'un des principaux aspects de cette démarche consiste à nous assurer que les sites Web vers lesquels renvoient les résultats de recherche Google sont sécurisés. Par exemple, nous avons créé des ressources pour aider les webmasters à prévenir et corriger les failles de sécurité sur leur site.

Nous voulons aller plus loin encore. Lors de la conférence Google I/O il y a quelques mois, nous avons appelé à généraliser le HTTPS sur le Web.

Nous avons également constaté que de plus en plus de webmasters adoptaient le protocole HTTPS (également appelé HTTP sur TLS, ou Transport Layer Security) sur leur site Web, ce qui est encourageant.

C'est pour cela qu'au cours des derniers mois, nous avons réalisé des tests en considérant l'utilisation de connexions sécurisées et chiffrées sur les sites en tant que signal dans nos algorithmes de classement. Nous avons pu observer des résultats positifs, et c'est pourquoi nous commençons à utiliser le protocole HTTPS en tant que facteur de positionnement. Pour l'instant, cet indicateur a très peu de poids, et ce afin de laisser le temps aux webmasters de passer au protocole HTTPS. Il concerne moins de 1 % des requêtes mondiales, et il est moins important que d'autres indicateurs tels que le contenu de haute qualité. Mais au fil du temps, il est possible que nous décidions de lui donner une plus grande importance, car nous aimerions encourager tous les propriétaires de sites Web à passer du protocole HTTP au protocole HTTPS pour assurer la sécurité de tous les internautes sur le Web.



Nous avons compilé des bonnes pratiques détaillées qui vous permettront de faciliter l'adoption du protocole TLS et d'éviter les erreurs fréquentes. Voici quelques astuces de base pour commencer :

  • Déterminez le type de certificat dont vous avez besoin : simple, multi-domaine ou générique.
  • Utilisez des certificats avec une clé de 2 048 bits.
  • Ayez recours à des URL relatives pour les ressources qui se trouvent sur le même domaine sécurisé.
  • Utilisez des URL relatives au protocole pour tous les autres domaines.
  • Consultez notre article relatif aux déplacements de sites pour obtenir plus de consignes sur la façon de modifier l'adresse de votre site Web.
  • Ne bloquez pas l'exploration de votre site HTTPS à l'aide du fichier robots.txt.
  • Autorisez autant que possible l'indexation de vos pages par les moteurs de recherche. Évitez d'utiliser la balise Meta "noindex".


Si vous utilisez déjà le protocole HTTPS pour votre site Web, vous pouvez en tester le niveau de sécurité et la configuration à l'aide de l'outil Qualys Lab. Si vous êtes préoccupé par la qualité des performances de votre site avec le protocole TLS, référez-vous à la ressource suivante : Is TLS fast yet? (Le TLS est-il rapide ?). Bien sûr, n'hésitez pas à poser toutes vos questions sur notre Forum d'aide pour les webmasters.

Nous espérons voir plus de sites utiliser le protocole HTTPS à l'avenir. Tous ensemble, rendons le Web plus sûr !

Publié par Zineb Ait Bahajji et Gary Illyes, analystes des tendances des webmasters

Posted:
Explorer ou ne pas explorer, telle est la question.

Il est parfois difficile de créer et de gérer des fichiers robots.txt corrects. Si la plupart des propriétaires de sites ne rencontrent pas de difficultés particulières (car souvent ils n'ont même pas besoin de fichier robots.txt), l'identification des instructions qui bloquent ou bloquaient des URLs individuelles peut s'avérer relativement difficile au sein d'un fichier robots.txt volumineux. Pour faciliter les choses, nous vous annonçons la mise à jour de l'outil de test des fichiers robots.txt dans les outils pour les webmasters.

L'outil de test mis à jour se trouve dans la section "Exploration" des Outils pour les webmasters :



Il vous permet de voir le fichier robots.txt actuel et de tester les nouvelles URLs pour savoir si elles sont exclues de l'exploration. Pour vous aider à y voir plus clair au milieu d'instructions compliquées, l'outil met en évidence l'instruction spécifique qui a entraîné la décision finale. Vous pouvez apporter des modifications au fichier et les tester. Il vous suffit ensuite de transférer la nouvelle version du fichier sur votre serveur pour que les changements prennent effet. Notre site pour les développeurs comporte plus de détails sur les instructions des fichiers robots.txt et leur traitement.

De plus, vous pouvez examiner les anciennes versions de votre fichier robots.txt et déterminer à quel moment des problèmes d'accès ont empêché l'exploration. Par exemple, si Googlebot détecte une erreur de serveur 500 sur le fichier robots.txt, nous suspendons généralement l'exploration du site Web.

Comme des erreurs ou des avertissements relatifs à vos sites existants peuvent être affichés, nous vous recommandons de vérifier les fichiers robots.txt de ces sites. Vous pouvez également associer cette fonctionnalité à d'autres outils pour les webmasters : par exemple, vous pouvez utiliser la nouvelle version de l'outil Explorer comme Google pour afficher les pages importantes de votre site Web. Si nous vous signalons des URLs bloquées, vous pouvez utiliser cet outil de test du fichier robots.txt pour rechercher l'instruction qui les bloque et vous en servir pour remédier au problème. Les anciens fichiers robots.txt provoquent souvent des problèmes, car ils bloquent le contenu CSS, JavaScript ou pour mobile. Une fois les problèmes identifiés, il est souvent facile de les résoudre.

Nous espérons que la nouvelle version de cet outil vous permettra de tester et de gérer plus facilement votre fichier robots.txt. Si vous avez des questions ou si vous avez besoin d'aide pour créer des instructions adéquates, n'hésitez pas à consulter notre Forum d'aide pour les webmasters.


Ecrit par Asaph Arnon, Equipe des Outils Google pour les Webmasters