Posted:
Vous avez investi beaucoup de temps et d'énergie pour créer une application mobile de qualité, et nous souhaitons aider les internautes mobiles à trouver ce contenu que vous avez créé. L'App Indexing aide déjà les utilisateurs d'une application Android à accéder à cette application depuis les résultats du moteur de recherche Google sur leur smartphone Android - nous avons en index environ 30 milliards de deep links (liens profonds) dans des applications.

A partir de cette semaine, les utilisateurs du moteur de recherche mobile de Google pourront également installer votre application Android directement depuis les pages de résultats. Si vous avez déjà mis en place l'App Indexing, lorsque du contenu de votre application est pertinent pour la recherche effectuée par un utilisateur sur un appareil Android, un bouton d'installation pourra faire son apparition directement dans les résultats du moteur. Appuyer sur ce bouton redirigera l'utilisateur vers la page d'installation sur le Google Play Store, et après l'installation, le contenu spécifique qui était ressorti dans les résultats s'ouvrira automatiquement.


Avec l'ajout de ces boutons d'installation, nous commençons à utiliser l'App Indexing comme facteur de positionnement pour tous les utilisateurs d'Android, qu'ils aient déjà installés votre application ou non. Nous espérons que cela vous permettra d'acquérir de nouveaux utilisateurs, et de renouveler les interactions avec vos utilisateurs présents. Vous pouvez commencer la lecture des recommandations sur g.co/AppIndexing. Découvrez d'autres moyens d'interagir avec le moteur de recherche Google sur g.co/DeveloperSearch.

Ecrit par Lawrence Chang, Product Manager

Posted:
(Note : cet article est une traduction d'un post sur le blog anglais datant du 18 février 2015)


Chaque jour, des milliers de sites Web sont piratés. Ces sites peuvent alors nuire aux internautes en diffusant des logiciels malveillants, en récupérant leurs données personnelles ou en les redirigeant vers des sites qu'ils n'avaient pas l'intention de consulter. Les webmasters souhaitent régler au plus vite les problèmes de piratage, mais malheureusement, le processus est souvent compliqué.


Nous essayons de simplifier ce processus en proposant aux utilisateurs la section Problèmes de sécurité dans les Webmaster Tools, l'assistance aux webmasters pour les sites piratés, et nous mettons à leur disposition la rubrique de notre forum consacrée aux sites piratés. Récemment, nous avons demandé à deux webmasters de sites piratés comment ils avaient réussi à résoudre leur problème. Nous diffusons leurs témoignages en espérant qu'ils pourront donner des idées à d'autres webmasters victimes de piratage. Ces témoignages, ainsi que tous les commentaires que nous recevons nous permettent également d'améliorer notre documentation relative aux sites piratés et de simplifier le processus pour tous à l'avenir.




Étude de cas nº 1 : site Web d'un restaurant victime de l'injection de nombreux scripts

Le webmaster d'un site de restauration créé à l'aide de WordPress a reçu un message de notre part sur son compte Webmaster Tools, l'alertant que son site avait été piraté. Pour protéger les internautes, nous indiquons que le site Web a été piraté dans nos résultats de recherche. Le webmaster du site, Sam, a examiné le code source et a remarqué de nombreux liens inconnus avec des termes pharmaceutiques tels que "viagra" et "cialis". Elle a également constaté que sur de nombreuses pages, les balises de meta description situées dans le code HTML comportaient du contenu de type "buy valtrex in florida". Des balises div cachées dans le code HTML de nombreuses pages redirigeaient également vers divers sites. Aucun de ces liens n'avait été ajouté par Sam.


Elle a supprimé tout le contenu piraté qu'elle a identifié, puis elle a envoyé une demande de réexamen. Cette dernière a été rejetée, mais nous lui avons conseillé d'examiner tous les scripts inconnus dans ses fichiers PHP (ou d'autres fichiers du serveur), et de vérifier si le fichier .htaccess avait été modifié. Ces fichiers comportent souvent des scripts ajoutés par des pirates informatiques et destinés à modifier le site. En général, le contenu piraté par ces scripts n'est visible que pour les moteurs de recherche, et il est masqué pour les internautes classiques. Sam a vérifié tous les fichiers .php et les a comparés à ses copies de sauvegarde non infectées. Elle a découvert un nouveau contenu dans les fichiers footer.php, index.php et functions.php. Elle a alors remplacé ces fichiers par les sauvegardes non infectées, éliminant ainsi les restes de contenu piraté sur son site. Lorsqu'elle a envoyé une nouvelle demande de réexamen, nous avons confirmé que son site n'était plus infecté.


Même si Sam a réussi à supprimer le contenu piraté, il est important qu'elle sécurise son site en cas de nouvelle attaque. Pour protéger son site contre de futures attaques, les consignes ci-dessous sont un bon rappel :


  • Toujours utiliser la dernière version du système de gestion de contenu (CMS - WordPress, Joomla, Drupal, etc.). S'assurer également que les plug-ins sont à jour.
  • Utiliser un mot de passe unique et complexe pour protéger le compte qui permet d'accéder aux fonctionnalités d'administration du système de gestion de contenu.
  • Si le système de gestion de contenu le permet, activer la validation en deux étapes pour la connexion. Elle peut également s'appeler "authentification à deux niveaux" ou "authentification en deux étapes". Nous recommandons également d'appliquer cette mesure de sécurité au compte utilisé pour la récupération du mot de passe. La plupart des fournisseurs de messagerie, tels que Google, Microsoft ou Yahoo, proposent cette fonctionnalité.
  • S'assurer que les plug-ins et les thèmes que vous installez proviennent d'une source digne de confiance. En effet, les plug-ins ou les thèmes piratés contiennent souvent un code qui permet aux pirates informatiques d'accéder au site encore plus facilement.




Étude de cas nº 2 : site Web professionnel avec de nombreuses pages piratées difficiles à trouver

Maria, propriétaire d'une petite entreprise et gérante de son propre site Web, a reçu un message dans les Webmaster Tools indiquant que son site avait été piraté. Le message donnait l'exemple d'une page ajoutée par les pirates informatiques : http://example.com/acheter-du-cialis-hors-pharmacie/. Elle en a parlé à son fournisseur d'hébergement qui a regardé le code source de sa page d'accueil, mais n'a trouvé aucun mot clé pharmaceutique. Lorsque le fournisseur d'hébergement a consulté l'URL http://example.com/acheter-du-cialis-hors-pharmacie/, une page d'erreur s'est affichée. Maria a également acheté un système d'analyse de logiciels malveillants, mais aucun contenu malveillant n'a été trouvé sur son site.


Maria s'est alors connectée à son compte Webmaster Tools et a utilisé l'outil Explorer comme Google sur l'URL d'exemple que nous lui avions fournie, à savoir http://example.com/acheter-du-cialis-hors-pharmacie/. Cela n'a donné aucun résultat. Perplexe, elle a envoyé une demande de réexamen. Elle a reçu en réponse un message de refus lui conseillant de faire deux choses :


1. Valider dans les Webmaster Tools la version racine de son site (celle dont l'URL ne commence pas par "www"), car les pirates informatiques essaient souvent de cacher le contenu dans des dossiers négligés par le webmaster. 
Bien que les sites   http://example.com   et   http://www.example.com   semblent être identiques, nous les considérons en réalité comme distincts.   http://example.com   est   ainsi le "domaine racine", tandis que   http://www.example.com   est appelé le "sous-domaine". Maria avait validé   http://www.example.com   dans les Webmaster Tools, mais pas   http://example.com   .Or les pages ajoutées par les pirates informatiques n'étaient pas de type "www", comme on peut le voir dans   http://example.com/acheter-du-cialis-hors-pharmacie/. Après avoir vérifié   http://example.com   avec l'outil Explorer comme Google des Webmaster Tools, elle a pu trouver le contenu piraté sur l'URL que nous lui avions fournie.

2. Vérifier la présence de nouvelles règles dans son fichier .htaccess.
Maria s'est adressée à son fournisseur d'hébergement qui lui a montré comment accéder à son fichier .htaccess. Elle a immédiatement remarqué que son fichier .htaccess comprenait un contenu étrange qu'elle n'avait pas ajouté :

<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} (google|yahoo|msn|aol|bing) [OR]
RewriteCond %{HTTP_REFERER} (google|yahoo|msn|aol|bing)
RewriteRule ^([^/]*)/$ /main.php?p=$1 [L]
</IfModule> 
L'instruction mod_rewrite ci-dessus a été insérée par le pirate informatique et redirige tous les internautes qui accèdent au site via certains moteurs de recherche, ainsi que les robots d'exploration des moteurs de recherche, vers la page main.php, qui génère la totalité du contenu piraté. Ces règles peuvent également rediriger les internautes qui accèdent au site depuis un appareil mobile. Le même jour, elle a également constaté qu'une analyse récente pour détecter d'éventuels logiciels malveillants avait révélé la présence de contenu suspect dans le fichier main.php. De plus, elle a remarqué un utilisateur inconnu dans la section répertoriant les utilisateurs du FTP de son logiciel de développement de sites Web.
Elle a supprimé les fichiers main.php et .htaccess, ainsi que l'utilisateur inconnu du répertoire FTP, et a constaté que son site n'était plus piraté.




Mesures pour éviter d'être piraté à l'avenir

  • Évitez d'utiliser un FTP lorsque vous transférez des fichiers sur vos serveurs. Les FTP ne chiffrent pas le trafic, y compris les mots de passe. À la place, utilisez un SFTP, qui chiffre tout, y compris votre mot de passe. Cela constitue une protection contre les personnes malintentionnées qui examinent le trafic sur le réseau.
  • Vérifiez les autorisations des fichiers sensibles comme .htaccess. Votre fournisseur d'hébergement devrait pouvoir vous venir en aide si nécessaire. Le fichier .htaccess est censé améliorer et protéger votre site, mais il peut également être utilisé de façon malveillante par les pirates informatiques s'ils peuvent y accéder.
  • Soyez vigilant et vérifiez qu'il n'y a pas de nouveaux utilisateurs inconnus dans votre panneau d'administration, ou dans toute autre section par le biais de laquelle des utilisateurs sont susceptibles de modifier votre site.
Nous espérons que votre site ne sera jamais piraté, mais si cela se produit, sachez que de nombreuses ressources sont à la disposition des webmasters sur notre page Assistance aux webmasters pour les sites piratés. Si vous avez besoin d'aide ou que vous souhaitez partager vos propres astuces, n'hésitez pas à vous exprimer sur notre Forum d'aide pour les webmasters. Si, à la suite de la lecture de cet article, vous publiez des messages sur le forum ou que vous envoyez une demande de réexamen, spécifiez le hashtag "#NoHacked".



Publié par Julian Prentice et Yuan Niu, Google Search Quality

Posted:
De nombreux sites Web font appel à des formulaires dans le cadre de la réalisation d'objectifs importants, tels que la validation d'une transaction sur un site d'achat ou l'inscription à un site d'actualités. Pour bon nombre d'internautes, les formulaires en ligne impliquent de saisir à plusieurs reprises les mêmes informations, telles que leur nom, leur adresse e-mail, leur numéro de téléphone ou leur adresse postale, sur différents sites Web. En plus d'être fastidieuse, cette tâche est souvent source d'erreurs, ce qui peut inciter de nombreux internautes à abandonner tout le processus. Dans un monde où les internautes naviguent davantage sur Internet avec leur appareil mobile qu'avec leur ordinateur portable ou de bureau, il est crucial de disposer de formulaires faciles et rapides à remplir.

Il y a trois ans, nous annoncions (en anglais) la compatibilité de Chrome avec un nouvel attribut "autocomplete", destiné à accélérer, simplifier et rationaliser le remplissage de formulaires. Désormais, Chrome est entièrement compatible avec l'attribut "autocomplete" pour les champs de formulaire conformément à la norme HTML WHATWG actuelle. Les webmasters et les développeurs Web peuvent ainsi libeller les champs d'éléments de saisie avec des types de données fréquents, tels que "name" ou "street-address", sans changer l'interface utilisateur ni le backend. De nombreux webmasters ont augmenté le taux de remplissage des formulaires sur leur site en y ajoutant des balises de saisie semi-automatique.


Par exemple, le balisage du champ "adresse e-mail" d'un formulaire ressemblerait à ce qui suit (nous mettons à votre disposition un exemple de formulaire entier) :


<input type=”email” name=”customerEmail” autocomplete=”email”/>




Il est très important de créer des sites Web adaptés aux mobiles et faciles à parcourir pour les mobinautes. Nous espérons que de nombreux formulaires comprendront l'attribut "autocomplete" à l'avenir. Pour en savoir plus, consultez nos spécifications relatives aux libellés et aux noms des éléments de saisie sur le site Web Fundamentals (Notions de base sur le Web). Comme d'habitude, si vous avez des questions, veuillez les publier sur nos forums d'aide pour les webmasters.


Publié par Mathieu Perreault, ingénieur logiciel Chrome, et Zineb Ait Bahajji, analyste des tendances des webmasters

Posted:
L'équipe Google Search Quality cherche en permanence à limiter l'impact du spam sur les internautes. L'équipe s'est ainsi penchée sur les pages satellite.

Nous insistons depuis longtemps sur le fait que les pages satellite créées uniquement à l'intention des moteurs de recherche peuvent nuire à l'expérience de recherche des internautes.

Par exemple, les internautes peuvent obtenir une liste de résultats qui les redirigent tous vers le même site. Imaginons qu'un internaute clique sur un résultat et ne soit pas satisfait. Il clique alors sur le résultat suivant de la page de résultats de recherche, mais s'il se retrouve sur le même site, il y a fort à parier qu'il sera frustré.

Au fil du temps, nous avons constaté que certains sites cherchaient à maximiser leur "empreinte sur la recherche" sans apporter de valeur ajoutée unique. Ces campagnes satellite peuvent prendre des formes différentes : différentes pages sur un même site, sur plusieurs domaines ou un mélange des deux. Pour offrir aux internautes des résultats de recherche plus pertinents, nous allons prochainement apporter un ajustement au système de classement pour mieux gérer ce type de pages. Ce changement devrait entraîner une différence notable pour les sites qui possèdent des campagnes satellite importantes et bien établies.

Pour faciliter la compréhension de nos consignes, nous avons ajouté des exemples destinés à éclairer les webmasters, et nous avons mis à jour notre définition des pages satellite dans nos consignes relatives à la qualité.

Voici les questions à vous poser pour savoir si vous êtes face à des pages satellite ou non :

  • L'objectif de ces pages est-il d'optimiser votre site pour les moteurs de recherche et de canaliser les internautes vers la partie utilisable ou pertinente de votre site, ou ces pages font-elles partie intégrante de l'expérience utilisateur de votre site ?
  • Cherchez-vous à ce que ces pages s'affichent dans les résultats d'une recherche portant sur des termes génériques, alors que leur contenu est très spécifique ?
  • Les pages dupliquent-elles des listes d'éléments comme des lieux ou des produits qui existent déjà sur le site dans le but d'augmenter le trafic de recherche ?
  • Ces pages sont-elles uniquement destinées à générer un trafic affilié et à attirer des internautes sans proposer aucune fonctionnalité ou valeur ajoutée ?
  • Ces pages sont-elles isolées ? Est-il difficile ou impossible d'y accéder depuis les autres parties de votre site ? Les liens vers ces pages depuis d'autres pages du site ou du réseau de sites ont-ils été créés uniquement pour les moteurs de recherche ?


Si vous avez des questions ou des commentaires concernant les pages satellite, veuillez consulter les forums de notre centre pour les webmasters.

Publié par Brian White, membre de l'équipe Google de lutte contre le spam

Posted:
Comme annoncé il y a quelques jours, à partir du 21 avril 2015, la compatibilité mobile d’un site web deviendra un facteur de classement dans les résultats de recherches mobiles de Google.

Pour aider les acteurs du web à se préparer à cette évolution importante, l'équipe Google Webmasters met en place la campagne #MobileMadness pendant le mois de mars. Il s'agit d'un ensemble de ressources spécialement créées pour les webmasters et les PME pour l’occasion :
  • des présentations visibles en direct,
  • des sessions de questions-réponses sur le changement d'algorithme, 
  • d'autres informations générales sur les outils que nous mettons à disposition des créateurs de sites pour préparer ce changement..
Retrouvez ici la liste de ces événements qui se dérouleront en langue anglaise.



Afin d'accompagner également le Web francophone, nous organisons une session de questions-réponses en langue française.
Rejoignez-nous donc le mercredi 25 mars à 17h (heure de france metropolitaine) pour ce Hangout on Air où nous répondrons aux questions que vous vous posez. Inscrivez-vous ici.



Vous pouvez également déjà regarder les vidéos (en anglais) des événements qui se sont déjà déroulés:
  • 05 mars - Optimisez votre stratégie digitale et votre référencement - lien vers la video
  • 10 mars - Session de Question-Réponse pour les PME - lien vers la video
  • 12 mars - Les bases d’un site mobile pour les PME. Les outils : PageSpeed Insights et le Test de Compatibilité Mobile - lien vers la video
Nous espérons que vous trouverez ces ressources utiles. Pensez à soumettre votre site au test de compatibilité mobile pour être prêt le 21 avril !


Posté par Vincent Courson, Search Quality Team

Posted:
Les webmasters utilisent souvent des fichiers image, CSS et JavaScript dans leurs pages Web pour rendre celles-ci attrayantes et fonctionnelles. Si l'exploration de ces ressources par Googlebot est bloquée, celles-ci ne peuvent pas s'afficher dans les résultats de recherche correspondant à ces pages. Les outils Google pour les webmasters comprennent désormais un rapport sur les ressources bloquées qui vous permet d'identifier et de résoudre les problèmes de ce type.


Ce rapport commence par indiquer le nom des hôtes qui hébergent des ressources bloquées utilisées sur votre site, par exemple des fichiers JavaScript, CSS et image. Cliquez sur les lignes du rapport pour obtenir la liste de ces ressources bloquées, ainsi que les pages dans lesquelles elles sont intégrées. Nous vous indiquons également les étapes à suivre pour identifier les problèmes et les résoudre, afin que nous puissions correctement explorer et indexer le contenu de la page.

De plus, suite à une mise à jour de la fonctionnalité Explorer et afficher, vous pouvez désormais facilement voir l'impact que le blocage de ces ressources a sur l'exploration. Lorsque vous demandez l'exploration et l'affichage d'une URL, des captures d'écran vous montrent la façon dont la page s'affiche pour Googlebot et pour un internaute classique. Cela facilite l'identification des problèmes qui influencent significativement la manière dont vos pages sont interpretées par Googlebot.

Webmaster Tools s'efforce de ne vous présenter que les ressources sur lesquelles vous avez un moyen de contrôle. Ainsi, pour l'instant nous n'affichons pas les ressources utilisées par de nombreux sites, tels que les outils d'analytics populaires. Mettre à jour tous les fichiers robots.txt peut s'avérer être très long (et ce n'est généralement pas pour des raisons techniques !). Aussi, nous vous conseillons de commencer par les ressources dont le blocage a le plus d'impact sur l'affichage pour Googlebot. Vous trouverez plus de renseignements sur les étapes à suivre en consultant l'article de notre centre d'aide.

Nous espérons que cette nouvelle fonctionnalité vous permettra d'identifier et de débloquer plus facilement les ressources utilisées sur votre site Web. Si vous avez des questions, n'hésitez pas à les poser sur notre forum d'aide pour les webmasters.


Ecrit par John Mueller, Webmaster Trends Analyst - Google Suisse

Posted:
Niveau webmaster: tous

Lorsqu'ils effectuent des recherches sur un appareil mobile, nos utilisateurs devraient obtenir les résultats les plus pertinents, le plus rapidement possible, et cela que l'information se trouve sur une page Web mobile-friendly (adaptée aux mobiles) ou dans une application. Nous voulons que nos algorithmes s'adaptent constamment aux tendances observées chez nos utilisateurs.

Dans le passé, nous avons communiqué sur les erreurs de configuration les plus communes sur mobile (article en anglais), et avons mis en place des badges dans les pages de résultats pour indiquer les sites utilisant des technologies non-compatibles (article en anglais). Nous avons rendu les sites mobile-friendly plus visibles pour les utilisateurs, et nous avons mis en place l'App Indexing. Aujourd'hui, nous allons plus loin dans cette direction, et annonçons deux changements importants qui aideront nos utilisateurs à découvrir du contenu mobile-friendly.


1. Plus de sites mobile-friendly dans les résultats de recherche.

A compter du 21 avril 2015, nous allons étendre notre utilisation du critère de compatibilité mobile pour en faire l'un des critères de positionnement du moteur. Ce changement affectera les résultats de recherche mobiles partout dans le monde et dans toutes les langues, et son impact sera significatif. Notre objectif est de fournir à nos utilisateurs des résultats pertinents, de qualité, et qui soient compatibles avec leur appareil mobile.

Pour vous assurer que votre site est mobile-friendly, vous pouvez consulter notre guide pour les sites mobiles. Vous pouvez utiliser les outils suivants pour voir comment Googlebot comprend vos pages :

2. Plus de contenu issu d'applications dans les résultats de recherche

A compter du 26 février 2015, nous utilisons désormais les informations provenant des applications indéxées comme critère de positionnement, pour nos utilisateurs connectés et qui ont déjà installé les applications en question sur leur appareil mobile. Par conséquent, nous pourrons proposer à ces utilisateurs plus de contenus issus de leurs applications indexées favorites lors de leurs recherches.

Pour savoir comment faire indexer votre application mobile en utilisant l'App Indexing, vous pouvez consulter notre documentation technique.


Si vous avez des questions sur l'un ou l'autre de ces sujets (ou les deux), n'hésitez pas à vous rendre sur notre forum d'aide aux webmasters.


Ecrit par Takaki Makino, Chaesang Jung, et Doantam Phan