Le SEO ou Référencement Naturel correspond à l’ensemble de techniques visant à aider la compréhension de la thématique et du contenu de l’ensemble des pages d’un site internet par les moteurs de recherche (Google, Yahoo, Bing, Youtube…). Ces techniques visent donc à donner un maximum d’informations concernant le contenu d’une page d’un site aux robots d’indexation.

L’objectif principal du SEO est d’améliorer le positionnement et l’indexation d’une page d’un site internet dans les résultats des moteurs de recherches sur des mots-clés ciblés en accord aux sujets importants du site internet.

C’est un site web qui répertorie d’autres sites internet selon différentes catégories et thématiques (ex : référencement, sport, cuisine..) Il faut remplir un formulaire pour pouvoir apparaître sur l’annuaire, la plupart du temps la démarche est gratuite, mais certains annuaires sont payants. Certains annuaires n’acceptent que des sites de qualité, et ont donc une bien meilleure note sur les moteurs de recherches que d’autres annuaires. Les annuaires représentaient avant les moteurs de recherches le seul regroupement de sites en fonction de thématiques. Yahoo était d’ailleurs un annuaire avant d’être moteur de recherche.

Les sites web peuvent être comparés à des arbres : la page d’accueil est la racine du site, les fichiers et les dossiers vers lesquels elle pointe sont les branches de l’arbre. C’est un système hiérarchisé qui permet la navigation.

Les backlinks, autrement dit liens externes, représentent les liens pointant vers un site internet. Si ceux-ci proviennent de site à fort PageRank alors ils renforcent la crédibilité du site pointé et aident à son référencement. De nombreux facteurs déterminent la valeur du lien, car certains liens ont plus de valeur que d’autres.

Ce sont les balises de la forme <meta name=”…”  content=”…”>, donnant le nom de la balise et son contenu. Exemple pour la description de la page: <meta name=” description”  content=”Les plages de Dakar interdites à la baignade”>.  On peut ainsi donner pour une page

sa description

les mots clès

l’auteur

On peut ajouter le titre (avec la balise title).

Ces balises meta ou métadonnées sont destinées à la consommation des moteurs de recherche. Dans une page html, elles sont placées entre les deux balises head. Elles donnent donc une masse d’informations aux moteurs de recherche, augmentant ainsi le référencement.

La Blacklist, en français « liste noire », contient tous les sites ayant été blacklistés, c’est à dire des sites internet qui, pour cause de fraudes et techniques illégales de référencement naturel, se voient exclus des résultats de moteurs de recherche. Ces sites sont donc bannis des résultats des moteurs de recherche pour une durée plus ou moins longue selon la gravité de la fraude.

Le black hat seo est un ensemble de procédés et d’automatisations visant à exploiter les failles des algorithmes pour manipuler les résultats en sa faveur. Les résultats peuvent donc être surprenants. Les sites s’adonnant à de telles pratiques peuvent se retrouver du jour au lendemain en première page Google, voire en première position.

Avec de tels résultats, c’est évidemment tentant. Mais toute faille a immanquablement vocation à être comblée, Google procédant en permanence à des mises à jour plus ou moins importantes de son algorithme. Quand la faille est corrigée, ce qui n’est jamais très long, tous ceux qui s’en sont servis pour grimper artificiellement dans les SERPS sont alors démasqués par Google et sanctionnés. Selon l’importance des pratiques douteuses utilisées, cela va du déclassement à la disparition totale du site.

Ce sont des logiciels utilisé par les moteurs de recherche qui parcourent le net afin de repérer et d’indexer dans leurs bases de données les pages internet et le contenu des sites. Le crawler de Google se nomme Googlebot.

« Cascading Style Sheets », en français on pourrait traduire par « feuilles de style en cascade » C’est une norme du langage HTML qui permet de mettre en forme ce que le HTML permet de structurer. On associe donc le CSS au HTML pour ce qui est par exemple des couleurs des titres, polices, etc..

Voir notre cours de CSS.

C’est un contenu qui apparait plusieurs fois sur internet, dans des sites différents. Si Google rencontre un tel contenu dans votre site, il se pose des questions. Son algorithme peut lui permettre de savoir où ce contenu est apparu la première fois.

Soit « HyperText Markup Langage ». C’est le langage de référence permettant de créer des pages Web, il utilise une structure formée avec des balises permettant de structurer le texte. Il nécessite un navigateur web pour la visualisation.

L’indexation d’une page internet c’est le fait d’enregistrer celle-ci dans une base de données. Cette indexation s’effectue via un formulaire le plus souvent qui comprend une adresse email valide et l’adresse URL du site en question. On peut indexer une page web dans un moteur de recherche, un annuaire, un blog…

C’est un langage de script qui s’intègre au langage HTML dans le but de créer de petites animations ou interagir avec l’utilisateur. Cela étant il faut dissocier le Javascript du Java qui lui est un langage de programmation sans aucun rapport.

On pourrait le traduire gauchement par “bourrage de mots clés”.

Un exemple de keyword stuffing: une page qui essaie de se classer pour le terme « meilleur sac pour ordinateur portable » et qui utilise la copie suivante : « Si vous recherchez le meilleur sac pour ordinateur portable, ne cherchez pas plus loin. Notre marque propose le meilleur sac pour ordinateur portable que vous puissiez souhaiter pour les affaires ou le plaisir.

Un lien interne, c’est tout simplement le lien d’un site internet A qui pointe vers une page du même site A (exemple le menu d’un site).

Un lien sponsorisé, chez Google « AdWords », est un lien commercial qui se signale sur la première page des résultats, tout en haut de la page et dans une colonne située à droite. Le lien commercial est composé d’un ou plusieurs mots clés achetés aux enchères pour être mieux positionné. Cette technique de référencement, étant appelée communément référencement payant, présente l’avantage d’avoir un résultat immédiat et de réelles garanties de positionnement. En revanche ces liens coûtent cher et n’offrent aucune position lorsque le budget est épuisé.

C’est un système de recherche différent de l’annuaire, le moteur de recherche scanne les pages d’un site afin d’en récupérer les mots qui serviront au classement des sites dans les pages de résultat de la recherche. Lorsqu’un utilisateur entre un mot dans le champ de recherche, le moteur affiche les sites contenus dans sa base de données. Les sites sont classés selon un algorithme propre à chaque moteur, avec malgré tout des critères semblables d’un moteur à un autre. Google est l’exemple type.

C’est un terme utilisé pour les recherches de sites par les moteurs de recherche. Il permet aussi lors de rapports de positionnement d’interpréter selon les résultats, quels expressions-clés sont les plus importantes et génèrent le plus de trafic. Expression-clé remplace désormais mot-clé qui n’était plus d’actualité avec l’allongement du nombre de mots des requêtes en moyenne.

Fichier texte situé à la racine des sous domaines. Il peut guider les robots en définissant les endroits où ils ne devraient pas aller pour faire des recherches (l’admin, par exemple).

Ex Google Webmaster Tools

Plateforme Google fournissant des outils pour webmasters

Le HTTPS est donc la version ultra sécurisée du HTTP. Les sites Web sécurisés souhaitant protéger la connexion d’un internaute en cryptant leurs informations peuvent le faire en 3 couches :

Le cryptage, qui garantit que l’activité de l’utilisateur n’a pas été tracée et qu’aucune de ses données ne peut être volée.

L’intégrité des données, qui empêche les fichiers d’être corrompus lors de leur transfert.
L’authentification renforce encore la protection contre les attaques.

On pourrait se demander si la mise en place d’un protocole aussi strict peut influencer négativement nos positions dans les SERP. En réalité, c’est l’inverse ! Le HTTPS affecte aujourd’hui les classements dans les moteurs de recherche et s’avère indispensable pour se positionner dans les premières places.

Pourquoi ?

Tout simplement parce que le leitmotiv de Google est de proposer à ses utilisateurs des résultats pertinents, sur des sites dont la navigation est fluide, rapide et sécurisée. Si le spectre du HTTPS obligatoire planait depuis plusieurs années, c’est en 2015 que le moteur de recherche a annoncé que le protocole HTTPS favorisait officiellement le classement des pages d’un site. Deux sites à qualité et performances égales peuvent être départagés par la présence ou non d’un protocole HTTPS.

De plus, avec les multiples scandales de fraudes et piratages, nous faisons face à des internautes avertis qui savent reconnaître les bases d’un site sécurisé avec notamment “le petit cadenas en haut dans l’url !“ Le HTTPS envoie donc un signal de confiance aux internautes, qui seront plus susceptibles de revenir sur le site. À noter enfin que les internautes utilisant Chrome voient carrément le site en HTTP bloqué par leur navigateur, qui indique qu’il s’agit d’un site non sécurisé ! On n’ose donc imaginer le taux de rebond de ces sites là … Le taux de rebond qui est aussi un critère de classement.

Le NoFollow est un attribut HTML caractérisant un lien, par cet attribut le webmaster indique aux robots qui scannent les pages de ne pas prendre en compte ce lien lors de l’indexation.

Le nom de domaine permet de distinguer un site d’un autre par son nom et/ou sa terminologie par un nom unique. Ainsi personne ne pourra créer un autre site suptic.com car ce nom est unique et à déjà été déposée auprès d’un Registrar.

Le NoFollow est un attribut HTML caractérisant un lien, par cet attribut le webmaster indique aux robots qui scannent les pages de ne pas prendre en compte ce lien lors de l’indexation.

Le PageRank c’est l’indice de popularité d’une page web suivant le moteur de recherche Google. Google étant le moteur de recherche le plus utilisé dans le monde (90 % des requêtes). Cet outil est donc à prendre en considération, il déterminer la notoriété d’une page internet. Le PR est calculé en fonction des liens externes qui pointent vers la page et aussi sur la richesse de son contenu. Plus une page a de liens qui pointent vers elle, plus le PageRank est important. Le Pagerank est visible grâce à divers outils, mais ce dernier n’est plus à jour depuis plusieurs années. Il tend donc à être dépassé comme critère d’évaluation d’un site. Il faut cependant savoir que le PR est toujours utilisé en interne par Google pour tous les sites, c’est simplement l’information du PR actuelle des sites qui n’est plus rendue publique par Google..

Suite au référencement, le positionnement consiste à optimiser un site internet afin que celui-ci soit jugé par les moteurs et donc bien classé dans leurs résultats.

La Redirection c’est lorsque l’adresse A vous mène vers une adresse B

La plupart du temps, la redirection 301 oriente automatiquement le visiteur vers la nouvelle localisation du contenu recherché sans qu’il ait besoin d’effectuer la moindre opération. Elle participe alors à une utilisation du web plus confortable pour les internautes.

Le Référencement local fait ressortir l’idée que vous avez fait ce qu’il faut au niveau  SEO  et Marketing pour que les personnes proches de vous géographiquement vous retrouvent naturellement. Ce sont normalement vos premiers clients. Google MyBusiness peut vous y aider.

Société responsable de l’enregistrement et de l’attribution des noms de domaines. Il est possible via ces sociétés d’acheter un nom de domaine (exemples: suptic.net   orbiti.sn ) en fonction des possibilités. De manière générale, l’attribution d’un nom de domaine est valable un an renouvelable.

La Sandbox est affiliée au blacklisting, lorsque un site est promu très rapidement dans les premières pages de résultats, il se peut qu’il soit sur-optimisé, une des causes peut être un nombre très important de backlinks. Dans certains cas il arrive donc que ce site atterrisse dans la sandbox et soit désindexé pour une période déterminée.

SEO friendly est une expression anglaise caractérisant un site qui est naturellement optimisé par sa forme et ses contenus pour le référencement naturel.

C’est disons l’architecture, le squelette, l’ensemble des liens de votre site.

L’utilité première du sitemap est de lister simplement les URLS internes d’un site. L’avantage du format XML est qu’il permet d’ajouter des métadonnées, qui viendront enrichir cette liste d’URLS. On peut notamment ajouter : Une notion de temporalité, comme la date de la dernière modification de l’URL.

Le spamdexing est une technique utilisée afin d’augmenter le nombre de liens pointant vers un site. Pour ce faire il y a différentes solutions. Certains créent des blogs, postent des messages et commentaires sur des blogs dans le seul but de faire apparaître le lien de leur site dans le post. D’autres encore utilisent les réseaux sociaux tel que Facebook   là encore pour diffuser au maximum des liens. Les webmasters dissimulent aussi parfois dans leur code HTML des mots clés importants en grand nombre, par exemple en écrivant en blanc sur fond blanc. Ces techniques sont peu appréciées par les moteurs de recherche et les sites visés peuvent souffrir de sanctions.

De l’anglais « Uniform Ressource Locator » L’URL permet à l’utilisateur d’avoir une adresse internet (https://www. suptic.net) complètement unique et accessible du réseau Internet partout dans le monde. Ainsi où que vous serez dans le monde, votre URL dirigera toujours vers votre site (tant que vous en serez propriétaire). Le terme URL est souvent confondu avec Nom de domaine or une différence existe.

L’adresse suivante est une URL : https://www.orbiti.com/votre-site/       . Celle ci se compose du nom de domaine et du suffixe qui mène à la page dans le site.

URL indexable : qui n’a aucun blocage pour être indexé ou crawlé par les moteurs

URL Canonique: c’est l’url de base, aucune redirection

Le white hat seo est un ensemble de pratiques de référencement naturel et d’optimisations respectueuses des recommandations officielles de Google, le leader de la recherche sur internet. Ces dernières visent notamment à :

  • améliorer les performances techniques du site, par exemple en ayant une architecture de page cohérente ou en réduisant le temps de chargement sur mobile
  • renforcer l’expérience utilisateur
  • travailler la qualité du contenu éditorial

Le white hat seo est donc un ensemble de procédés considérés comme « éthiques » par les moteurs de recherche. Ceux-ci vont notamment dans le sens de Google qui cherche sans cesse à renforcer la pertinence et la qualité des résultats qu’il propose. Il s’agit donc bien d’une stratégie de visibilité s’inscrivant dans le long terme. Si elle nécessite un peu de temps avant d’offrir des résultats, ceux-ci sont en revanche pérennes.

C\'est fait! Orbit SUPTIC vous remercie

Besoin d'aide ?
Bonjour 👋 100% satisfaction garantie !
Nous joindre par WHATSAPP.
Orbit Suptic

GRATUIT
VOIR