Vocabulaire du référencement

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z


A

  • Adresse IP
    Code attribué aux micros connectés à internet utilisant le protocole TCP/IP il fonctionne un peu à la manière d’un numéro de téléphone. L’adresse IP permet de distinguer un pc d’un autre sur le réseau. Cette adresse est constituée d’une suite de chiffres, par exemple 111.22.33.44.
  • Algorithme
    un algorithme est un ensemble de règles opératoires propres à un calcul ou à un traitement informatique. Ou encore, un algorithme est un processus déterminé formé d’une séquence d’étapes bien définies menant à la solution d’un certain type de problèmes. Ce processus peut être itératif, c’est-à-dire répété plusieurs fois. Il est généralement numérique.( Algorithmes des moteurs de recherche)
  • API
    Sigle anglais pour Application programming interface ( et non pas allocation parent isolé lol) Ensemble de commandes externes publiées par un éditeur et permettant de recourir aux fonctions d’un logiciel depuis un autre logiciel. Source : Lionel Lumbroso , 01net
  • Attribut
    les attributs sont utilisés à l’intérieur d’une balise pour modifier le fonctionnement de celle-ci.
    Exemple : à la balise « p » peut être ajouté l’attribut align= »center ».
    Nous aurons donc :

Retour vers le haut


B

  • Black hat
    Au sens général : hacker, personne utilisant des techniques frauduleuse pour pénétrer sur des sites et en tirer des bénéfices personnels. En référencement le  » black hat » utilise des techniques interdites par les moteurs de recherche pour améliorer son positionnement : cloaking, spam de mot-clé, texte caché, pages satellites, duplication de contenu, ferme de liens… Toutes ces techniques sont dangereuses pour le client et peuvent nuire à son référencement.
  • Blacklisté
    Pour un site, être  » blacklisté » signifie être exclu de l’index d’un moteur de recherche de manière provisoire ou définitive.
    Sont blacklistés les sites ayant enfreint les règles édictées par les moteurs de recherche, étant entendu que celles-ci varient d’un moteur à l’autre. Ainsi un site peut disparaitre de l’index de Google tout en figurant dans celui de Yahoo.

Retour vers le haut


C

  • Cookies
    Au singulier : cookie.. mais plus souvent utilisé au pluriel
    Définition de Wikipedia, assez claire :
    Les cookies sont de petits fichiers textes stockés par le navigateur web sur le disque dur du visiteur d’un site web et qui servent (entre autres) à enregistrer des informations sur le visiteur ou encore sur son parcours dans le site. Le webmestre peut ainsi reconnaître les habitudes d’un visiteur et personnaliser la présentation de son site pour chaque visiteur ; les cookies permettent alors de garder en mémoire combien d’articles il faut afficher en page d’accueil ou encore de retenir les identifiants de connexion à une éventuelle partie privée : lorsque le visiteur revient sur le site, il ne lui est plus nécessaire de taper son nom et son mot de passe pour se faire reconnaître, puisqu’ils sont automatiquement envoyés par le cookie.

    Un cookie a une durée de vie limitée, fixée par le concepteur du site. Ils peuvent aussi expirer à la fin de la session sur le site, ce qui correspond à la fermeture du navigateur. Les cookies sont largement utilisés pour simplifier la vie des visiteurs et leur présenter des informations plus pertinentes. Mais une technique particulière permet aussi de suivre un visiteur sur plusieurs sites et ainsi de collecter et recouper des informations très étendues sur ses habitudes. Cette technique a donné à l’usage des cookies une réputation de technique de surveillance violant la sphère privée des visiteurs.

  • Crawler
    Les termes  » crawler » , « spiders » et « robots », se rapportent tous à un logiciel d’indexation qui est conçu pour passer en revue des sites Web et pour télécharger l’information contenue dans ces sites.

Retour vers le haut


D

  • Data-center
    Les data-centers sont les salles où sont hébergés des serveurs. Les moteurs de recherche devant indexer des milliards de pages web, ils sont installé de nombreux  » data-centers » à travers le monde. Ceux ci  » crawlent » en permanence et périodiquement alignent leurs résultats les uns par rapport aux autres pour pouvoir transmettre des résultats similaires. Ils n’ont donc pas toujours des résultats identiques suivant les moments de la journée et les data consultés. Régulièrement les données des data-centers sont alignées les uns sur les autres, ont dit alors, en ce qui concerne Google, qu’il y a une mise à jour ou une  » exportation » du page-rank.
  • Duplicate content
    Terme anglais désignant une page reprenant le même contenu qu’une autre page. Ceci arrive lorsqu’un site copie un autre site. Ce vol de contenu est très mal considéré par les moteurs de recherche, mais ceux-ci ne pouvant savoir quel est le site d’origine et le site  » voleur » , ils pénalisent les 2. Le  » duplicate content  » peut également être créé par les flux rss puisqu’ils reprennent un partie des textes de news et des billets. Il peut également être créé par des problèmes avec les noms de domaine. Ainsi le nom de domaine  » basique  » est : monsite.xx et non  » www.monsite.xx » mais comme très souvent on utilise le  » www » qui est un  » sous-domaine » du domaine principale, les pages se créent en double . Les webmasters doivent donc veiller faire une redirection de l’un vers l’autre.

Retour vers le haut


F

  • FlashTechnologie proposée par Adobe pour faire des images animées. L’inconvénient de cette technologie, qui a un très beau rendu et permet de faire de très beaux sites, est qu’elle n’est pas indexable. Un site entièrement en » flash » doit donc être doublé de son frère en html
  • Flux Rss
    Rss = really simple syndication
    un flux rss désigne un fichier mis à jour en temps réel qui reprend automatiquement soit les titres, soit le texte intégral d’un site d’actualité ou d’un blog, les infos sont affichées sous forme de liens cliquables

Retour vers le haut


H

  • HTML
    Acronyme de : Hyper Text Markup Language
    Langage est utilisé pour l’écriture de pages Web

Retour vers le haut


L

  • Lien
    lien hypertexte :
    système sur lequel est construit internet, qui permet de lier des pages entre elles, des sites entre eux.
    Les moteurs de recherche fonctionnent en suivant les liens de pages en pages et de sites en sites. Les pages et sites sont indexés dans la base de données du moteur au fur et à mesure. Selon des formules mathématiques qui sont leurs secrets, ces moteurs de recherche trient les sites et les classent. Partant du principe qu’un lien vers un site = un vote, plus un site a de lien allant vers lui, plus il monte dans le classement.
  • Liens sponsorisés
    Les liens sponsorisés (ou liens commerciaux ou liens promotionnels) sont des liens qui apparaissent sur la droite des résultats dans les moteurs de recherche. Contrairement aux autres liens (résultats naturels), ils s’agit de liens publicitaires.
    Les liens commerciaux ont fleuri ces dernières années et sont présents sur tous les grands moteurs de recherche (Google, MSN, et Yahoo disposent de leur propre régie de liens commerciaux) sous une variété de noms : liens commerciaux, liens sponsorisés, ou encore liens promotionnels.
    L’intérêt principal des liens commerciaux est qu’ils garantissent une présence immédiate et optimale de votre site sur les moteurs de recherche… à condition que vous ayez un budget assez important à y consacrer.
    Principe et enjeux des liens commerciaux :
    Vous achetez, aux enchères, les requêtes / mots clefs sur lesquels vous souhaitez que votre site soit positionné. Le montant de votre enchère détermine le positionnement de votre annonce par rapport à celles de vos concurrents. – Votre campagne peut-être lancée et arrêtée à tout moment, et durer autant de temps que vous le souhaitez (idéalement, ne pas compter moins de 15 à 20 jours pour qu’une campagne de liens commerciaux commence à réellement porter ses fruits) – Vous maitrisez entièrement votre budget. – Vous suivez vos dépenses mais aussi les résultats de vos campagnes en temps réel. ( source : Dicodunet)

Retour vers le haut


M

  • Meta
    Balises  » meta » ou  » meta tags »
    Il existe plusieurs balises  » meta » :
  • la balise  » title »
  • la balise  » description »
  • la balise  » keywords »
  • la balise  » index »
  • il en existe d’autres, mais qui sont inutiles ( meta refresh par exemple)
    Ces balises ne sont pas visibles par l’internautes, sauf à la rigueur la balise  » title » dont le contenu s’affiche tout en haut de l’explorateur.
    Elles sont destinées aux moteurs de recherche et leur apportent des informations et du contenu.
    Les balises  » title » et  » description » doivent être particulièrement soignées et refleter le contenu de la page, sans pour autant être trop longues. Elles seront indexées en priorités car elles se trouvent tout en haut de la page , dans la partie nommée « header » qui est lue la première par les moteurs. Leur contenu est repris pour apparaître dans les résultats affichés par les moteurs ( ce qu’on appelle le  » snippet »)

    La balise « meta keywords » semble tombée en désuétude, il ne faut néanmoins pas la négliger, sans pour autant la surcharger de listes de mots clés trop importantes.

  • Mot-clé
    ou  » keyword » Mot que l’on tape dans la ligne de saisie d’un outil de recherche pour résumer le sujet recherché
  • Mots outils ( ou « Mots vides » ou  » Stop Words »)
    mots courts qui ont plus un rôle syntaxique qu’un sens en eux même. Ce sont les articles, prépositions etc… En voici une liste non exhaustive. Ils ne sont pas toujours pris en compte par les moteurs de recherche et il peut être utile de les enlever des urls pour en simplifier la lecture si le sens n’est pas altéré.

Retour vers le haut


N

  • Network
    signifie  » réseau » en anglais. Concerne le réseau que l »on a pu former sur internet – soit les sites qui appartiennent à une même personne – soit ses amis, relations à différents niveaux : familial, amical, professionnel
  • NoFollow
    Il s’agit d’un ordre indiquant à un moteur de recherche qu’on ne souhaite pas qu’il suive le lien. Le lien sera suivi quand même, mais le moteur de recherche ne le prendra pas en compte pour le positionnement du site vers lequel le lien est fait. De même le site qui fait le lien ne perdra pas de son poids pour son propre classement ( partant du principe que tout lien  » sortant » transmet une partie de sa valeur au site vers lequel il pointe)

Retour vers le haut


P

  • PageRank
  • Système de classement de sites web appartenant à Google.
    Il est basé sur un algorithme complexe que les référenceurs s’essaient à déchiffrer ou intuiter. Cet algorithme détermine la place d’un site dans l’index du moteur de recherche. Il est rendu visible à l’aide d’une petite barre verte graduée de 0 à 10, à progression exponentielle qui s’affiche dans le navigateur si on télécharger la  » google toolbar ».
    Si les premiers échelons, jusqu’à 4, sont relativement faciles à franchir, le passage d’un niveau à l’autre est particulièrement difficile. Cette barre a perdu une grande partie de sa signification dans la mesure où elle a suscité un marché d’échange de liens que Google a décidé de sanctionner en rétrogradant certains sites, sans que ceux-ci perdent leur trafic. On peut donc en conclure que le PageRank n’est plus suffisant pour juger du classement d’un site et qu’il faut aussi se baser sur les critères de sa fréquentation.

  • Positionnement
    Le positionnement d’un site s’entend par rapport à un mot clé ou une expression clé. Il correspond à la place obtenue dans l’index d’un moteur de recherche à un moment donné et selon le  » data center » consulté de ce moteur de recherche. Cela peut donc varier dans une même journée selon le data-center qui retourne une réponse.
  • Protocole
    Sur Internet, les protocoles utilisés font partie d’une suite de protocoles, c’est-à-dire un ensemble de protocoles reliés entre-eux. Cette suite de protocole s’appelle TCP/IP. Elle contient, entre autres, les protocoles suivants :
  • TCP : Transmission Control Protocol
  • IP : Internet Protocol
  • HTTP : Hyper Text Transfert Protocol
  • FTP : File Transfert Protocol
  • POP3 : Post Office Protocol
  • SMTP Simple Mail Transfert Protocol
  • NNTP Network News Transfert Protocol
  • IRC : Internet Relay Chat Protocol
  • Pour les sites internet, nous utilisonsle protocole HTTP et pour le transfert de fichiers sur un serveur le protocole FTP

Retour vers le haut


R

  • Référencement
    Un site web ayant été conçu pour être vu par un public, il est nécessaire de pouvoir le trouver facilement dans les moteurs de recherche. Le référencement est l’art et la science élaborés pour positionner le site dans les premiers résultats qui sont retournés suite une recherche à partir de mots bien définis.
    On distingue le  » référencement naturel » ou SEO ( travail sur la technique d’un site et son contenu) et le  » référencement marketing  » ou SEM, où le propriétaire du site paie pour être positionné sur la première page d’un moteur de recherche. ( apparaît alors l’inscription  » lien sponsorisé » )
  • Robots
    Les termes  » crawler » , « spiders » et « robots », se rapportent tous à un logiciel d’indexation qui est conçu pour passer en revue des sites Web et pour télécharger l’information contenue dans ces sites.

Retour vers le haut


S

  • Sandbox
    La « Sandbox » ( bac à sable) serait une pénalité qui touche les nouveaux sites( mais pas tous) chez Google et ne leur permet pas de se positionner facilement sur leurs mots-clés. On sait peu de choses à son sujet et de nombreuses suppositions ont été avancées, qui sont bien résumées sur Webrankinfo : l’effet Sandbox dans l’algorithme de Google D’après Olivier Andrieu, Google observerait la qualité et la quantité des liens entrants. Il faut donc veiller à avoir des liens de qualité et de façon progressive.
  • SEO
    Anglais : Search Engine Optimisation
    Optimisation d’un site pour les moteurs de recherche. Il s’agit d’abord de conformer son site à des standards reconnus par les moteurs pour faciliter l’indexation et même la favoriser
    L’optimisation elle-même concerne différents moyens mis en place concernant tous les aspects du site : techniques et contenu ,pour booster le site dans les premières place sur une ou plusieurs requêtes ( recherche par mots clés) choisies.
  • SERP
    Acronyme anglais pour Search Engine Results Page. (Page de Résultats d’un Moteur de Recherche)
    La SERP est donc la page Web générée automatiquement par un moteur de recherche en fonction des mots-clés soumis par l’internaute
  • Serveur
    Un serveur informatique est l’un des éléments participant au mode de communication client-serveur entre des logiciels: un logiciel dit « client » envoie une requête à un logiciel « serveur » qui lui répond, le tout suivant un protocole de communication.
    Par extension, on désigne par serveur informatique l’ordinateur hébergeant de tels logiciels serveurs. Les logiciels clients s’y connectent à travers un réseau informatique. Les serveurs offrent des services qui permettent, par exemple, de stocker des fichiers, transférer le courrier électronique, héberger un site Web, etc.
    Il est possible pour un ordinateur ou un logiciel d’être client et serveur en même temps. La connexion client-serveur utilise des protocoles de communication, comme par exemple TCP/IP, qui est le protocole le plus utilisé sur l’Internet.

    Le type de serveur le plus populaire est le modèle  » Apache ». Apache fonctionne principalement sur les systèmes d’exploitation Unix (GNU/Linux, OSX, BSD et UNIX) et Windows. Apache est utilisé par de nombreux produits, dont Websphere d’IBM, ainsi que par Oracle Corporation.
    Il est également supporté d’une façon ou d’une autre par les outils de développement Borland Delphi et Kylix, ainsi que par des CMS comme Drupal.

    Apache est conçu pour prendre en charge de nombreux modules lui donnant des fonctionnalités supplémentaires : interprétation du langage Perl, PHP, Python et Ruby, serveur proxy, Common Gateway Interface, Server Side Includes, réécriture d’URL, négociation de contenu, protocoles de communication additionnels, etc.
    Les possibilités de configuration d’Apache sont une fonctionnalité phare. Le principe repose sur une hiérarchie de fichiers de configuration, qui peuvent être gérés indépendamment. C’est notamment utile aux hébergeurs Web qui peuvent ainsi servir les sites de plusieurs clients à l’aide d’un seul serveur HTTP. Pour les clients, cette fonctionnalité est rendue visible par le fichier .htaccess.

    Parmi les logiciels aidant la maintenance d’Apache, les fichiers de log peuvent s’analyser à l’aide de nombreux scripts et logiciels libres tels que AWStats, Webalizer ou W3Perl. Plusieurs interfaces graphiques facilitent la configuration du serveur.
    ( Sources : Wikipedia)

  • Spider
    Les termes  » crawler » , « spiders » et « robots », se rapportent tous à un logiciel d’indexation qui est conçu pour passer en revue des sites Web et pour télécharger l’information contenue dans ces sites.
  • Stop Words ( ou  » Mots Outils »,  » Mots Vides)
    mots courts qui ont plus un rôle syntaxique qu’un sens en eux même. Ce sont les articles, prépositions etc… En voici une liste non exhaustive. Ils ne sont pas toujours pris en compte par les moteurs de recherche et il peut être utile de les enlever des urls pour en simplifier la lecture si le sens n’est pas altéré.
  • Syndication
    La Syndication de contenu Web est une forme de syndication dans laquelle une portion du site est rendue disponible à d’autres sites. Cela peut être rendu simple en y ajoutant une licence pour que les autres utilisateurs puissent l’utiliser. Bien souvent la syndication est l’acte de rendre disponible un flux RSS avec l’en-tête du contenu récemment ajouté au site web (par exemple la dernière news ou le dernier post du forum).

Retour vers le haut


T

  • Taxonomie
    En informatique, le terme taxinomie (taxonomy en anglais) désigne une méthode de classification des informations dans une architecture structurée de manière évolutive. Le terme est couramment employé pour des systèmes de gestion de contenu (CMS).
    (définition Wikipédia)
    Nous emploierons aussi bien  » taxinomie » que  » taxonomie », l’histoire linguistique n’étant pas à même de déterminer lequel de ces 2 mots est d’origine latine/française ou anglo-saxonne.
    Personnellement et comme beaucoup des personnes que je fréquente, j’utilise  » taxonomie ».
  • Typosquatting
    Le typosquatting se base sur les fautes d’orthographe que sont susceptibles de faire les internautes lorsqu’ils tapent une url dans la barre d’adresse du navigateur . Certaines personnes malintentionnées achètent tous les noms de domaine relatifs à ces fautes et détournent le trafic vers leurs sites.

Retour vers le haut


U

  • URL
    Une URL – de l’anglais Uniform Resource Locator, littéralement « localisateur uniforme de ressource »,- est une chaîne de caractères utilisant l’alphabet anglais ( ce qui signifie aucun accent comme « é » ou « î ») utilisée pour adresser les ressources du World Wide Web
    Comme les URL ont été conçues pour le web et qu’elles sont utilisées pour identifier les pages et les sites web, elles sont aussi appelées adresses web.
    Chaque navigateur web dispose d’une « barre d’adresse » affichant l’URL de la ressource consultée. Il est en outre possible de saisir une URL dans cette barre d’adresse pour consulter une ressource dont on connaît l’URL
    Exemple :http://www.dievochka.fr/seo/lexique-referencement/
    http : correspond au type de protocole utilisé ( il existe aussi ftp, tcp etc..)
    www : correspond à un  » sous- domaine » du nom de domaine  » dievochka.fr »
    seo : catégorie
    lexique-referencement : page dans cette catégorie
  • URL Rewriting
    Technique de référencement relative à la réécriture des url dynamiques
    Lorsque le site est  » dynamique » les url générées font appel à des variables ;
    http://www.mondomaine.com/?p=j05&fam=5&sfam=246

     » pxxx » correpond à une page
    « famxxx » une famille
    et
    « sfamxxx » une sous famille

    Ces urls ne sont pas comprises par les robots de moteurs de recherche et rendent l’indexation impossible.

    Il est donc souhaitable de les réécrire pour obtenir quelque chose de compréhensible, si possible un utilisant des mots clés relatifs à la page, ceci facilitant l’indexation et jouant un rôle positif pour le positionnement.
    Une url réécrite pourra ressemblera à
    http://www.mondomaine.com/restaurant/poisson/paris

    Ces url sont également plus faciles à retenir par les internautes car elles ont une signification.
    Cette technique peut s’appliquer sur toutes les technologies internet (PHP,ASP,.NET,Java…).

Retour vers le haut


W


  • W3C
    Le World Wide Web Consortium, abrégé par le sigle W3C, est un organisme de normalisation fondé en octobre 1994 pour promouvoir la compatibilité des technologies du World Wide Web telles que HTML, XHTML, XML, RDF, CSS, PNG, SVG et SOAP. Le W3C n’émet pas des normes Le W3C n’émet pas des normes au sens au sens européen, mais des recommandations à valeur de standards industriels.
    (Définition de Wikipedia)
    .
  • Widget
    Un widget de bureau est un outil disponible sur un système d’exploitation, une page web et un blog. Les widgets de bureau proposent habituellement des informations ou des divertissements. Étant donné que l’on peut créer un widget selon des besoins « ordinaire ou spécifique », il existe une infinité d’utilisation des widgets.
    En voici quelques exemples : * les horloges ; * les calendriers ; * les bulletins météo ; * les notes ; * les barres de menus animées ; * la surveillance du système ; * les afficheurs de flux RSS ; * les contrôleurs d’applications
    Source : Wikipedia
    Vous pouvez vous amuser à fabriquer un widget en passant par Google qui proposer des modèles et de l’aide sur sa page  » Get Started, legacy Gadgets API« 

Retour vers le haut


Cette entrée a été publiée dans Vocabulaire. Vous pouvez la mettre en favoris avec ce permalien.

4 réponses à Vocabulaire du référencement

  1. Marypopsit dit :

    Il manque des expressions… dofollow, longue traîne, SEM, le crawl, l’affiliation, le header, pour celles qui me passent par la tête et qui pourraient venir compléter ce lexique !

  2. Marypopsit dit :

    (mea culpa pour le « crawler » ^^)

  3. Très bon blog ! Je le trouve très vivant, bien pensé en plus il a plutôt belle gueule et les illustrations sont chouettes ! Je vous souhaite bonne continuation et un bon courage pour la suite et la continuité de ce magnifique blog
    Cordialement

  4. Très utile ce lexique sur le référencement. Effectivement, il n’est pas exhaustif mais il a l’avantage d’être un bon début pour avoir des bases de connaissances.

    Merci !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>