L'optimisation des moteurs de recherche (SEO) est le processus d'amélioration du volume et de la qualité du trafic vers
un site Web à partir des moteurs de recherche via des résultats de recherche «naturels» («organiques» ou «algorithmiques»).
L'optimisation des moteurs de recherche (SEO) est le processus d'amélioration du volume et de la qualité du trafic vers un site Web à partir des moteurs de recherche via des résultats de recherche «naturels» («organiques» ou «algorithmiques») (voir aussi Forex & Affiliate Program). En règle générale, plus un site apparaît tôt dans la liste des résultats de recherche, plus il recevra de visiteurs du moteur de recherche. Le référencement peut cibler différents types de recherche, y compris la recherche d'images, la recherche locale et les moteurs de recherche verticaux spécifiques à l'industrie.
En tant que stratégie de marketing Internet, le référencement prend en compte le fonctionnement des moteurs de recherche et ce que les gens recherchent. L'optimisation d'un site Web -i / e Affiliate- consiste principalement à éditer son contenu et son codage HTML pour à la fois augmenter sa pertinence par rapport à des mots clés spécifiques et supprimer les obstacles aux activités d'indexation des moteurs de recherche.
L'acronyme «SEO» peut également faire référence à «optimiseurs de moteurs de recherche», terme adopté par une industrie de consultants qui réalisent des projets d'optimisation pour le compte de clients, et par des employés qui effectuent des services de référencement en interne. Les optimiseurs de moteur de recherche peuvent proposer le référencement en tant que service autonome ou dans le cadre d'une campagne marketing plus large. Parce qu'un référencement efficace peut nécessiter des modifications du code source HTML d'un site, des tactiques de référencement peuvent être intégrées dans le développement et la conception du site Web. Le terme «convivial pour les
moteurs de recherche» peut être utilisé pour décrire des conceptions de sites Web, des menus, des systèmes de gestion de contenu et des paniers d'achat qui sont faciles à optimiser.
Une autre classe de techniques, connue sous le nom de Black Hat SEO ou Spamdexing, utilise des méthodes telles que les fermes de liens et le bourrage de mots-clés qui dégradent à la fois la pertinence des résultats de recherche et l'expérience utilisateur des moteurs de recherche (voir aussi Forex & Affiliate Program). Les moteurs de recherche recherchent des sites qui utilisent ces techniques afin de les supprimer de leurs index.
Les webmasters et les fournisseurs de contenu ont commencé à optimiser les sites pour les moteurs de recherche au milieu des années 1990, alors que les premiers moteurs de recherche cataloguaient les débuts du Web. Au départ, tout ce qu'un webmaster avait à faire était de soumettre une page, ou une URL, aux différents moteurs qui enverraient une araignée pour «explorer» cette page, en extraire des liens vers d'autres pages et renvoyer les informations trouvées sur la page à indexer. . Le processus implique qu'une araignée de moteur de recherche télécharge une page et la stocke sur le propre serveur du moteur de recherche, où un deuxième programme, appelé indexeur, extrait diverses informations sur la page, telles que les mots qu'elle contient et leur emplacement, comme ainsi que tout poids pour des mots spécifiques, ainsi que tous les liens que contient la page, qui sont ensuite placés dans un planificateur pour une exploration ultérieure.
Les propriétaires de sites ont commencé à reconnaître la valeur d'avoir leurs sites très bien classés et visibles dans les résultats des moteurs de recherche, créant ainsi une opportunité pour les praticiens du référencement white hat et black hat (voir aussi Forex & Affiliate Program). Selon l'analyste du secteur Danny Sullivan, l'expression optimisation des moteurs de recherche est probablement entrée en vigueur en 1997.
Les premières versions des algorithmes de recherche reposaient sur des informations fournies par les webmasters telles que le mot-clé balise Meta, ou des fichiers d'index dans des moteurs comme ALIWEB (Archie comme l'indexation pour le WEB). Les balises Meta fournissent un guide sur le contenu de chaque page. Mais l'utilisation de métadonnées pour indexer des pages s'est avérée moins que fiable, car le choix des mots-clés par le webmestre dans la balise Meta pourrait potentiellement être une représentation inexacte du contenu réel du site. Des données inexactes, incomplètes et incohérentes dans les balises Meta pourraient entraîner le classement des pages pour les recherches non pertinentes (voir également le programme Forex et d'affiliation). Les fournisseurs de contenu Web ont également manipulé un certain nombre d'attributs dans la source HTML d'une page dans le but de bien se classer dans les moteurs de recherche.
En s'appuyant autant sur des facteurs exclusivement sous le contrôle d'un webmestre, les premiers moteurs de recherche ont souffert d'abus et de manipulation de classement. Pour fournir de meilleurs résultats à leurs utilisateurs, les moteurs de recherche ont dû s'adapter pour s'assurer que leurs pages de résultats affichent les résultats de recherche les plus pertinents, plutôt que des pages indépendantes remplies de nombreux mots-clés par des webmasters peu scrupuleux (voir aussi Forex & Affiliate Program). Étant donné que le succès et la popularité d'un moteur de recherche sont déterminés par sa capacité à produire les résultats les plus pertinents pour une recherche donnée, autoriser ces résultats à être faux inciterait les utilisateurs à trouver d'autres sources de recherche (voir également le programme Forex et d'affiliation). Les moteurs de recherche ont répondu en développant des algorithmes de classement plus complexes, en tenant compte de facteurs supplémentaires qui étaient plus difficiles à manipuler pour les webmasters.
Qu'est-ce que Google Pagerank
Le PageRank est un algorithme d'analyse de lien utilisé par le moteur de recherche Internet de Google qui attribue une pondération numérique à chaque élément d'un ensemble de documents hypertexte, tel que le World Wide Web, dans le but de «mesurer» son importance relative dans l'ensemble.
Le PageRank a été développé à l'Université de Stanford par Larry Page (d'où le nom Page-Rank) et plus tard Sergey Brin dans le cadre d'un projet de recherche sur un nouveau type de moteur de recherche. Le projet a débuté en 1995 et a abouti à un prototype fonctionnel, nommé Google, en 1998. Peu de temps après, Page et Brin ont fondé Google Inc., la société à l'origine du moteur de recherche Google. Bien qu'il ne s'agisse que de l'un des nombreux facteurs qui déterminent le classement des résultats de recherche Google, le PageRank continue de fournir la base de tous les outils de recherche Web de Google.
Le PageRank est basé sur l'analyse des citations qui a été développée dans les années 1950 par Eugene Garfield à l'Université de Pennsylvanie, et les fondateurs de Google citent le travail de Garfield dans leur article original. En suivant des liens d'une page à une autre, on trouve des communautés virtuelles de pages Web. L'analyse des liens Web a d'abord été développée par Jon Kleinberg et son équipe alors qu'ils travaillaient sur le projet CLEVER au Almaden Research Center d'IBM.
Le PageRank est un algorithme d'analyse de lien utilisé par le moteur de recherche Internet de Google qui attribue une pondération numérique à chaque élément d'un ensemble de documents hypertexte, tel que le World Wide Web, dans le but de «mesurer» son importance relative dans l'ensemble. L'algorithme peut être appliqué à n'importe quelle collection d'entités avec des citations et des références réciproques (voir aussi Forex & Affiliate Program). Le poids numérique qu'il attribue à un élément donné E est également appelé le PageRank de E et noté PR (E).
Le nom «PageRank» est une marque déposée de Google, et le processus de PageRank a été breveté (US (VOIR ÉGALEMENT FOREX & PROGRAMME AFFILIÉ). Brevet 6 285 999). Cependant, le brevet est attribué à l'Université de Stanford et non à Google. Google détient des droits de licence exclusifs sur le brevet de l'Université de Stanford. L'université a reçu 1,8 million d'actions de Google en échange de l'utilisation du brevet; les actions ont été vendues en 2005 pour 336 millions de dollars.
Comment Google décrit le PageRank
Le PageRank repose sur la nature démocratique unique du Web en utilisant sa vaste structure de liens comme indicateur de la valeur d'une page individuelle. En substance, Google interprète un lien de la page A vers la page B comme un vote, par page A, pour la page B. Mais, Google regarde plus que le simple volume de votes, ou les liens qu'une page reçoit; il analyse également la page qui lance le vote. Les votes émis par des pages qui sont elles-mêmes «importantes» pèsent plus lourd et contribuent à rendre d'autres pages «importantes».
En d'autres termes, un PageRank résulte d'un «vote» parmi toutes les autres pages du World Wide Web sur l'importance d'une page (voir aussi Forex & Affiliate Program). Un lien hypertexte vers une page compte comme un vote de soutien. Le PageRank d'une page est défini de manière récursive et dépend du nombre et de la métrique de PageRank de toutes les pages qui y renvoient («liens entrants»). Une page qui est liée par de nombreuses pages avec un PageRank élevé reçoit elle-même un rang élevé. S'il n'y a pas de liens vers une page Web, il n'y a pas de support pour cette page.
Google attribue une pondération numérique de 0 à 10 pour chaque page Web sur Internet; ce PageRank dénote l'importance d'un site aux yeux de Google. Le PageRank est dérivé d'une valeur de probabilité théorique sur une échelle logarithmique comme l'échelle de Richter. Le PageRank d'une page particulière est approximativement basé sur la quantité de liens entrants ainsi que sur le PageRank des pages fournissant les liens (voir aussi Forex & Affiliate Program). Il est connu que d'autres facteurs, par exemple la pertinence des mots de recherche sur la page et les visites réelles de la page signalées par la barre d'outils Google, influencent également le PageRank. Afin d'éviter la manipulation, l'usurpation d'identité et le Spamdexing, Google ne fournit aucun détail spécifique sur la manière dont d'autres facteurs influencent le PageRank.
De nombreux articles académiques concernant le PageRank ont été publiés depuis l'article original de Page et Brin.En pratique, le concept de PageRank s'est avéré vulnérable à la manipulation, et des recherches approfondies ont été consacrées à l'identification d'un PageRank faussement Classement.
D'autres algorithmes de classement basés sur des liens pour les pages Web incluent l'algorithme HITS inventé par Jon Kleinberg (utilisé par Teoma et maintenant Ask.com), le projet IBM CLEVER et l'algorithme TrustRank .
L'hébergement Web abordable est le meilleur endroit pour obtenir des avis sur les différents hébergeurs Web ainsi qu'un excellent endroit pour comparer les services qu'ils offrent. Avec presque tous les hébergeurs Web de premier plan répertoriés sur le site Web, vous n'avez vraiment pas à chercher ailleurs.