El SEO

SEOEl SEO se centra en los resultados de búsqueda órganicos, es decir, lo que no son pagados.

Search Engine Optimization (SEO) no es otra cosa que la manera de lograr que tus productos, tus servicios o tu marca gane en posicionamiento natural orgánico en los buscadores (no en los espacios de pago por publicidad), algo que se consigue utilizando contenido relevante para atraer a los visitantes hacia tu sitio web, blog, foro, etc.

Los motores de búsqueda ayudan a los usuarios a encontrar páginas sobre una determinada temática. Lo que hacen básicamente es indexar páginas y blogs en sus bases de datos, para luego listarlas en sus resultados por un orden de relevancia en relación al criterio de búsqueda.

Aunque existen miles de factores en los que un motor de búsqueda se basa para posicionar una página u otra se podría decir que hay dos factores básicos: la autoridad y la relevancia

La Autoridad es básicamente la popularidad de una web, cuanto más popular sea una página o una web más valiosa es la información que contiene. Este factor es el que un motor de búsqueda tiene más en cuenta dado que se basa en la propia experiencia del usuario, cuanto más se comparta un contenido es que a más usuarios les ha parecido útil.

La Relevancia es la relación que tiene una página frente a una búsqueda dada, esto no es simplemente que una página contenga un montón de veces el termino buscado (en los comienzos era así) si no que un motor de búsqueda se basa en cientos de factores on-site para determinar esto.

A su vez el SEO se puede dividir en dos grandes grupos: el SEO on-site y el SEO off-site.

On-site

El SEO on-site se preocupa de la relevancia, asegurándose de que la web está optimizada para que el motor de búsqueda entienda lo principal, que es el contenido de la misma. Dentro del SEO On-site incluiríamos la optimización de keywords, tiempo de carga, experiencia del usuario, optimización del código y formato de las URLs.

Off-site

El SEO off-site es la parte del trabajo SEO que se centra en factores externos a la página web en la que trabajamos. Aquí principalmente hablamos de los enlaces entrantes (número de webs o blogs que enlazan hacia los contenidos), los sociales (compartidos en Twitter, Facebook, LinkedIn…), etc. Los factores más importantes en el SEO off-site son el número y la calidad de los enlaces, presencia en redes sociales, menciones en medios locales, autoridad de la marca y rendimiento en los resultados de búsqueda.

El SEO se puede diferenciar en si seguimos o no las recomendaciones del motor de búsqueda: Black Hat SEO o White Hat SEO

Black Hat SEO

Se llama Black Hat SEO al intento de mejorar el posicionamiento en buscadores de una página web mediante técnicas poco éticas o que contradicen las directrices del motor de búsqueda. Algunos ejemplos de Black Hat SEO son el Cloaking, Spinning, SPAM en foros y comentarios de blogs, o el Keyword Stuffing. El black hat puede proporcionar beneficios en el corto plazo, pero generalmente es una estrategia mala, y que no aporta ningún valor de calidad a la web o blog que lo realiza.

White Hat SEO

Consiste en todas aquellas acciones éticamente correctas y que cumplen las directrices de los motores de búsqueda para posicionar una página web e los resultados de búsqueda. Dado que los buscadores dan una mayor importancia a las páginas que mejor responden a una búsqueda del usuario, el White Hat comprende las técnicas que buscan hacer más relevante una página para los buscadores a través de aportar valor para sus usuarios. Tenemos que tener siempre muy presente cuando escribimos un articulo,tip o análisis para quien lo escribimos, si para un bot o para una persona interesada en dicho articulo.

El funcionamiento de un motor de búsqueda cómo ya hemos mencionado anteriormente se puede resumir en dos pasos: rastreo e indexación.

Rastreo

Un motor de búsqueda recorre la web rastreando con lo que se llaman bots, estos bots recorren todas las páginas a través de los enlaces (de ahí la importancia de una buena estructura de enlaces) al igual que haría cualquier usuario al navegar por el contenido de la Web, pasan de un enlace a otro y recopilan datos sobre esas páginas web que proporcionan a sus servidores. El proceso de rastreo empieza con una lista de direcciones web de rastreos anteriores y de sitemaps proporcionada por otras páginas web. Una vez acceden a estas web, los bots buscan enlaces a otras páginas para visitarlas. Los bots se sienten especialmente atraídos por los sitios nuevos y a los cambios en las web existentes.
Son los propios bots los que deciden qué páginas visitar, con qué frecuencia y cuánto tiempo van a rastrear esa web, por eso es importante tener un tiempo de carga óptimo y un contenido actualizado.
Es muy común que en una página web se necesita restringir el rastreo de algunas páginas o de cierto contenido para evitar que estas aparezcan en los resultados de búsqueda. Para esto se le puede decir a los bots de los motores de búsqueda que no rastreen ciertas páginas a través del archivo robots.txt. Ya que los robots de los buscadores tienen un tiempo para indexar tu web, blog, foro, etc es mejor que en ese tiempo indexen contenido relevante y de calidad que pueda enviarte visitas en el futuro.

Indexación

Una vez que un bot ha rastreado una página web y ha recopilado la información necesaria, estás páginas se incluyen en un índice donde se ordenan según su contenido, su autoridad y su relevancia; de este modo cuando hagamos un consulta al motor de búsqueda le resultará mucho más fácil mostrarnos los resultados que están más relacionados con la consulta de la búsqueda.

Al principio los motores de búsqueda se basaban en el número de veces que se repetía una palabra en una página web, al hacer una búsqueda rastreaban en su índice esos términos para encontrar qué páginas los tenían en sus textos, posicionando mejor la que más veces lo tenía repetido. Actualmente, los motores de búsqueda son más sofisticados, y basan sus índices en cientos de aspectos diferentes como la fecha de publicación, si contienen imágenes, vídeos o animaciones, microformatos, etc. Ahora dan más prioridad a la calidad del contenido. Si la gente lanza una búsqueda, querrá obtener resultados relevantes, porque si no le satisfacen se irá rápidamente a realizar las búsquedas en otro buscador.

Una vez que las páginas son rastreadas e indexadas, llega el momento en el que actúa el algoritmo: los algoritmos son los procesos informáticos que deciden qué páginas aparecen antes o después en los resultados de búsqueda. Una vez realizada la búsqueda, en cuestión de milisegundos, los algoritmos son capaces de buscar en los índices y saber cuáles son las páginas más relevantes teniendo en cuenta los cientos de factores de posicionamiento. Claro esta que no es algo infalible y que aun queda mucho por desarrollar en dichos algoritmos.

Si hoy alguien me preguntará cómo hacer SEO, sin duda alguna solo le daría este consejo, escribe sobre lo que sepas y te guste y hazlo para informar, enseñar o dar un servicio, no lo hagas para los buscadores. Ya se que hay miles de artículos en los cuales dan tipos, para enseñarte a cómo escribir cara a SEO y cara a salir en las búsquedas de los resultados. Pero analiza lo siguiente, seguramente mas de una vez has buscado algo, y en los resultados has entrado a ver el contenido y te has sentido defraudado y frustrado, ya que no era lo que tu buscabas. Solamente escribe para que cuando alguien te encuentre, sea mediante un buscador o sea mediante enlace en algún otro sitio, no se sienta defraudado ni frustrado por haber malgastado su tiempo leyendo en tu sitio.

Te puede interesar: AMP y su validación  Que es un CDN   WordPress y su funciones