Optimización de motores de búsqueda


La optimización de motores de búsqueda ( SEO ) es el proceso de mejorar la calidad y la cantidad del tráfico del sitio web a un sitio web o una página web desde los motores de búsqueda . [1] El SEO apunta al tráfico no pagado (conocido como resultados "naturales" u " orgánicos ") en lugar del tráfico directo o pago . El tráfico y no pagados pueden proceder de diferentes tipos de búsquedas, incluyendo búsqueda de imágenes , búsqueda de vídeo , búsqueda académica , [2] de búsqueda de noticias, y específicos de la industria de búsqueda vertical motores.

Como estrategia de marketing en Internet , el SEO considera cómo funcionan los motores de búsqueda, los algoritmos programados por computadora que dictan el comportamiento del motor de búsqueda, qué buscan las personas, los términos de búsqueda reales o las palabras clave ingresadas en los motores de búsqueda y qué motores de búsqueda son los preferidos por su audiencia objetivo. . El SEO se realiza porque un sitio web recibirá más visitantes de un motor de búsqueda cuando los sitios web tengan una clasificación más alta en la página de resultados del motor de búsqueda (SERP). Estos visitantes pueden convertirse potencialmente en clientes. [3]

Los webmasters y los proveedores de contenido comenzaron a optimizar los sitios web para los motores de búsqueda a mediados de la década de 1990, cuando los primeros motores de búsqueda catalogaban la Web temprana . Inicialmente, todos los webmasters solo necesitaban enviar la dirección de una página, o URL , a los diversos motores que enviarían un rastreador web para rastrear esa página, extraer enlaces a otras páginas y devolver la información que se encuentra en la página que se indexará . . [4] El proceso involucra a un motor de búsqueda que descarga una página y la almacena en el propio servidor del motor de búsqueda. Un segundo programa, conocido como indexador, extrae información sobre la página, como las palabras que contiene, dónde se encuentran y el peso de palabras específicas, así como todos los enlaces que contiene la página. Luego, toda esta información se coloca en un programador para rastrearla en una fecha posterior.

Propietarios de sitios web reconocieron el valor de un alto rango y la visibilidad en los motores de búsqueda, [5] la creación de una oportunidad para que tanto el sombrero blanco y sombrero negro practicantes de SEO. Según el analista de la industria Danny Sullivan , la frase "optimización de motores de búsqueda" probablemente comenzó a usarse en 1997. Sullivan atribuye a Bruce Clay como una de las primeras personas en popularizar el término. [6]

Las primeras versiones de los algoritmos de búsqueda se basaban en información proporcionada por los webmasters, como la metaetiqueta de palabras clave o los archivos de índice en motores como ALIWEB . Las metaetiquetas proporcionan una guía para el contenido de cada página. Sin embargo, se descubrió que el uso de metadatos para indexar páginas no era tan confiable porque la elección de palabras clave por parte del webmaster en la metaetiqueta podría ser una representación inexacta del contenido real del sitio. Los datos defectuosos en las metaetiquetas, como las que no eran precisas, completas o con atributos falsos, crearon la posibilidad de que las páginas se caractericen erróneamente en búsquedas irrelevantes. [7] [ dudoso ] Los proveedores de contenido web también manipularon algunos atributos dentro delFuente HTML de una página en un intento de posicionarse bien en los motores de búsqueda. [8] En 1997, los diseñadores de motores de búsqueda reconocieron que los webmasters estaban haciendo esfuerzos para posicionarse bien en sus motores de búsqueda, y que algunos webmasters incluso estaban manipulando sus clasificaciones en los resultados de búsqueda al llenar las páginas con palabras clave excesivas o irrelevantes. Los primeros motores de búsqueda, como Altavista e Infoseek , ajustaron sus algoritmos para evitar que los webmasters manipularan las clasificaciones. [9]


Los motores de búsqueda utilizan algoritmos matemáticos complejos para interpretar qué sitios web busca un usuario. En este diagrama, donde cada burbuja representa un sitio web, los programas a veces llamados arañas examinan qué sitios enlazan con qué otros sitios, con flechas que representan estos enlaces. Se presume que los sitios web que obtienen más enlaces entrantes, o enlaces más fuertes, son más importantes y lo que el usuario está buscando. En este ejemplo, dado que el sitio web B es el receptor de numerosos enlaces entrantes, ocupa un lugar más alto en una búsqueda web. Y los enlaces "continúan", de modo que el sitio web C, aunque solo tiene un enlace entrante, tiene un enlace entrante de un sitio muy popular (B) mientras que el sitio E no lo tiene. Nota: los porcentajes están redondeados.