SEO: tutoriales SEO: qué es el Posicionamiento Web (2da parte)

 Volver al Indice – Estrategia SEO y Posicionamiento en Buscadores

Ya vimos que, para acceder a la información que necesitamos de Internet, precisamos sondear a través de los motores de búsqueda; es hora de entender (aunque sea de manera básica) cómo es que funcionan.

SEO: tutoriales SEO: qué es el Posicionamiento Web (2da parte)

Por Alejandro Franco – contáctenos

A lo largo de centurias el hombre ha ido perfeccionando la manera de operar con grandes volúmenes de información. La primera metodología fue la de las bibliotecas, en donde el material archivado era resumido en una esquemática tarjeta informativa que permitía localizar físicamente el / o los libros relacionados. Luego las bibliotecas comenzaron a utilizar computadoras – en donde las tarjetas de cartón pasaron a ser reemplazadas por bases de datos, mucho mas ricas en cuanto a la data descriptiva de los libros clasificados -… y por último las computadoras se devoraron a las bibliotecas, digitalizando los libros y albergando millones de ellos en un chip no mayor al de una uña.

¿La razón?. Cuando todos los datos están en una misma ubicación – real o virtual -, la exploración puede ser mucho mas rica y detallada. El tema es encontrar el procedimiento para ubicarla. ¿La metodología básica?. La coincidencia de palabras. “Encuentre todos los libros que mencionen “el caballo blanco de San Martín” y armeme una lista con los resultados”.

Desde ya que semejante procedimiento es rudimentario. Pueden existir libros que cumplan con la premisa de búsqueda, pero que no aparecen en los resultados simplemente porque nuestra herramienta de exploración no maneja sinónimos, no entiende semántica, o siquiera se da maña para hallar resultados en donde los términos hayan sufrido una simple alteración del orden (“el blanco caballo”; “San Martín tenía un hidalgo equino blanco”, etc). Es necesario aplicar otra metodología, una que trabaje de manera bien diferente y que – sobre todo – pueda anticipar (y entender) cómo los humanos formulan preguntas.

La idea de búsqueda inteligente es la que hace a la esencia de un motor de búsqueda. Para lograrlo, debe organizarse en dos tipos de procesos: un robot que explora de manera constante Internet, y una base de datos que memoriza los datos explorados, los ordena, clasifica y pone a disposición del usuario, permitiéndole acceder a la información incluso de maneras no lineales.

Los robots exploradores – los cuales se los conoce como spiders, crawlers, etc – son básicamente programas que salen disparados a la web y empieza a navegar desenfrenadamente sitios de Internet. Puede partir de una página e ir saltando a otros sitios vinculados a la misma, o puede comenzar con una base de datos – cargada con las solicitudes de los aspirantes a que sus sitios web sean registrados en la base central del buscador -. Los primeros robots eran básicos y memorizaban el título del sitio web, la URL, el grupo de palabras clave y el texto de descripción contenido en las etiquetas meta insertadas en el código HTML de la página. Vale decir, sólo leían un puñado de información provista ex profeso por los responsables del diseño web de la página. El siguiente paso era la transmisión de los datos explorados a la base central del buscador, en donde toda esa información era clasificada, ordenada y puesta a disposición de los usuarios. Con todo el proceso automatizado y debidamente pasteurizado, resultaba extremadamente fácil hacer una búsqueda medianamente eficiente de información en Internet: bastaba recordar únicamente la URL de su buscador favorito, hacer click en el recuadro de búsqueda y poner los términos a buscar.

Desde ya, no todo fueron rosas desde el primer día. Como Internet se popularizaba se precisaban bases de datos gigantes para albergar tanta información, lo cual requería un centro de cómputos emplazado de manera permanente y con un plantel de individuos dispuestos a monitorearlo y mantenerlo las 24 horas del día todos los días del año. Ciertamente los avances de la tecnología contribuyeron a miniaturizar el proceso, pero se trataba de un proceso épico erigido sobre terreno inexplorado, y con mayor probabilidad de falla que de éxito.

Pronto quedó en evidencia de que los robots debían navegar todas las páginas del sitio con regularidad (para mantener una base actualizada), y debían explorar todo el contenido – incluyendo el texto alojado en el cuerpo – para memorizarlo y hacer búsquedas mas eficientes. Esto indefectiblemente disparaba hacia valores estratosféricos el tamaño de la base de datos, amén de requerir gigantescos esfuerzos de procesamiento para manipular la información con eficiencia y velocidad. Si los resultados están – pero demoran media hora para mostrarse -, tampoco sirve.

Para optimizar el trabajo, se crearon bases de datos en paralelo (denominados datacenters), las cuales trabajan por turnos – mientras una está activa, las otras se actualizan con la data de los robots exploradores -. Pronto se entendió que había que darle cierta categoría de privilegio a sitios poseedores de información esencial, los cuales eran los únicos que podían actualizarse en tiempo real en la base de turno – sean los diarios on line, o los portales de importancia informática estratégica como la descarga de actualizaciones de Microsoft, Google, etc -.

Robots, bases de datos en paralelo, exploración frecuente, memorización de contenidos, relacionamiento semántico de la información. Ya tenemos la idea base del funcionamiento de los buscadores. Como se trata de una caja negra – cuyo comportamiento específico es secreto -, deberemos presumir el modo en cómo trabaja a partir de ciertas pistas. De acuerdo a ello deduciremos qué es lo que le gusta (y lo que no) al buscador y, de ese modo, deberemos adecuar nuestro sitio web a sus exigencias y expectativas, lo cual nos llevará a dar nuestro primer gran paso en ese largo, complejo y apasionante camino hacia la obtención de los primeros puestos en resultados de buscadores.

En resumen:

1 – los motores de búsqueda son mas eficientes que los directorios, ya que memorizan información de los sitios web que exploran y permiten que el usuario consulte por cualquier término que figura en su contenido;

2 – para capturar la información los motores utilizan programas que exploran los sitios web y los memorizan; estos programas se llaman robots, aunque también se los denomina spiders, crawlers, etc.;

3 – esa información va a parar a gigantescas bases de datos, quienes la ordenan y la clasifican;

4 – la información es actualizada de manera periódica; versiones frescas de la base aparecen on line todos los días;

5 – el proceso de captura y publicación de datos se ha sofisticado hasta el punto de permitir búsquedas semánticas (utilizando sinónimos, anticipando el tipo de pregunta, comprendiendo los errores de ortografía del requiriente, etc), lo que ha incrementado la inteligencia y la eficiencia de todo el proceso.