{"id":10919,"date":"2017-10-25T07:57:39","date_gmt":"2017-10-25T07:57:39","guid":{"rendered":"http:\/\/localhost\/datacraft2023\/seo-tutorial-posicionamiento-web2\/"},"modified":"2020-01-13T14:41:00","modified_gmt":"2020-01-13T17:41:00","slug":"seo-tutorial-posicionamiento-web2","status":"publish","type":"page","link":"http:\/\/localhost\/datacraft2023\/seo-tutorial-posicionamiento-web2\/","title":{"rendered":"SEO: tutoriales SEO: qu\u00e9 es el Posicionamiento Web (2da parte)"},"content":{"rendered":"

\n

\u00a0Volver al Indice –\u00a0Estrategia SEO y Posicionamiento en Buscadores<\/a><\/h2>\n

Ya vimos que, para acceder a la informaci\u00f3n que necesitamos de Internet, precisamos sondear a trav\u00e9s de los motores de b\u00fasqueda; es hora de entender (aunque sea de manera b\u00e1sica) c\u00f3mo es que funcionan.<\/em><\/strong><\/p>\n

\"SEO:<\/p>\n

Por Alejandro Franco –\u00a0cont\u00e1ctenos<\/a><\/h2>\n

A lo largo de centurias el hombre ha ido perfeccionando la manera de operar con grandes vol\u00famenes de informaci\u00f3n. La primera metodolog\u00eda fue la de las bibliotecas, en donde el material archivado era resumido en una esquem\u00e1tica tarjeta informativa que permit\u00eda localizar f\u00edsicamente el \/ o los libros relacionados. Luego las bibliotecas comenzaron a utilizar computadoras \u2013 en donde las tarjetas de cart\u00f3n pasaron a ser reemplazadas por bases de datos, mucho mas ricas en cuanto a la data descriptiva de los libros clasificados<\/em> -\u2026 y por \u00faltimo las computadoras se devoraron a las bibliotecas, digitalizando los libros y albergando millones de ellos en un chip no mayor al de una u\u00f1a.<\/p>\n

\u00bfLa raz\u00f3n?<\/em><\/strong>. Cuando todos los datos est\u00e1n en una misma ubicaci\u00f3n \u2013 real o virtual<\/em> -, la exploraci\u00f3n puede ser mucho mas rica y detallada. El tema es encontrar el procedimiento para ubicarla. \u00bfLa metodolog\u00eda b\u00e1sica?.<\/em> La coincidencia de palabras. \u201cEncuentre todos los libros que mencionen \u201cel caballo blanco de San Mart\u00edn\u201d y armeme una lista con los resultados\u201d.<\/p>\n

Desde ya que semejante procedimiento es rudimentario. Pueden existir libros que cumplan con la premisa de b\u00fasqueda, pero que no aparecen en los resultados simplemente porque nuestra herramienta de exploraci\u00f3n no maneja sin\u00f3nimos, no entiende sem\u00e1ntica, o siquiera se da ma\u00f1a para hallar resultados en donde los t\u00e9rminos hayan sufrido una simple alteraci\u00f3n del orden (\u201cel blanco caballo\u201d; \u201cSan Mart\u00edn ten\u00eda un hidalgo equino blanco\u201d<\/em>, etc). Es necesario aplicar otra metodolog\u00eda, una que trabaje de manera bien diferente y que \u2013 sobre todo<\/em> \u2013 pueda anticipar (y entender) c\u00f3mo los humanos formulan preguntas.<\/p>\n

La idea de b\u00fasqueda inteligente es la que hace a la esencia de un motor de b\u00fasqueda. Para lograrlo, debe organizarse en dos tipos de procesos: un robot que explora de manera constante Internet, y una base de datos que memoriza los datos explorados, los ordena, clasifica y pone a disposici\u00f3n del usuario, permiti\u00e9ndole acceder a la informaci\u00f3n incluso de maneras no lineales.<\/p>\n

Los robots exploradores \u2013 los cuales se los conoce como spiders, crawlers, etc<\/em> \u2013 son b\u00e1sicamente programas que salen disparados a la web y empieza a navegar desenfrenadamente sitios de Internet. Puede partir de una p\u00e1gina e ir saltando a otros sitios vinculados a la misma, o puede comenzar con una base de datos \u2013 cargada con las solicitudes de los aspirantes a que sus sitios web sean registrados en la base central del buscador <\/em>-. Los primeros robots eran b\u00e1sicos y memorizaban el t\u00edtulo del sitio web, la URL, el grupo de palabras clave y el texto de descripci\u00f3n contenido en las etiquetas meta insertadas en el c\u00f3digo HTML de la p\u00e1gina. Vale decir, s\u00f3lo le\u00edan un pu\u00f1ado de informaci\u00f3n provista ex profeso<\/em> por los responsables del dise\u00f1o web de la p\u00e1gina. El siguiente paso era la transmisi\u00f3n de los datos explorados a la base central del buscador, en donde toda esa informaci\u00f3n era clasificada, ordenada y puesta a disposici\u00f3n de los usuarios. Con todo el proceso automatizado y debidamente pasteurizado, resultaba extremadamente f\u00e1cil hacer una b\u00fasqueda medianamente eficiente de informaci\u00f3n en Internet: bastaba recordar \u00fanicamente la URL de su buscador favorito, hacer click en el recuadro de b\u00fasqueda y poner los t\u00e9rminos a buscar.<\/p>\n

\n

Desde ya, no todo fueron rosas desde el primer d\u00eda. Como Internet se popularizaba se precisaban bases de datos gigantes para albergar tanta informaci\u00f3n, lo cual requer\u00eda un centro de c\u00f3mputos emplazado de manera permanente y con un plantel de individuos dispuestos a monitorearlo y mantenerlo las 24 horas del d\u00eda todos los d\u00edas del a\u00f1o. Ciertamente los avances de la tecnolog\u00eda contribuyeron a miniaturizar el proceso, pero se trataba de un proceso \u00e9pico erigido sobre terreno inexplorado, y con mayor probabilidad de falla que de \u00e9xito.<\/p>\n

Pronto qued\u00f3 en evidencia de que los robots deb\u00edan navegar todas las p\u00e1ginas del sitio con regularidad (para mantener una base actualizada), y deb\u00edan explorar todo el contenido \u2013 incluyendo el texto alojado en el cuerpo<\/em> \u2013 para memorizarlo y hacer b\u00fasquedas mas eficientes. Esto indefectiblemente disparaba hacia valores estratosf\u00e9ricos el tama\u00f1o de la base de datos, am\u00e9n de requerir gigantescos esfuerzos de procesamiento para manipular la informaci\u00f3n con eficiencia y velocidad. Si los resultados est\u00e1n \u2013 pero demoran media hora para mostrarse<\/em> -, tampoco sirve.<\/p>\n

Para optimizar el trabajo, se crearon bases de datos en paralelo (denominados datacenters<\/strong>), las cuales trabajan por turnos \u2013 mientras una est\u00e1 activa, las otras se actualizan con la data de los robots exploradores<\/em> -. Pronto se entendi\u00f3 que hab\u00eda que darle cierta categor\u00eda de privilegio a sitios poseedores de informaci\u00f3n esencial, los cuales eran los \u00fanicos que pod\u00edan actualizarse en tiempo real en la base de turno \u2013 sean los diarios on line, o los portales de importancia inform\u00e1tica estrat\u00e9gica como la descarga de actualizaciones de Microsoft<\/strong>, Google<\/strong>, etc<\/em> -.<\/p>\n

Robots, bases de datos en paralelo, exploraci\u00f3n frecuente, memorizaci\u00f3n de contenidos, relacionamiento sem\u00e1ntico de la informaci\u00f3n. Ya tenemos la idea base del funcionamiento de los buscadores. Como se trata de una caja negra – cuyo comportamiento espec\u00edfico es secreto <\/em>-, deberemos presumir el modo en c\u00f3mo trabaja a partir de ciertas pistas. De acuerdo a ello deduciremos qu\u00e9 es lo que le gusta (y lo que no) al buscador y, de ese modo, deberemos adecuar nuestro sitio web a sus exigencias y expectativas, lo cual nos llevar\u00e1 a dar nuestro primer gran paso en ese largo, complejo y apasionante camino hacia la obtenci\u00f3n de los primeros puestos en resultados de buscadores.<\/p>\n

En resumen:<\/h2>\n

1 \u2013<\/strong> los motores de b\u00fasqueda son mas eficientes que los directorios, ya que memorizan informaci\u00f3n de los sitios web que exploran y permiten que el usuario consulte por cualquier t\u00e9rmino que figura en su contenido;<\/p>\n

2 \u2013<\/strong> para capturar la informaci\u00f3n los motores utilizan programas que exploran los sitios web y los memorizan; estos programas se llaman robots, aunque tambi\u00e9n se los denomina spiders, crawlers<\/em>, etc.;<\/p>\n

3 \u2013<\/strong> esa informaci\u00f3n va a parar a gigantescas bases de datos, quienes la ordenan y la clasifican;<\/p>\n

4 \u2013<\/strong> la informaci\u00f3n es actualizada de manera peri\u00f3dica; versiones frescas de la base aparecen on line todos los d\u00edas;<\/p>\n

5 \u2013 <\/strong>el proceso de captura y publicaci\u00f3n de datos se ha sofisticado hasta el punto de permitir b\u00fasquedas sem\u00e1nticas (utilizando sin\u00f3nimos, anticipando el tipo de pregunta, comprendiendo los errores de ortograf\u00eda del requiriente, etc), lo que ha incrementado la inteligencia y la eficiencia de todo el proceso.<\/p>\n","protected":false},"excerpt":{"rendered":"

Tutoriales SEO: que es el Posicionamiento Web? (parte 2 de 2). Continuamos entendiendo como funcionan los buscadores, y la estrategia a aplicar para nuestro sitio de Internet<\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":[],"_links":{"self":[{"href":"http:\/\/localhost\/datacraft2023\/wp-json\/wp\/v2\/pages\/10919"}],"collection":[{"href":"http:\/\/localhost\/datacraft2023\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"http:\/\/localhost\/datacraft2023\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"http:\/\/localhost\/datacraft2023\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"http:\/\/localhost\/datacraft2023\/wp-json\/wp\/v2\/comments?post=10919"}],"version-history":[{"count":0,"href":"http:\/\/localhost\/datacraft2023\/wp-json\/wp\/v2\/pages\/10919\/revisions"}],"wp:attachment":[{"href":"http:\/\/localhost\/datacraft2023\/wp-json\/wp\/v2\/media?parent=10919"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}