Depuración del sitio web

Page 1

Depuraci贸n del sitio web



Contenido SEO Onpage ................................................................................................................................... 4 TĂ­tulo, URL y Metadescriptores ................................................................................................. 4 HTML, CSS y formatos enriquecidos ......................................................................................... 8 Sitemaps y robots.txt .............................................................................................................. 12 Carga del sitio y servidor ......................................................................................................... 15


SEO Onpage El SEO onpage son las medidas concretas para optimizar el proceso de indexación de una página web. Se trata de hacer más relevante y accesible a buscadores el contenido que nos interese para que estos lo encuentren rápidamente y le otorguen el valor que queremos. El SEO onpage se debe preparar desde el lanzamiento de la web y debe ir de la mano con la decisión de creación de categorías, sistemas que se van a usar, el gestor de contenido que se va a usar, etc. Muchos CMS están preparados para SEO (la mayoría hoy en día), pero todos necesitan de una puesta a punto para que funcionen de forma óptima para posicionar.

Título, URL y Metadescriptores En primer lugar vamos a analizar de nuevo cuál es el resultado de una búsqueda en Google y cuáles son los elementos que debemos trabajar:

Título: Debe contener la palabra clave por la que se quiere destacar. No hay que tener miedo por la longitud del título, ya que este se cortará según se esté buscando desde la web, desde un dispositivo móvil, etc.


Generalmente el título tiene una extensión de 64 caracteres, pero siempre se debe de escribir aquel que naturalmente suene mejor para el usuario. URL: Es el segundo parámetro en aparecer, este a ser posible debe contener también la palabra clave que se quiere resaltar. La palabra clave que se encuentran en la URL y que son las que se busca posicionar (en este caso nombre del producto y nombres de marca) deberían estar lo más cerca posible del dominio principal. Muchos gestores de contenido dan facilidades para generar la URL de forma friendly. Evitar siempre URL del tipo 'chorizo' del tipo: http://www.misitio.com/contenido12/asdfasES123c?asr.php Se está perdiendo la oportunidad en este caso de introducir una palabra clave en uno de los elementos que tienen peso dentro del algoritmo de Google. El hecho de incluir esta estructura de URL en los nombres de producto es una costumbre que se está poniendo cada vez más en práctica en los ecommerce, aunque no es una regla avalada por Google, sí que se ha visto cierta predisposición en mostrar este tipo de resultados en búsquedas muy competidas, aquí el ejemplo de búsquedas de alquiler de coches en Almería, unos términos muy competidos:


Otra de las tendencias que se están dando, es el introducir las migas de pan (breadcumbs) en HTML5 con formatos enriquecidos para darle otra visualización, aunque esto no es un elemento que ayude a posicionar, sí que destacará con un elemento diferenciador tu URL frente a la de la competencia y puede que aumente el CTR de tu página.

Metadescripción, extracto o contenido: Este es el tercer elemento que muestran los buscadores. Generalmente lo que se enseña aquí es el contenido de la meta descripción, aunque en su defecto Google ofrecerá la parte del extracto (si está configurado en el CMS) o del propio contenido.


Lo idóneo es tener completadas todas las meta descripciones y meta Keywords de cada página del sitio de forma individualizada y sin repetir contenido. Esta meta descripción no puede estar cargada de palabras clave sin sentido, debe ser un párrafo lógico que lo pueda interpretar bien un buscador pero que también sea un texto persuasivo para el usuario final que esté buscando en Google.

El tamaño estándar de las meta descripciones es de 165 caracteres, ya que debe ser un resumen de lo que el usuario va a encontrar en la página, aunque si se necesitan más caracteres para describir un producto aquí, no hay problema, ya Google y Bing tienen capacidad para buscar dentro del contenido de una meta descripción.

Aunque esté en una posición más baja que la competencia se puede conseguir mayor CTR con un título, descripción y url bien construida, pensada para los usuarios y que sea atractiva.


HTML, CSS y formatos enriquecidos Como comentábamos, uno de los pilares del SEO junto a los enlaces y el contenido, es la accesibilidad que tiene la web para los rastreadores de los buscadores. A los buscadores les encanta las webs ligeras y que le facilites la indexación de tu contenido, por ello cuanto más separado esté el contenido de la estructura y diseño del sitio, más fácil de indexar será. Esto se consigue teniendo todo el estilo de tu página en un archivo CSS y evitando los estilos en línea. Diseños que debes evitar a toda costa ya que el contenido será opaco para buscadores: - Webs basadas en flash - Webs con iframes incrustados, todo lo que esté dentro del iframe no será visto. - Webs con sobrecarga de javascript. - Webs que suplantan el texto plano en HTML con imágenes

Hasta hace poco también se han maquetado las webs con tablas y evitando el CSS que aunque es más costoso en tiempo, sí que a medio plazo será más útil. Google

y

otros

buscadores

están

alineados

con

la

3WC

(http://www.w3c.es/) que es órgano regidor de los estándares en la web. Ellos comentan que sólo se deberán usar tablas en una página web para


estructurar datos tabulados, como podrían ser un listado con nombres en una columna y su DNI en la otra. Dentro del sitio es importante que estén bien definidas las etiquetas según el orden de importancia que ocupan dentro de la estructura de cada página del sitio web.

El paso a HTML5 y los formatos enriquecidos Aunque tener tu web en HTML5 no te va a lanzar a los primeros resultados de una búsqueda, sí que te estarás adelantando a los próximos estándares que marquen los buscadores y que ya están probando con esta nueva tecnología la llamada búsqueda semántica.

La web semántica o web 3.0 está ligada con los nuevos cambios del algoritmo de Google, Bing o Wolfram Alpha (de los primeros en ponerlas en práctica) y consiste en interpretar la pregunta del usuario para darle una


respuesta adecuada interpretando a su vez los datos que existen en las diferentes webs de consultas y su base va a ser el HTML5. Por ejemplo, si escribes comprar un gato para el coche, el buscador deberá interpretar que lo que buscas en una herramienta y te dará los resultados relacionados obviando los resultados que contengan al gato animal. En este punto los formatos enriquecidos también ayudarán además de poder pasarles datos concretos a los buscadores que no están a la vista de los usuarios.

Puedes ver el estándar de la creación de los formatos enriquecidos y los distintos tipos que existen en la página oficial sobre ellos: http://schema.org/.


Comentar que además de convertirse en un futuro no muy lejano en algo esencial para poder posicionar una web correctamente, hoy en día estos datos no están ayudando a posicionar (o no hay pruebas evidentes de ello) pero sí que están ayudando a centrar la vista de los usuarios y aumentar la “clicabilidad” de un resultado frente a otro. Uno de los microformatos más famosos que nos encontramos es el de autoría:

La autoría de los contenidos de una web es uno de los elementos que tras la actualización de Google Penguin, se ve primada. Las webs que tengan una marca de autoría y se pase esta información a los rastreadores, tienen más opciones de salir en los resultados de búsqueda frente a otro contenido que no tenga autoría. Esta es otra de las medidas que quiere impulsar Google para eliminar el spam. También están siendo muy comunes las de rating de un producto, receta, etc.


Horarios de espectáculos, películas y eventos.

Habrá que estar atentos a esto, porque es el futuro y cada vez más se integrarán en los resultados de búsqueda.

Sitemaps y robots.txt Tanto los sitemaps como los robots.txt son unos archivos estándar que se le envía a los rastreadores de los motores de búsqueda para dar instrucciones de la estructura del contenido en el caso de los sitemaps y de las secciones del sitio web que los rastreadores pueden visitar. Sitemaps Los sitemaps son páginas del sitio donde se muestra toda la información estructurada que tiene una web. Es muy común encontrárselo en pie de página de un site. Existe una forma de enviarle esta información de la estructura de una página web a un buscador y es a través de los archivos sitemap.xml


Los sitemap.xml son archivos a los que se le carga una estructura del sitio web, además se le definen unos parámetros para comunicarle al rastreador la importancia de cada página y cada cuanto tiempo se actualiza.

Con la herramienta XML sitemap o Sitemap Generator tendrás un sitemap de tu sitio (hasta 500 URL en la versión gratuita), aunque suele acertar si dejas la opción que detecte la importancia de cada página siempre es mejor pegarle un repaso para ajustar algunos parámetros. Vamos a ver cuáles son los parámetros estándares de un sitemap.xml

Falta un parámetro que en años anteriores era usado pero que ya nadie usa ya que ningún rastreador le presta atención por la sobreexplotación que sufrió (al igual que pasó con las Keywords), se trata del changefeq que se usaba para decirle al rastreador las veces que tenía que revisar el sitio web. Puedes ampliar información sobre los sitemap.xml y sus especificaciones en la página oficial del estándarhttp://www.sitemaps.org/es/ Por último, se comenta que una web pequeña y bien estructurada no tiene porqué tener sitemap.xml pero siempre es aconsejable enviarlo ya que todo puede aportar para facilitarle el trabajo a los buscadores. Robots.txt


Los robots son un protocolo para restringir el acceso de ciertas partes de los sitios webs o del todo el sitio completo web a todos los rastreadores o a algunos en concreto. Se crean de una forma muy fácil, abre el Bloc de notas, el programa sin estilos de toda la vida, especificas los parámetros para los rastreadores y lo guardas como robots.txt. Este archivo luego sólo queda subirlo a la carpeta raíz de tu sitio web. Los parámetros que se pueden escribir dentro son:

User-agent define a los rastreadores al que te quieres dirigir. Por ejemplo, el de Google es Googlebot, Bingbot el de Bing y si te quieres referir a todos escribes * Disallow define las carpetas que quieres que no se rastreen. Por ejemplo: /wp-admin o /fotos/. Si se quiere desindexar toda la página (cosa en raras ocasiones recomendable) se debe dejar sólo la /. Es por ello que en los robots.txt hay que fijarse siempre sobre todo de no configurarlos para desindexar el sitio:

En general, se vienen usando o bien para eliminar el contenido duplicado (quitando las carpetas como /tag/ etc.) o bien restringiendo el acceso a algunos rastreadores o a todos. Es curioso como usa la SGAE (Sociedad General de Autores Españoles) los robots.txt para que no indexen


resultados de las búsquedas internas que hace el sitio, generando una condición un tanto particular: http://www.sgae.es/robots.txt :) Si te ha gustado esto de los robots.txt y los rastreadores puedes ampliar la información en este post muy trabajado de Emezeta http://goo.gl/Eu9u7 o echar un vistazo a los diferentes bots rastreadores de webs en esta entrada de la Wikipedia en inglés: http://en.wikipedia.org/wiki/Web_crawler#examples

Carga del sitio y servidor Optimizar la velocidad de carga de una web o como se conoce en con sus siglas en inglés WPO (Web Performance Optimization) cuenta y mucho para los buscadores, sobre todo para Google que cada vez está más estricto con las páginas que no están bien construidas y son inaccesibles. Dentro de Google WebmasterTools incluso te avisan y te pueden enviar emails a tu cuenta si la velocidad de carga excede de los tiempos estimados por ellos. La carga rápida de una web puede depender de muchos detalles, desde la optimización del servidor, la carga de imágenes y archivos multimedia, hasta cómo está estructurada la programación del sitio.

Esta sección es mejor, si no se tiene mucha idea de programación, en primer lugar detectar los fallos que pueda dar y buscar a algún profesional para depurarlo o intentarlo por cuenta propia si no dispones de muchos


recursos. Este post de Javier Casares detalla paso a paso qu茅 hay que hacer para una buena optimizaci贸n del WPO: http://javiercasares.com/wpo/?utm_source=estudiaencasa


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.