Antigüedad del dominio y acortadores de URL. Vídeos de Matt Cutts

Esta semana otra nueva entrega de vídeos de Matt Cutts con subtítulos en español. En esta ocasión en el primer vídeo Matt aclarar un poco el efecto de la antigüedad de un dominio en el ranking de Google y en el segundo vídeo da detalles sobre cómo Google trata las URL que utilizan los servicios de acortadores de URL. Como siempre recordar que si los subtítulos en español no aparecen de forma automática, podéis seleccionarlos desde el menú en la esquina derecha de la pantalla. Al final del artículo podéis encontrar las transcripciones de ambos vídeos.



Transcripción de ¿Cuánto peso tiene el número de años que está registrado un dominio en en tu ranking?

Tenemos una pregunta de JZ, en Ohio que dice: ¿Cuánto peso tiene el número de años que está registrado un dominio en en tu ranking? La respuesta corta es que no te preocupes de eso mucho, de hecho no te preocupes nada.

Danny Sullivan preguntó sobre esto recientemente porque algunos registradores estaban enviado emails diciendo: ¿Sabías que Google te da un bono en ranking si registras tu sitio web por tres años o más? Y solo para aclararlo, esto no se basa en nada que hayamos dicho. La única cosa por la que podría venir es que registramos una patente que decía que podemos usar información histórica en nuestro ranking, así que podrías, en teoría, mirar cuántos años ese sitio ha estado registrado, como podrías mirar a la historia de un sitio web para decir si es de buena o mala calidad. Pero tenemos un montón de ideas y registramos un montón de patentes y eso no significa que todas sean usadas en el ranking. Así, que no quiero que la gente llegue a la conclusión de que sólo porque hubo una patente registrada en 2002 y en la reclamación 38, alguien dijo: bueno, puedes mirar cuántos años un sitio está registrado y llegar a la conclusión de que lo usamos en nuestro ranking.

Así que mi respuesta es, crea buen contenido y no te preocupes mucho sobre cuántos años tu dominio lleva registrado, sólo porque alguien te ha enviado un email que dice, Google hace o incluso puede usar esto en el ranking, no significa que debas creerlo automáticamente  Uhm. Lo que realmente marca la diferencia es la calidad de tu sitio web y el tipo de enlaces que te llegan a tu web, no, ya sabes, está mi sitio registrado por tres o cuatro años, en lugar de uno u dos años.

Transcripción de ¿Rastrea y trata Google “tiny URL” usando la redirección 301 de la misma manera que con otros enlaces?

Tenemos una pregunta de Brian, desde Atlanta (Georgia), que dice: ¿Rastrea y trata Google “tiny URL” usando la redirección 301 del mismo modo que lo hace con otros enlaces?. Bien, déjame coger el ejemplo de tinyURL.com y cambiarlo por servicios para acortar URL, en general. La respuesta es que una vez que rastreamos uno de esos enlaces si devuelven un 301, los seguimos y fluye el PageRank como lo haríamos normalmente con cualquier 301.

Danny Sullivan realizó un buen trabajo sobre estos servicios de URL donde analizó a los principales, como tinyURL.com o bit.ly/ y pensó ¿redirigen con una 301 o hacen algún otro tipo de redirección?. Si el servicio hace una redirección 301 debería fluir todo el PageRank tal y como hacemos con otro tipo de redirecciones 301. Con los servicios de URL que hacen este servicio correctamente, deberíamos seguirlo y encontrar la URL de destino sin ningún tipo de problema.

Publicado por Esperanza, equipo de Calidad de búsqueda.

jueves, 27 de agosto de 2009

RDFa: Especifica la licencia de una imagen

Recientemente hemos introducido una nueva característica en la Búsqueda de Imagen de Google, que permite limitar tus resultados de búsqueda a imágenes que han sido marcadas como de libre reutilización. Como webmaster, puede que estes interesado en conocer cómo puedes hacer saber a Google bajo qué licencias han sido tus imágenes publicadas, así que he preparado un breve vídeo que explica cómo hacerlo usando el RDFa (ahora con subtítulos también en español).




Si tienes alguna pregunta sobre cómo preparar tus imágenes, por favor pregunta en nuestro Foro de ayuda para webmasters.

martes, 25 de agosto de 2009

Nuevas herramientas de Google para sitios web

A principios de este año, lanzamos Google Services para Sitios web [inglés], un programa de ayuda a proveedores de acceso y alojamiento web, que ofrece útiles y potentes herramientas a los clientes. De esta forma, los proveedores pueden poner de forma sencilla a disposición de sus webmasters, desde el mismo panel de control del proveedor, servicios tales como las Herramientas para webmasters, la búsqueda personalizada, Site Search y AdSense. Estas herramientas ayudan a los dueños de los sitios web a comprender el rendimiento en búsqueda, mejorar la retención de usuarios y sacar beneficio económico de su contenido; en otras palabras, ayudan a hacer los sitios web más efectivos.

Desde que lanzamos el programa, varias plataformas de alojamiento [inglés] han mejorado sus ofertas integrando las APIs adecuadas. Además los webmasters pueden configurar sus cuentas y enviar Sitemaps con las Herramientas para webmasters, crear un buscador personalizado para sus sitios web y monetizar su contenido con AdSense, todo ello a muy pocos clics del panel de control. Cada vez son más los proveedores están implementando estas mejoras.

Por nuestra parte, hemos añadido nuevas herramientas:
  • Web Elements [inglés] permite a los usuarios mejorar sus sitios web con un simple "corta y pega". Los webmasters pueden ofrecer mapas, noticias en tiempo real, calendarios, presentaciones, hojas de cálculos y vídeos de YouTube en sus sitios web. Con el Conversation Element, se puede lograr que la comunidad de usuarios sea más activa. El Custom Search Element ofrece búsqueda en el propio sitio web (o en otros que se especifiquen) sin necesidad de escribir nada de código y cuenta con otras opciones para una personalización más avanzada [inglés].
  • Page Speed permite a los webmasters medir el rendimiento de sus sitios web. Sitios web más rápidos ayudan a los usuarios a encontrar cosas más rápidamente; las recomendaciones que ofrecen este tipo de herramientas permiten a proveedores y webmasters optimizar la velocidad de los sitios web. Estas técnicas pueden ayudar a los proveedores a reducir el uso de recursos y optimizar el ancho de banda de red.
  • La página de trucos para proveedores [inglés] ofrece una serie de trucos que permitirá a los proveedores crear una mejor plataforma para los sitios web. Los proveedores pueden mejorar la comodidad y acceso a las herramientas, mientras que al mismo tiempo ahorran en costes y ganan con recomendaciones. Los trucos que incluyen son el uso de las herramientas analíticas, como Google Analytics que ayuda a los webmasters a entender su tráfico, y de herramientas linguísticas como Google Translate [inglés] para ayudar a llegar a otras audiencias.
Si eres un proveedor y te interesa participar en el programa de Google Services for Websites, por favor regístrate aquí [inglés]. Tendrás que integrar antes el servicio de APIs, así que cuanto antes empieces el proceso mejor.

Y si tu servicio de alojamiento no cuenta todavía con Google Services for Websites, envíales esta página [inglés]. Una vez que ellos se registren, podrás configurar los servicios que quieras desde el panel de control de tu proveedor (sin necesidad de pasar por Google).

Como siempre, nos encanta que dejéis vuestras opiniones sobre cómo os está funcionando el programa y que mejoras os gustaría ver.

Publicado por Rajat Mukherjee, Group Product Manager (Traducido por Esperanza, equipo de Calidad de búsqueda)

viernes, 21 de agosto de 2009

La búsqueda en Twitter y su PageRank. Vídeos de Matt Cutts.

Tenéis algunas preguntas sobre Google y Twitter. Bueno esta semana Matt Cutts responde a algunas cuestiones de los usuarios sobre ambos por medio de sus vídeos, que ahora os acercamos con subtítulos en español. El primero de ellos aborda la cuestión sobre la búsqueda en Google y en Twitter y el segundo sobre los factores que determinan Pagerank de una página de Twitter. Y como siempre, recordad que si los subtítulos no aparecen de forma automática, podéis seleccionarlos desde el menú en la esquina derecha de la pantalla.


Transcripción de ¿Qué medio de búsqueda ofrece información más fiable, Google o Twitter?

Tenemos una pregunta especulativa desde Martino en Trento (Italia). Nos preguntan, "¿Qué medio de búsqueda ofrece información más fiable, Google o Twitter?" Twitter tiene muchas posibilidades de uso. Es genial para noticias en tiempo real, o para preguntar a tus amigos. En Google, por otro lado, intentamos ofrecer información fiable. Si buscas por fecha, Twitter es fantástico. Si quieres respuestas a preguntas que llevan ahí un poco de tiempo, Google es genial. Ya sabes, prueba ambos en diferentes situaciones. Si no tienes muchos amigos, entonces no obtendrás las respuestas que esperabas en Twitter. Tampoco me sorprendería si los spammers ven mucho tráfico de repente en Twitter y se avalanzan para tratar de meterse por ahí. Así que son diferentes. Son útiles para cosas diferentes. Cada uno debería usar el que mejor le funcione.

Transcripción de ¿Qué factores determinan el PageRank de una página de Twitter?

Tenemos una pregunta sobre Twitter de Atul Arora, de Fremont (California), que dice: ¿Qué factores determinan el PageRank de una página de Twitter?, es decir, ¿lo determinan cosas como los seguidores o los backlinks? Tratamos las páginas de Twitter como cualquier otra página web. Exactamente igual. No miramos cuántos seguidores tienes en Twitter, miramos cuántos enlaces tienes en tu perfil o en tus tweets. Así que ya sabes, si tienes mucho PageRank o muchos enlaces a un mensaje de estado en concreto que sea muy interesante, es más posible que aparezca en los resultados de búsqueda. Pero no miramos cosas como los seguidores o algo de ese estilo. Hemos visto que se puede GAMED fácilmente a los seguidores en muchos sitios. Así que lo que encontramos suelen ser backlinks y la reputación de esos backlinks es cómo calculamos la reputación de la página en sí, en Twitter, tal y como sería en cualquier otro sitio de la web.

miércoles, 19 de agosto de 2009

SMX Advanced. Sesión de preguntas y respuestas

A principios de este verano se celebró el SMX Advanced [inglés] en Seattle. Allí me hicieron una serie de preguntas para las que tuve que hacer un poco de investigación. Y, como prometí, aquí están las respuestas:

P. Hemos oído que Google indexa mejor ahora el contenido Flash. Si tengo un archivo Flash que obtiene contenido de un archivo externo y el archivo externo está bloqueado por robots.txt, ¿indexará Google dicho contenido (que no está bloqueado directamente por robots.txt) o no?

R. No vamos a ser capaces de acceder a ese contenido si se encuentra en un archivo que bloquea robots.txt, por lo tanto, a pesar de que el contenido será visible para los usuarios (a través del Flash), los robots no podrán acceder al contenido. Para obtener más detalles al respecto, puedes consultar nuestra entrada sobre indexación de contenido Flash cargado desde fuentes externas.

P. Los sitios que personalizan contenido según el comportamiento de los usuarios o "clickstream" son cada vez más comunes. Si un usuario hace clic en mi sitio mediante una página de resultados de búsqueda, ¿se puede personalizar el contenido de esa página o redirigir al usuario según la consulta de búsqueda que realizó? ¿O se consideraría encubrimiento (cloaking)? Por ejemplo, si alguien busca [colgante camafeo vintage], pero hace clic en una página web general sobre joyería vintage, ¿puedo redirigir a mi página específica sobre colgantes camafeo vintage, ya que sé que es éso lo que estaba buscando?

R. Si rediriges o sirves al usuario un contenido diferente al que Googlebot vería en esa URL (por ejemplo, según el referrer de google.com o la cadena de consulta), se consideraría encubrimiento (cloaking). Si el usuario decide hacer clic en el resultado "joyas vintage", deberías mostrarle la página en la que ha hecho clic, aun creyendo que otra página podría ser más adecuada. Siempre puedes enlazar entre páginas relacionadas (es decir, enlazar a tu página de "joyería vintage" desde tu página de "camafeos vintage" y viceversa, de modo que cualquier persona pueda navegar entre ambas páginas. Pero no creas que eres tú quien debe tomar esa decisión por el usuario.

P. Aunque se trata de mostrar un contenido diferente a diferentes usuarios, Google considera ético el hecho de probar sitios web (tales pruebas A/B o multivariante) una práctica legítima que respeta las Directrices para webmasters. Una de las razones de esto es porque mientras los motores de búsqueda sólo pueden ver el contenido original de la página y no el de las diferentes variaciones, también habrá un porcentaje de usuarios que verán ese mismo contenido, por lo que esta técnica no está orientada específicamente a los motores de búsqueda.

Sin embargo, algunos servicios de pruebas recomiendan enviar el 100% del tráfico de un sitio web a la combinación ganadora tras realizarse el experimento, para verificar que las tasas de conversión se mantienen altas. ¿Cómo encaja todo esto dentro de la definición de encubrimiento (cloaking) de Google?

R. Está bien ejecutar el 100% del tráfico a través de una combinación durante un período de tiempo breve, para verificar los resultados de tu experimento. Sin embargo, como ya hemos afirmado anteriormente, "si encontramos un sitio que ejecuta una única combinación no original en un 100% durante varios meses ... es posible que eliminemos el sitio de nuestro índice." Si deseas confirmar los resultados de tu experimento, pero estás preocupado por "cuanto tiempo se considera demasiado tiempo", considera la posibilidad de realizar una prueba de seguimiento en la que envías la mayor parte de tu tráfico a través de tu combinación ganadora mientras que aún envías un pequeño porcentaje a la página original como forma de control. Esto es lo que Google recomienda con su propia herramienta de prueba, Website Optimizer.

P. Si la codificación de caracteres especificada en la cabecera HTTP de una página es diferente a la especificada en la etiqueta <meta equiv = "Content-Type"> ¿a cuál prestará atención Google?

R. Tendremos a ambas en cuenta, y también miraremos un poco el contenido de la página. La mayoría de los navegadores dan prioridad a la codificación específica en la cabecera HTTP, antes que a la que se especifica en el código HTML, si ambas son válidas pero diferentes. Sin embargo, si eres consciente de que son diferentes, lo mejor es que elijas uno de ellos.

P. ¿Cómo trata Google los caracteres internacionales con codificación UTF-8 de byte triple en una dirección URL (como por ejemplo los caracteres del chino o del japonés)? Este tipo de caracteres dan problemas en algunas aplicaciones, ¿puede Google procesarlos correctamente? ¿Google comprende las palabras clave codificadas de esta manera? Es decir, se entiende que www.example.com/%E9%9D%B4 es tan relevante como www.example.com/shoes?

R. Podemos interpretar correctamente caracteres UTF-8 con código % de escape en las URL y en los parámetros de consulta, y entendemos las palabras clave que están codificadas así. Para caracteres internacionales en nombres de dominio, recomendamos utilizar punycode en lugar de codificación con código de escape %, ya que algunos navegadores más antiguos (como IE6) no soportan nombres de dominio con caracteres que no sean ASCII.

¿Tienes alguna pregunta más? ¡Pásate por nuestro foro!

Publicado por Susan Moskwa, Webmaster Trends Analyst. Traducido por Cristina, equipo de Calidad de búsqueda.

lunes, 17 de agosto de 2009

Ubicación del servidor y metaetiquetas geográficas. Vídeos de Matt Cutts.

Esta semana os acercamos otra entrega de vídeos de Matt Cutts con subtítulos en español. El primero de ellos trata sobre cómo afecta la ubicación del servidor a la hora de posicionarse en los resultados de búsqueda de Google. El segundo trata sobre el efecto de las metaetiquetas geográficas en los resultados. Recordad que si los subtítulos en español no aparecen de forma automática, podéis seleccionarlos desde el menú en la esquina derecha de la pantalla. Al final del artículo podéis encontrar las transcripciones de ambos vídeos.



Transcripción de ¿Qué impacto tiene la ubicación del servidor en el posicionamiento en los resultados de búsqueda de Google?

Tenemos una pregunta de Rob Lewicki, desde Toronto (Ontario). Rob pregunta: ¿Qué impacto tiene la ubicación del servidor en el posicionamiento en Google?

Bueno, hace mucho tiempo en los comienzos de Google, tiene gracia porque sólo podías posicionarte para diferentes países según el tld. Así que, .fr significaba que eras francés y eso es todo lo que sabían y en 2000-2001, empezamos a mirar dónde estaba ubicado el servidor, la dirección IP, para decir "no termina en .fr pero está situado en Francia", según la IP. Y puede que esto sea muy útil para los usuarios franceses. Esta es una de las primeras formas de afectar al posicionamiento en Google. Bueno, si estás en los EEUU, tu sitio web está allí y nunca sales de los EEUU, puede que nunca notes estos factores. Pero la ubicación del servidor, tanto si está en los EEUU, Francia, Alemania, Reino Unido o Canadá o cualquier otro sitio, puede determinar el posicionamiento, así que por ejemplo si vas a google.com y escribes "banco" tendrás unos resultados diferentes que si vas a google.com.au y escribes "banco" o vas google.co.uk y escribes "banco". Así que realmente intentamos dar los resultados más relevantes a cada usuario en cada país y la ubicación del servidor, basándonos en la IP, es un factor a tener en cuenta.

Transcripción de ¿Cómo afectan los metaetiquetas geográficas a los resultados de búsqueda?

[Risas] Puedes decir que soy de Kentucky porque nunca sé pronunciar los nombres de la gente. Voy a probar con Jochen en Stuttgart (Alemania), que pregunta: "¿Cómo afectan las metaetiquetas geográficas a los resultados de búsqueda?"

Y la respuesta es que no es algo que miremos detenidamente. Solemos mirar las direcciones IP, el gTLD o el ccTLD, o lo que es lo mismo, el código TLD de país. Por ejemplo, .fr o .de. Hay una opción en las Herramientas para webmasters de Google para indicar que tu sitio no es un simple .com, si no un .com británico. O un .com que realmente pertenece a Nueva Zelanda o Australia. Así que puedes marcar y decir, vale este .com está relacionado con Alemania o Canadá o el país que sea. Pero normalmente las metaetiquetas geográficas no son útiles y no les damos mucha importancia. Así que me esforzaría más en tener un nombre de dominio apropiado o la IP correcta si puedes y, luego, si tienes contenido geolocalizado, incluso si es un subdominio o un subdirectorio, especificarlo en las Herramientas para webmasters y decir que esto es relevante para este país en concreto.

Publicado por Esperanza Navas, equipo de Calidad de búsqueda.

jueves, 13 de agosto de 2009

Ayúdanos a probar infraestructura de nueva generación

Para construir un buen motor de búsqueda se necesita:

1. Rastrear una buena parte de la web.
2. Indexar las páginas resultantes y contabilizar su reputación.
3. Posicionar y mostrar las páginas más relevantes para las búsquedas de los usuarios tan rápido como sea posible.

Durante los últimos meses, un buen número de Googlers han estado trabajando en un proyecto secreto: una arquitectura de nueva generación para la búsqueda web de Google. Este es el primer paso de un proceso que nos permitirá aumentar en tamaño, velocidad, exactitud y amplitud, así como en otros aspectos. La nueva infraestructura se asienta "bajo el paraguas" del motor de búsqueda de Google, lo que significa que la mayoría de los usuarios no notarán ninguna diferencia en los resultados de búsqueda. Sin embargo, los desarrolladores web y otros usuarios avanzados podrían notar algunas diferencias, así que ofrecemos una vista previa a desarrolladores web para poder obtener diferentes opiniones y comentarios al respecto.

Algunas partes de este sistema no están totalmente terminadas, así que estamos abiertos a comentarios de cualquier tipo. Te invitamos a que visites la vista previa para desarrolladores web de la nueva infraestructura de Google en este enlace http://www2.sandbox.google.com/ y pruebes algunas búsquedas.

Por el momento, sólo queremos vuestra opinión sobre las diferencias entre los resultados de búsqueda actuales de Google y los del nuevo sistema. Además, si lo deseas, puedes aportar comentarios más elaborados ("Este tipo de sitios web parece que aparecen mejor o peor posicionados en el nuevo sistema") como complemento a "Este determinado sitio web debería o no posicionarse para esta búsqueda". Los ingenieros leerán los comentarios, aunque no enviarán respuestas.

Aquí explicamos cómo enviar comentarios: Haz una búsqueda en http://www2.sandbox.google.com/ y busca un enlace al final de la página de resultados que dice "¿No está satisfecho? Ayúdenos a mejorar". Haz clic en ese enlace, escribe tus comentarios en la caja de texto y luego incluye la palabra caffeine en cualquier parte dentro de la caja.

Si quieres enviar comentarios para un idioma o país en concreto, estaremos encantados. Es un poco más complicado obtener esos resultados en http://www2.sandbox.google.com/, ya que necesitarás modificar los parámetros de la consulta [inglés] de forma manual.

Puedes cambiar los siguientes valores:
hl = idioma
gl = código de país

Un ejemplo en español de México:

¡Y no os olvidéis de incluir la palabra caffeine en el cuadro de texto! :)

¡Gracias por adelantado por vuestros comentarios!

miércoles, 12 de agosto de 2009

Optimización del rastreo y la indexación

Muchas de las preguntas sobre arquitectura de sitios web, rastreo e indexación, incluso preguntas sobre posicionamiento, pueden reducirse a una sola pregunta: ¿Es fácil para los motores de búsqueda rastrear tu sitio web? Hemos hablado sobre este tema recientemente, y a continuación encontrarás nuestra presentación y algunos de los puntos principales sobre este tema:




Internet es un lugar enorme [inglés] donde se está creando contenido nuevo todo el tiempo. Google cuenta con un número finito de recursos, así que cuando se enfrentan a la casi infinita cantidad de contenido que está disponible en la red, Googlebot sólo es capaz de encontrar y rastrear un porcentaje de dicho contenido. Y de los contenidos que hemos rastreado, sólo podemos indexar una parte.

Las URL actúan como puentes entre tu sitio web y el robot del motor de búsqueda. Los robots tienen que ser capaces de encontrar y cruzar esos puentes (por ejemplo, encontrar y rastrear tus URL) con el fin de llegar al contenido de tu sitio web. Si tus URL son complicadas o redundantes, los robots gastarán su tiempo en localizar y recordar el camino a seguir hasta tus URL; pero si están bien organizadas y llevan directamente al contenido, los robots utilizarán su tiempo para acceder a tu contenido, en lugar de rastrear páginas vacías o rastrear el mismo contenido una y otra vez a través de diferentes URL.

En la presentación anterior puedes ver algunos ejemplos de qué no hacer, ejemplos reales (aunque hemos cambiado los nombres) de "hacks" y códigos caseros en URL, parámetros de enmascaramiento como parte de la ruta de URL, espacios infinitos de rastreo y mucho más. También encontrarás algunas recomendaciones para enderezar ese laberinto de URL y ayudar a los robots a encontrar más rápido tu contenido, que incluyen:
  • Eliminar detalles específicos del usuario en las URL:
Los parámetros de URL, que no cambian el contenido de la página, como el ID de sesión o el orden de clasificación, se pueden quitar de la URL y ponerlos en una cookie. Al poner esta información en una cookie y hacer una redirección 301 a una URL "limpia", se conserva la información y se reduce el número de URL que apuntan a un mismo contenido.
  • Evitar espacios infinitos:
¿Tienes un calendario que enlaza a un número infinito de fechas pasadas o futuras (cada uno con su propia URL)? ¿Tienes datos paginados que devuelven un código de estado 200 al añadir &page=3563 a la dirección URL, incluso si no hay muchas páginas de datos? Si es así, tienes un espacio infinito de rastreo en tu sitio web, y los robots (¡y tu también!) podrían estar desperdiciando ancho de banda tratando de rastrearlo todo. Te recomendamos que tengas en cuenta estos consejos y trates de evitar los espacios infinitos.
  • Desactivar acciones que Googlebot no puede realizar:
A través del archivo robots.txt, puedes desactivar el rastreo de páginas de inicio, formularios de contacto, cestas de la compra y otras páginas cuya única funcionalidad es una acción que un robot no puede realizar. (Los robots son muy tímidos y además les gusta gastar poco, por lo que no suelen "Añadir a la cesta" o "Contactar"). Así permites que los robots utilicen más tiempo en rastrear contenido con el que realmente pueden hacer algo.
  • Una URL, un conjunto de contenidos:
En un mundo ideal, habría siempre una vinculación entre una URL y un determinado contenido: cada URL llevaría a una pieza de contenido única. Cuanto más cerca estemos de este ideal, más adecuado será tu sitio web para el rastreo y la indexación. Si tu sistema de gestión de contenidos (CMS) o la configuración actual de tu sitio web dificulta el rastreo, puedes usar el elemento de enlace canónico para indicar la URL preferida para un fragmento de contenido en concreto.

Si tienes más dudas sobre optimización de sitios web para rastreo e indexación, puedes consultar alguna de nuestras entradas anteriores [inglés] sobre este tema, o pasarte por nuestro foro.

martes, 11 de agosto de 2009

Sobreoptimización y tiempos de carga. Vídeos de Matt Cutts.

A partir de ahora, vamos a compartir con vosotros una serie de vídeos que ha grabado Matt Cutts, ingeniero a cargo del equipo de webspam en Google. En estos vídeos se da respuesta a preguntas sobre diferentes temas que los usuarios nos han hecho, y creemos que os pueden resultar muy útiles.

Cada semana publicaremos un par de vídeos. La serie entera está grabada en inglés, pero hemos añadido los subtítulos en español y las transcripciones al final del artículo. Los subtítulos deberían aparecer por defecto, pero si no es así, los podéis activar desde el menú de la esquina derecha.

Esta semana Matt Cutts responde a preguntas acerca de la sobreoptimización y acerca de la etiqueta nofollow y los tiempos de carga en sitios web:



Esperamos que os resulte interesante. ¡Nos vemos la semana que viene con más vídeos!


Transcripción de ¿Es la sobreoptimización mala para un sitio web?:

Robert de Charlotte tiene una pregunta interesante: ¿Es la sobreoptimización mala para un sitio web? Por ejemplo, el uso excesivo del nofollow.

Muy buena pregunta. Primero, puedes usar tantos nofollow como quieras, no te preocupes, no hay penalización por uso excesivo del nofollow. No vas a tener problemas por ello. Por otra parte, lo de sobreoptimizar. No hay nada en Google como una penalización por sobreoptimización, pero muchas veces esto significa ser un poquito spammy, ya sabes, oh, mi densidad de palabras clave es un poco alta. Sobreoptimizar la densidad de palabras clave a veces significa: repetirlas tantas veces que los usuarios se molestan y los competidores dicen ¿y de dónde viene todo esto? Así que no es que digamos, este sitio tiene el distintivo de un SEO. Pero si optimizas demasiado puedes tener un sitio que no necesariamente le guste a la gente o que parezca chungo, cutre o simplemente malo. No es que vayamos a decir, hemos detectamos señales SEO en este sitio web, pero realmente puedes pasarte y tener un exceso de palabras clave, texto oculto o cosas así. Así que si esto te preocupa, párate a observar e intenta hacerlo mejor para los usuarios, pero no te preocupes por tener demasiadas etiquetas nofollow o cosas así, pues no tienen ninguna penalización.

Transcripción de ¿Afectan los tiempos de carga al posicionamiento en los resultados de búsqueda de Google?

¡Es hora de dar respuesta a más preguntas! Grabamos todas las preguntas un mismo día y luego las publicamos en varios días. La última vez alguien comentó que estuvo viendo el mismo polo rojo durante 30 o 40 días. Así que me he traído varias camisetas y me las iré poniendo de manera que tengáis más variedad.

Vamos con la primera pregunta de Deepesh en New York. "¿Qué impacto causa el tiempo de carga de un sitio en el posicionamiento en Google?" La respuesta corta es, por ahora ninguno. Pero vamos a detallar un poco más.

Está claro que si un sitio tarda tanto en cargar que no podemos ni rastrearlo, Googlebot no obtendrá una copia, y esto afectará tu posicionamiento, ya que tu sitio está básicamente desconectado. Si tu sitio tarda 20 o 30 segundos en responder a la solicitud, eso podría ser un problema. Pero si la diferencia es entre 1 o 2 segundos, esto no tendrá ningún efecto en el posicionamiento en Google. Esa es la respuesta corta.

Ahora un poco más de detalle: Por si no lo sabías, Larry Page habló sobre cómo quiere que sea la web. Quiere que sea muy rápida, como si ojearas una revista. Cuando giras una página, la otra ya está lista. Y con esta filosofía se creó Chrome, ya que queremos que la web sea rápida y sea una buena experiencia. Así que por ahora los tiempos de carga no tienen ningún efecto en el posicionamiento en Google, ¿pero qué pasará en el futuro? No se sabe. Podría imaginar a Google diciendo, "Queremos que la web sea más rápida. ¿Cómo podemos hacer las webs más rápidas y hacer que la gente se entere?", la gente será más feliz y volverán a tu sitio o lo usarán más a menudo. Hemos visto esto en nuestro propio sitio. Así que es interesante que queramos que la web sea rápida y los sitios carguen rápido. Ahora mismo no es un factor decisivo. En el futuro, ¿quién sabe qué factores se tendrán en cuenta?

Personalmente, creo que es una buena idea si puedes hacer tu sitio un poco más rápido. Así que, por ejemplo, no incluyas 40 archivos Java Script diferentes. Puedes comprimirlos en tan sólo un archivo Java Script o CSS. No incluyas imágenes grandes si los ajustes para imágenes son para imágenes en miniatura. Hay muchas maneras de minimizar o comprimir tus páginas para hacerlas más rápidas. Puedes usar gzip en tus páginas, por ejemplo. Así que hay muchas maneras de crear una buena experiencia al usuario. No te preocupes por esto desde el punto de vista de los motores de búsqueda por el momento, aunque para tus usuarios sí que puede representar una gran diferencia.

viernes, 7 de agosto de 2009

Usabilidad y accesibilidad

Hoy vamos a hablar de accesibilidad y de usabilidad como instrumento para la construcción y el aumento de la popularidad de un sitio web.

A menudo, la falta de atención a cuestiones relacionadas con la navegación de un sitio resultan en la frustración del usuario, ya que no puede encontrar lo que está buscando. Y con esta experiencia, se reduce la posibilidad de convertir a dicho usuario en cliente.

En general, para construir un buen sitio es necesario comprender las necesidades de su audiencia. Y hay que tener en cuenta dos aspectos fundamentales: la usabilidad y la accesibilidad.

La usabilidad mide la facilidad con la que un usuario realiza determinadas acciones en un sitio web, a través de algunos parámetros:

Navegación intuitiva
Disponibilidad de la información
Posibilidad de memorizar opciones seleccionadas
Eficiencia del sitio
Satisfacción en general

Un sitio web no sólo debe ser útil, sino que también debe ser accesible, que se pueda hacer uso de todas sus funciones por parte de todo tipo de usuarios, incluyendo aquellos con visibilidad reducida, usuarios con navegadores obsoletos, o navegadores textuales, con conexiones lentas, etc.

Existen muchas directrices sobre accesibilidad, entre las que se encuentran las del World Wide Web Consortium (W3C) en el marco de la Iniciativa de Accesibilidad Web (WAI).

Las directrices internacionales y las autoridades locales protegen a los usuarios de lectores de pantalla (NVDA para Windows y Orca para Linux [inglés]), navegadores textuales (Lynx [inglés]), traductores Braille, aumentos para aquellos con discapacidades visuales o software de reconocimiento de voz, para asegurar que estas personas disfrutan del mismo contenido que se ofrece mediante navegadores gráficos, como Firefox e Internet Explorer. En concreto, se da gran importancia a la correcta utilización del atributo ALT como texto alternativo a los contenidos multimedia, así como al uso de menús textuales para un acceso fácil y rápido a los contenidos.

Al concebir la estructura de un sitio se debe pensar en los distintos tipos de navegadores y en el hecho de que algunos usuarios pueden tener desactivadas las imágenes (o utilizar un lector de pantalla) y que estos verán o escucharán el texto en ALT en lugar de visualizar la imagen.

El texto creado para mejorar la accesibilidad debe facilitar el uso del sitio y no buscar un mejor posicionamiento en los motores de búsqueda.

Piensa en lo molesto que es para un usuario con lector de pantalla leer descripciones largas y, en algunos casos, irrelevantes. En ese caso, se trataría de texto oculto, en lugar de texto en ALT con fines de accesibilidad.

Para entender mejor cómo es un sitio con una buena accesibilidad, en la imagen siguiente podemos ver la versión de una página sin hoja de estilo (CSS):



En esta otra imagen podemos ver, en su lugar, un tipo de texto oculto creado exclusivamente para los motores de búsqueda:


(ejemplo creado para nosotros)

La construcción de un sitio web accesible y con una buena usabilidad siempre se considera positivamente dentro de la comunidad de Internet.

Imagina tu sitio web como un producto de consumo, los usuarios como clientes y los motores de búsqueda como un supermercado. Un cliente que busca un producto en particular, que no tenga una idea clara, irá al supermercado a elegir entre una amplia variedad de productos similares. Si ya probó un producto determinado, y el usuario ya está satisfecho, la próxima vez no se repetirá todo el proceso y las decisiones estarán fuertemente influenciadas por la experiencia anterior.

Del mismo modo, si un sitio cumple con las necesidades de los usuarios en términos de facilidad de uso y/o accesibilidad, éstos regresarán de manera voluntaria.

miércoles, 5 de agosto de 2009