Congreso de Webmasters 09: Herramientas para webmasters de Google

A principios de octubre se celebró en Madrid el III Congreso de Webmasters, donde se concentraron más de mil webmasters para atender a tres días de sesiones y networking. Nosotros, el equipo de Calidad de búsqueda, tuvimos la oportunidad de dirigirnos a parte de la audiencia allí presente durante el último día en la sesión llamada "Herramientas para webmasters de Google".

Mi compañero Javier Arias y yo compartimos la hora de presentación. Yo me centré en recordar las últimas novedades de las Herramientas para webmasters de Google y en los problemas más comunes que los webmasters se enfrentan en el rastreo, indexación y resultados. Por otra parte, Javier habló de algunas de las herramientas para desarrolladores que tenemos disponibles. Aquí os dejamos las presentaciones de esa sesión para los que no pudieron acudir en persona:


Novedades en las Herramientas para webmasters

Entre las novedades más recientes de las Herramientas para webmasters contamos con la "Organización de parámetros", una herramienta que os ayudará a manejar vuestro contenido duplicado debido a URL dinámicas. Esta nueva funcionalidad os mostrará por defecto una serie de parámetros que Google detectó automáticamente y que tendrá un acción adjunta: ignorarla o no. Sin embargo, tendréis la opción de revocar esta acción si queréis, así como añadir vuestros propios parámetros, como por ejemplo con id de sesiones, códigos de seguimiento, etc.

Por otra parte, hace unos meses hicimos una serie de cambios en nuestras Herramientas para webmasters, en este artículo podéis recordar algunas de estas novedades, así como en la presentación.

Problemas en la búsqueda de Google

Durante nuestra sesión hicimos un repaso sobre los problemas más comunes que los webmasters se encuentran en los tres pasos principales de la búsqueda de Google: rastreo, indexación y resultados. En el rastreo por ejemplo, nos hemos cruzado con muchos problemas de acceso a contenido debido a bloqueos accidentales desde el robots.txt, así como a acceso a URL por diferentes errores o servidores inaccesibles, en algunos de los que hemos visto problemas de redirección debido a meta redirecciones o JavaScript. Recordad que recomendamos la redirección 301 siempre que sea posible entre dominios diferentes, cuando estéis migrando de uno a otro. Por otra parte, también acudir a las Herramientas para webmasters para ver otros posibles errores o utilizar nuestra nueva herramienta "Explora como Googlebot", es una buena idea. Además recuerda que hay disponible otras herramientas gratuitas por parte de terceros como por ejemplo web-snifer.net, entre otras.

Respecto a la indexación, el tema de la duplicación es un punto delicado y aunque hay mucho que tratar aquí, nos hemos centrado en los problemas que pueden crear las URL dinámicas y para lo que no sólo contamos con la nueva funcionalidad de "Organización de parámetros", sino con la URL canónica, un estándar adoptado por los principales motores de búsqueda que os ayudará a indicarles cuál es vuestra URL preferida.

Por último, recordamos nuestras Directrices para webmasters y cómo estas pueden influir de forma directa o indirecta en los resultados de búsqueda (directrices técnicas y de diseño y luego la directrices de calidad). En la presentación tocamos el tema del texto escondido debido a ataques de hackers y cómo este puede afectar negativamente a nuestro sitio web, así que os recomendamos estar atentos a esto, ya que este texto introducido sin vuestro permiso puede tener efectos negativos en vuestra web.

Herramientas para desarrolladores

Por su parte Javier tuvo la ocasión de entre todas las herramientas para desarrolladores disponibles en Google destacar siete que pensamos que son especialmente interesantes para desarrolladores. De esta forma presentó dos herramientas (Web Elements, Website Optimizer) orientadas a aumentar la productividad en vuestros sites. Otras dos herramientas, Ajax Libs y Code Playground, con el objetivo de facilitar vuestros desarrollos con JavaScript usando no sólo las APIs de Google sino también algunas de las APIs JavaScript más útiles (Chrome Frame, jQuery, MooTools, etc). Además de dos herramientas (Speed y Page Speed) orientadas a ayudar a los webmasters a optimizar sus websites para hacerlos aun más rápidos. Y por último, las APIs de Google Wave donde esbozó las posibilidades de extensión de este producto.

Preguntas desde Twitter

A pesar de que muchos asistentes tenían su atención en Google Wave, más de la mitad de los tweets eran sobre cómo obtener invitaciones de Wave, pudimos ver como algunos de ellos lanzaron una serie de preguntas más específicas para webmasters a través de Twitter. Desafortunadamente estas no nos llegaron durante la presentación, así que destacaremos algunas de las que más nos llamaron la atención:

  • Sobre los formularios de reconsideración y acciones tomadas por Google: como por ejemplo, por qué no hay respuesta a los formularios, según algunos usuarios no sirve para nada, o si la “penalizaciones” existen.

Bueno, vamos por partes, una vez que los webmasters nos envían un formulario de reconsideración revisamos la página web y que esta ya no infringe nuestras Directrices de calidad para webmasters, y si este es el caso revisamos la acción negativa que se haya aplicado a su web. Si tras enviar este formulario, el webmaster ve que no hay variaciones notables en su web, recomendamos revisar las directrices de nuevo, ya que quizás no cayó en revisar alguna directriz en particular o quizás es que no haya ningún problema, simplemente estés experimentando fluctuaciones normales. Así que si quieres siempre puedes acudir a nuestro Foro para webmasters, nuestra comunidad es muy activa y siempre dispuesta a echar una mano en caso de duda.

Por el momento, es así como procesamos estos formularios y aunque siempre estamos trabajando para abrir nuevas vías de comunicación, somos muy precabidos en la forma en la que lo hacemos, ya que no queremos dar demasiadas para aquellos que intentan abusar del sistema. Y sí, Google toma las acciones necesarias para evitar abusos en el sistema.

  • ¿Cómo puedo tener enlaces de sitio?

Los enlaces de sitio se generan automáticamente, así que no requiere ninguna acción específica por parte del webmaster, aunque tener un sitio web bien estructurado siempre puede ser útil. Aquí podrás encontrar más información. Por otra parte, desde Google vemos que tanto entre los usuarios como entre los webmasters despiertan mucho interés, así que contamos con nuevas variantes de este tipo de enlaces [inglés].

  • ¿Qué es lo que Google considera como "texto oculto"?

Texto oculto para Google de forma muy resumida es aquel que está visible para nuestros rastreadores, pero no para los usuarios, utilizando diferentes técnicas más o menos complejas. Visita nuestras Directrices de calidad para webmasters para más información sobre este punto.

  • ¿Penaliza Google por tener en el Sitemap las direcciones dominio.com y dominio.com/index.html?

No, Google no toma ninguna acción negativa en tu sitio web debido a esto. Recuerda que el Sitemap es una sugerencia que se da a Google sobre las URL que prefieres que se rastreen en tu sitio web. Lo que puede ocurrir es que si incluís ambas en el Sitemap, Google lo tome como contenido duplicado y solo muestre una, la que consideremos la original, y quizás esto no coincida con la que tú consideras la preferida, así que recordar incluir sola la favorita en vuestro Sitemap.

Bueno, espero que os sea útil y si tenéis algún comentario por favor déjalo aquí o en nuestro Foro para webmasters y además gracias por vuestra atención.

Publicado por Esperanza Navas, equipo de Calidad de búsqueda.

viernes, 30 de octubre de 2009

Site Clinic I. Sitios web con marcos

Es un placer ser el primero en colaborar en esta iniciativa del Site Clinic con el sitio web de la organización argentina Fundación Huésped (http://www.huesped.org.ar); espero que este artículo y los que vendrán a continuación sean útiles, no sólo para las páginas webs elegidas, sino también para todos los webmasters que leéis este blog y alguna vez os hayáis planteado si vuestro sitio web podría mejorarse y si es accesible y correctamente visualizado por los motores de búsqueda.




El uso de marcos

Al comenzar el análisis de huesped.org.ar, lo primero que salta a la vista es el uso de marcos “frames” en la página principal. Históricamente los marcos han causado muchos problemas a los motores de búsqueda (podéis encontrar más información en el Centro de Ayuda para webmasters). Pero, resumiendo, el uso de marcos crea conflictos con la idea de que una página se corresponde con una sola URL (con el uso de marcos, una página puede mostrar contenidos de más de una URL).

Volvamos al ejemplo de la página principal y miremos que es lo que Google "ve" cuando el Googlebot rastrea la página principal de Fundación Huésped. Como esta página está formada sólo por dos marcos vemos que la "cache" de Google está vacía, no hay nada que Googlebot pueda rastrear. Esto tiene un efecto problemático en dicha página y, teniendo en cuenta que ésta es una de las páginas más importantes, este efecto se puede notar en todo el sitio web.


Código fuente de la página principal

Si bien es cierto que pueden tener su utilidad (y que a algunos webmasters y programadores les gustan) la mejor solución sería no usar marcos. Otra solución, menos efectiva, sería usar la etiqueta HTML <noframes> para mostrar al Googlebot algún contenido. Google acepta el uso de <noframes>, pero recuerda incluir la misma información que hay en la página, para evitar ir en contra de nuestras Directrices para webmasters. En este caso por ejemplo podríamos añadir el contenido en texto de los menús o del Flash en esta etiqueta.

Otro de los problemas del uso de marcos es que se indexan las URL que conforman los distintos "marcos" que constituyen la página y pueden servirse al usuario de manera independiente. Tomemos por ejemplo esta página con bastante contenido que puede ser útil y aparecer en Google:


Para esta URL, sí que tenemos contenido en la cache lo que significa que esta URL fue rastreada e indexada por Google y podría aparecer en los resultados. Sin embargo, cuando visualicen la página en su navegador, los menús que se mostraban en el otro marco, se habrán perdido y el usuario se encontrará "atrapado" en la página. Una solución puede ser enlazar a esa página con los marcos como opción alternativa para los usuarios. Aun así, en lo que respecta a indexación, posicionamiento y usabilidad, insistimos en la recomendación de no utilizar marcos siempre que sea posible.

Enlaces de retorno

Este punto está relacionado con el uso de marcos que comentamos anteriormente y aunque no queremos analizar problemas de usabilidad no puedo resistirme a comentar este. Puedo ver que algunos enlaces como el de "Volver" en esta página:


están implementados como funciones de JavaScript que hacen un retorno a la página anterior, lo cual da problemas si el usuario llega a esa página desde Google, desde un enlace de otro sitio web, o su navegador ha cargado el sitio en una ventana nueva.

<a href="javascript:history.go(-1);">Volver</a>

Podéis hacer la prueba: buscad en Google las noticias que hay alojadas en la página, con el operador de búsqueda "site:". Ahora haced clic en una de ellas y después clic en "Volver". El usuario vuelve a la página de resultados de Google, cuando puede que haya otras páginas que puedan interesarle en vuestro dominio. Puede que esto sea difícil de cambiar, porque depende del CMS (Sistema de Gestión de Contenidos) que estéis usando, pero en este caso sería importante ofrecer al usuario, por lo menos, algún enlace al menú o página principal, para que se quede en el sitio si así lo desea.

Página principal canónica

Este es un tema del que ya se ha hablado mucho, en este blog, o en el de Matt Cutts [inglés], así que intentaré no extenderme demasiado. Parece que www.huesped.org.ar/ es la URL canónica de este sitio web (es la que aparece si busco en google.com.ar [fundacion huesped]), así que lo mejor sería que las otras variantes que identifican a la página principal hagan una redirección 301 a www.huesped.org.ar/


Títulos en páginas

Tener títulos únicos y descriptivos en las páginas es importante para el posicionamiento, pero también para el usuario, los cuales le permitirán elegir la página que desee. En este caso, muchas de las páginas contienen un título genérico: Fundación Huésped, que identifica al dominio y no el contenido de dicha página. Otras páginas contienen el aún menos descriptivo "Untitled Document". Probad por ejemplo las siguientes búsquedas en Google:
  • [site:huesped.org.ar intitle:huesped]
  • [site:huesped.org.ar intitle:untitled]

Páginas como http://www.huesped.org.ar/site/secciones/forms/formulario_donacion.html podrían tener títulos más descriptivos como: Formulario de Donación de la Fundación Huésped, que ayudarían al usuario final a entender qué es lo que va a encontrar en dicha página.

Indexación: Sitemaps, robots.txt y páginas 404

Por último, aunque parece que el sitio tiene muchas páginas en el índice y casi todas tienen contenido, no está de más incluir un Sitemap que podéis mandar a través de las Herramientas para webmasters que facilite entender la estructura de vuestro sitio web.

Si hay páginas que ya no existen, en lugar de devolver un código de estado 200, como en este caso, es preferible devolver un error 404 con cierta información para el usuario, indicando que la página ya no está ahí y ofreciendo alguna alternativa, como por ejemplo volver a la página principal:


Google ofrece ayuda sobre cómo mejorar tus páginas "no encontradas".

También podéis usar robots.txt, que ahora mismo me da un error cuando intento acceder al archivo robots.txt, para excluir páginas o directorios que no queréis que Google rastree; por ejemplo, veo que hay páginas como estos "banners" en Flash, que probablemente no merezca la pena que indexemos y sirvamos al usuario:


Un último apunte, he visto algunas URL obsoletas en el índice, si buscáis por [dona fundacion huesped] iréis a parar a la página https://www.huesped.org.ar/huespedweb/aeg/formulario_donacion.html
y que cuenta con imágenes con enlaces rotos. Sería mejor tener una redirección 301 entre estas páginas y hacer lo mismo con otras páginas obsoletas que tengamos.

Esto es todo, recordad que esto no es un estudio minucioso y exhaustivo sino una serie de recomendaciones generales. Si tenéis más preguntas o sugerencias sobre qué os parecen estos consejos, o tenéis sugerencias sobre cómo implementar algunas de las recomendaciones, podéis dirigirlas a nuestro foro o escribir en los comentarios.

Publicado por Oscar Calve, equipo de Calidad de búsqueda.

martes, 27 de octubre de 2009

RT @google: tweets, actualizaciones y búsqueda

Nuestro objetivo en Google es hacer la búsqueda más comprensiva, relevante y rápida. En los últimos años, ha surgido nuevos tipos de datos, como las actualizaciones en tiempo real de Twitter, que se han convertido no sólo en una manera de comunicar pensamientos y sentimientos, sino también en una fuente de datos sobre lo que está ocurriendo ahora mismo con respecto a un tema en concreto.

Dado el nuevo carácter de esta información y el valor que aporta a la búsqueda, estamos encantados de anunciar que hemos alcanzado un acuerdo con Twitter para incluir sus actualizaciones en nuestros resultados de búsqueda. Creemos que tanto los resultados de búsqueda como la experiencia del usuario se beneficiarán de la inclusión de esta información de última hora, y en los próximos meses esperamos demostrar cómo los tweets pueden mejorar la búsqueda. De esta manera, la próxima vez que busques algo que se pueda complementar con una observación en tiempo real (digamos el estado de la nieve en tu lugar de ski favorito), encontrarás tweets de otros usuarios que estén ahí y hayan compartido la mejor y más actualizada información.

Marissa Mayer, Vice President of Search Products and User Experience (traducido por Cristina, equipo de Calidad de búsqueda).

viernes, 23 de octubre de 2009

¡Un millón de reproducciones en Youtube!

A principios de este año lanzamos nuestro propio canal de Youtube para Webmaster Central [inglés]. ¡Y hemos visto que nuestro número total de vistas ha superado el millón! Para lograrlo, hemos subido 154 vídeos, con casi 11 horas de vídeo orientado a los webmasters. Estos vídeos os han acercado presentaciones de conferencias, actualizaciones en las Herramientas para webmasters, consejos generales y, por supuesto, las respuestas de Matt Cutts a vuestras preguntas.

Para celebrar este millón de visitas, compartimos con vosotros este divertido vídeo en el que Matt Cutts os muestra qué ocurre cuando pierde una apuesta con su equipo:


Estamos encantados de anunciar que hemos añadido subtítulos [inglés] a todos nuestros vídeos y que además planeamos hacerlo para todos nuestros futuros vídeos. Hay disponibles traducciones automáticas para estos subtítulos. Y, al margen de estas traducciones automáticas, también ofrecemos subtítulos en español con sus respectivas transcripciones para algunos vídeos. Poco a poco iremos ofreciendo todo esto en muchos más vídeos.

Gracias a todos los que han visto, compartido y comentado nuestros vídeos.
¡Estamos deseando llegar a nuestro segundo millón de visitas!

jueves, 22 de octubre de 2009

Enlaces entrantes de baja calidad

Hay webmasters que comprueban los enlaces entrantes para sus sitios con las Herramientas para webmasters y nos preguntan a menudo qué pueden hacer cuando observan enlaces entrantes de baja calidad. Comprensiblemente, hay muchos propietarios de sitios intentando obtener una buena reputación para sus sitios y muchos creen que el hecho de tener enlaces entrantes de baja calidad hará que se les considere como parte de un mal vecindario, y esto, tras un tiempo, podría dañar el posicionamiento del sitio.

Si tu sitio recibe enlaces que tienen mala pinta, no te preocupes... ¡sigue leyendo!

Aunque es cierto que los enlaces son un factor importante a la hora de posicionarse con el algoritmo de Google, éste es uno de muchos factores. Es algo que se dice a menudo, pero el hecho de tener algo que la gente desee consultar o utilizar (contenido único y atractivo; herramientas y servicios útiles) es también un factor determinante. Otros factores pueden incluir la estructura del sitio, si las palabras de la consulta que realiza el usuario aparecen en el título, la proximidad de las palabras en la misma página, etc. La cuestión es, cuando ves sitios de baja calidad que te están enlazando, es importante tener en mente que los enlaces son tan sólo un aspecto entre muchos al respecto de cómo Google valora tu sitio. Si tienes un sitio que está bien mantenido y estructurado, con contenido original y de calidad, éso es lo que los usuarios van a ver y a tener en cuenta.

Habiendo dicho esto, y en un mundo ideal, tendrías un sitio de alta calidad con enlaces de alta calidad. Puede que también te preocupe la impresión que causa tu sitio a los usuarios si éste les llega a través de un grupo de enlaces spam.

Si el número de enlaces de baja calidad es pequeño y manejable, puedes tratar de eliminar esos enlaces desde el sitio que te está enlazando, puede que valga la pena intentar contactar al sitio y pedirle que los elimine. Recuerda que esto es algo que Google no puede hacer por ti: indexamos el contenido que encontramos en línea, pero no controlamos el contenido ni quién te está enlazando.

Si los propietarios del sitio no desean cooperar, no te preocupes. Puedes centrarte en cosas que sí están bajo tu control. Normalmente, como webmaster, no tienes mucho control sobre cosas como quien te está enlazando. Pero si tienes el control sobre muchas otras cosas, que también influyen en la indexación y el posicionamiento. Organiza tu contenido. Realiza un pequeño estudio de usabilidad con familia y/o amigos. Pide que revisen tu sitio en tus foros favoritos para webmasters. Usa una herramienta de prueba de sitios web para obtener información de qué contenido te proporciona más visitas o más ventas. Inspírate con tus sitios favoritos, o con tu competencia, ¿qué hace bien? ¿Qué es lo que te hace volver a ese sitio? ¿Qué puedes aprender de ellos? Cualquier investigación de este tipo tendrá un gran impacto en el rendimiento de tu sitio, y esto será más productivo que intentar cazar y eliminar cualquier enlace entrante mínimamente cuestionable.

Por último, ten en cuenta que los enlaces de baja calidad suelen durar poco tiempo, y puede que desaparezcan del gráfico de enlaces de forma relativamente rápida. Puede que incluso ya no se estén teniendo en cuenta para nuestro algoritmo. Si te quieres asegurar de que Google conoce estos enlaces y los valora de la forma adecuada, puedes hacérnoslos llegar, utilizando el informe de spam o el informe de enlaces pagados.

martes, 20 de octubre de 2009

Reunifica el contenido duplicado de tu web

Manejar el contenido duplicado dentro de tu propia web puede ser un gran reto. Los sitios web crecen; se les añaden, modifican y eliminan características; el contenido viene y va. Con el tiempo, y de forma no voluntaria, los sitios web pueden ir acumulando contenido duplicado en forma de diferentes URL que sirven un mismo contenido. Generalmente, el contenido duplicado en un sitio web no es algo problemático, aunque puede dificultar el rastreo y la indexación a los motores de búsqueda. Además, el PageRank y otros datos similares que se encuentran a través de enlaces entrantes pueden esparcirse por las páginas que no estén reconocidas como duplicados. Esto podría hacer que tu versión preferida aparezca posicionada en una posición inferior en los resultados de búsqueda de Google.

Pasos para tratar el contenido duplicado en tu web:

Reconoce qué es contenido duplicado:

El primer paso, y el más importante, es reconocer el contenido duplicado en tu sitio web. Una forma sencilla de hacer esto es tomar un fragmento de texto de una de tus páginas. Realiza una búsqueda limitando los resultados a las páginas de tu propio sitio web utilizando el operador site:. Si obtienes resultados múltiples para un mismo contenido, podrás comenzar la investigación por ahí.

Determina tu URL preferida:

Antes de solucionar cualquier cuestión de contenido duplicado, tendrás que determinar cuál es tu URL preferida. ¿Qué URL prefieres utilizar para ese contenido?

Sé coherente dentro de tu propio sitio web:

Una vez que hayas elegido tu URL preferida, asegúrate de usarla en todos los lugares posibles dentro de tu sitio web (incluyendo el archivo sitemap [inglés]).

Usa redirecciones permanentes 301 cuando sea necesario y posible:

Si puedes, redirige las URL duplicadas a tu URL preferida utilizando un código de respuesta 301. Esto ayuda a los usuarios y a los motores de búsqueda a encontrar la URL preferida en caso de que visiten las URL duplicadas. Si tu sitio dispone de varios nombres de dominio, elige uno y utiliza una redirección 301 en los demás, asegurándote de que se transmite a los usuarios a la página adecuada, no sólo a la raíz del dominio. Si dispones de nombres de host con y sin "www", elige uno y utiliza la función Establecer dominio preferido en las Herramientas para webmasters para redirigir adecuadamente.

Aplica el atributo rel="canonical" en las páginas que puedas:

Cuando no es posible hacer una redirección 301, el atributo rel="canonical" puede ayudarnos a comprender mejor tu sitio y tus URL preferidas. El uso de este elemento de enlace también lo apoyan otros grandes motores de búsqueda, como Ask.com, Yahoo! y Bing [inglés].

Utiliza la herramienta de gestión de parámetros de la URL en las Herramientas para webmasters de Google cuando sea posible:

Si todo o una parte del contenido duplicado de tu sitio web proviene de URL con parámetros de consulta, esta herramienta puede ayudarte a notificarte qué parámetros son importantes y cuáles son irrelevantes para tus URL. Puedes consultar información adicional acerca de esta herramienta en nuestra entrada sobre la herramienta.

¿Qué pasa con el archivo robots.txt?

Un elemento que falta en esta lista es el bloqueo de rastreo de contenido duplicado mediante el archivo robots.txt. Recomendamos no bloquear el acceso a contenido duplicado en tu sitio web, ya sea con un archivo robots.txt o con otros métodos. En lugar de esto, puedes utilizar el atributo rel="canonical", la herramienta de gestión de parámetros de la URL o redirecciones 301. Si el acceso al contenido duplicado está completamente bloqueado, los motores de búsqueda tratarán por separado estas URL, como páginas únicas, ya que no pueden saber que se trata de URL diferentes para un mismo contenido. Es mejor que se puedan rastrear, pero que estén marcadas como duplicado, utilizando uno de los métodos que hemos recomendado. Si permites rastrear estas URL, el robot aprenderá las reglas de identificación de duplicados con tan sólo mirar la URL y se evitarán en gran medida nuevos rastreos innecesarios. Para los casos en los que el contenido duplicado nos hace rastrear tu sitio web en exceso, puedes ajustar la frecuencia de rastreo en las Herramientas para webmasters.

Esperamos que estos métodos te ayuden a dominar el contenido duplicado de tu sitio web. Puedes encontrar información sobre contenido duplicado en nuestro Centro de asistencia. Si tienes alguna pregunta, no dudes en unirte al Foro para webmasters para hablar del tema.

lunes, 19 de octubre de 2009

Site Clinic. Próxima parada: Los análisis

Primero nos gustaría dar las gracias a todos los webmasters que han enviado sus páginas web a nuestro formulario Site Clinic. Después de un mes recibiéndolas, desde una gran variedad de países, ahora nos toca cerrar las puertas y ponernos a trabajar en el análisis de las páginas web seleccionadas. Por vuestros comentarios podemos ver que esta iniciativa ha generado expectación, así que estamos trabajando para ofrecer consejos prácticos que sirvan a toda la comunidad.

Estamos muy contentos con la buena acogida que ha tenido esta inicitaiva: más de 2000 sitios web nos han llegado a través del formulario. Páginas de todo tipo: grandes negocios de ambos lados del charco, blog personales, páginas oficiales, asociaciones no gubernamentales, etc... La variedad ha sido increíble. Esto nos hace ver lo mucho que todavía se puede hacer en tareas de comunicación con webmasters, aunque por el momento nos centraremos en esta iniciativa y en estos webmasters abiertos a recibir nuestra opinión sobre cómo mejorar sus páginas web.

Lógicamente sólo 5 webs, como máximo, serán las elegidas, aunque como ya dijimos en su momento, toda la comunidad podrá beneficiarse con dichos artículos. Por otra parte, no descartamos proyectos similares en un futuro si se considera una forma útil de haceros llegar más información.

Pronto y de forma regular publicaremos los artículos de análisis. Estos ofrecerán consejos sobre el rastreo y la visibilidad de las páginas web seleccionadas, pero que también pueden ser aplicadas en otros sitios web. También aprovechamos para recordaros que hay otros muchos factores que pueden influir en vuestra página web, así que hay que tenerlos todos en cuenta.

Por último si queréis estar al día de las últimas novedades, estar atento a este blog. Suerte y esperamos que nuestros artículos os sean útiles. Y ya sabéis, si tenéis algún comentario, publicadlo aquí o en nuestro foro.

viernes, 16 de octubre de 2009

Enlaces en los pies de página. Vídeos de Matt Cutts

Esta semana os hacemos llegar un nuevo vídeo de Matt Cutts, por supuesto con los subtítulos en español. En esta ocasión aborda el tema de los enlaces a pie de página que existen en algunas páginas web y cómo se tratan en comparación con los enlaces que existen a lo largo de los párrafos. Esperamos que la respuesta de Matt os sea de gran utilidad.


Transcripción de los enlaces en los pies de página:

Ok, tenemos una pregunta de Andrés de Boston, que dice: ¿Trata Google los enlaces en los pies de página diferente a los del medio del texto, por ejemplo, en un párrafo?

Si vas y lees el documento original del PageRank, dice que los enlaces se distribuyen completamente de forma uniforme, el PR se distribuía sin importar si el enlace estaba al principio o al final de la página, en el pie de página, en el texto, y demás. En general nuestro análisis de enlaces continúa haciéndose más y más sofisticado hasta el punto que lo que hoy contabilizamos todavía se llama PR y es aún parecido al PR original, pero mucho más sofisticado que esa versión.

Así, que nos reservamos el derecho de tratar a estos enlaces de forma ligeramente diferente. Por ejemplo, si algo está en el pie de página, podría no tener el mismo peso editorial, porque alguien podría haber colocado un enlace y esto podría darse en todo el sitio web y algo que en realidad debería ser un párrafo de texto es más bien un enlace editorial, así que nos reservamos el derecho de tratarlos de forma diferente respecto a cómo los tratamos para relevancia, cómo los consideramos en cuanto a reputación, cuánto confiamos en ellos y todo ese tipo de cosas.

jueves, 15 de octubre de 2009

Ponte al día con la Búsqueda de imágenes

En SMX West [inglés] hice una presentación sobre la búsqueda de imágenes que me gustaría compartir con nuestra comunidad de webmasters. El objetivo de esta presentación era ofrecer una idea de cómo la gente utiliza la búsqueda de imágenes, cómo funciona, y cómo los webmasters pueden optimizar sus páginas para los buscadores de imágenes.

Verás más información sobre:
  • El alcance de la Búsqueda de imágenes.
  • Conclusiones interesantes sobre el comportamiento de los que buscan imágenes.
  • Nuestros esfuerzos en el manejo de múltiples referentes de imágenes.
  • Mejores prácticas para imágenes (calidad de imagen, colocación, el texto relevante que la rodea, etc.).
Echa un vistazo y haznos llegar tus opiniones en el apartado de comentarios, nos encantará saber de vosotros.

Y recuerda, los subtítulos deberían aparecer por defecto al reproducir el vídeo. Pero si esto no ocurre, siempre puedes activarlos en el menú de la esquina inferior derecha.


miércoles, 14 de octubre de 2009

Explorar como Googlebot y Detalles de Malware en Labs de las Herramientas para webmasters

El equipo de Herramientas para webmasters es muy afortunado de tener usuarios tan apasionados que nos ofrecen unas muy buenas ideas. En el futuro, lanzaremos algunas nuevas funcionalidades en la sección "Labs" de las Herramientas para webmasters, así el proceso de implementación de estas será más rápido y atenderemos a vuestros comentarios lo más rápido posible. Con el lanzamiento de la sección Labs, tendrás la oportunidad de probar las nuevas funcionalidades que vayamos incorporando, así como de darnos tu opinión de forma más rápida. Por otra parte, ya que estas funcionalidades estarán disponibles antes, puede que esto afecte a veces a su estabilidad.

En las últimas horas hemos lanzado dos novedades interesantes:
  • Detalles de Malware
  • Explora como Googlebot
Detalles de Malware (desarrollado por Lucas Ballard)

Antes dependías de las pruebas manuales con nuestra API de Páginas de diagnóstico, y las notificaciones de malware para determinar que páginas de tu sitio web podrían estar distribuyendo malware. Algunas veces encontrar código malicioso es extremadamente difícil, incluso cuando se sabe en qué páginas se encuentra. Hoy anunciamos que ofreceremos indicaciones adicionales: fragmentos del código de algunas de esas páginas que consideramos maliciosas. Esperamos que esta información adicional te permita eliminar el malware
de tu sitio web de forma muy rápida y reduzca el número de iteraciones que muchos webm
asters pasan durante el proceso de revisión.

Para consultar información adicional sobre esta nueva funcionalidad acude a nuestro Blog de Seguridad Online [inglés].

Explora como Googlebot (desarrollado por Javier Tordable)

"¿Qué es lo que Googlebot ve cuando accede a mi página web?" Es una pregunta muy común que los webmasters nos hacen en foros y conferencias. Nuestras palabras claves y las sugerencias de HTML te ayudan a entender el contenido que extraemos de tus sitio web y cualquier problema que podamos tener a la hora del rastreo y la indexación. Sin embargo, nos hemos dado cuenta de que es importante ofrecer a los usuarios la posibilidad de enviar páginas del sitio web y obtener una respuesta en tiempo real de lo que Googlebot ve. Esta funcionalidad será de gran ayuda para los usuarios cuando re-implementen sitios webs con un nuevo set de tecnologías distintas, se den cuenta de que algunas de sus páginas webs han sido hackeadas, o cuando quieran comprender por qué no se posicionan por palabras claves determinadas.


Estamos muy entusiasmados con este lanzamiento, y esperamos que tú también. ¡Haznos saber lo que piensas!

martes, 13 de octubre de 2009

Freehosts: Consejos para hacerlos más manejables

La mayoría de las recomendaciones que hemos hecho en el pasado han sido para webmasters que tienen sus propios sitios web. Ahora queríamos compartir algunos consejos para sitios web que alojan datos de usuario o les permiten crear sus propios sitios web, como Blogger o Google Sites. Solemos referirnos a esta clase de sitios como "freehosts" (es decir, de alojamiento gratuito), aunque las recomendaciones que se ofrecen a continuación también se pueden aplicar a determinados proveedores "no gratuitos".
  • Asegúrate de que tus usuarios puedan verificar el sitio web con herramientas de gestión de sitios web, como por ejemplo las Herramientas para webmasters de Google.
Las Herramientas para webmasters proporcionan a los usuarios informes detallados sobre la visibilidad de su sitio web en Google. Antes de poder conceder a los usuarios acceso, tenemos que verificar que son los propietarios de los sitios web en cuestión. La verificación del propietario de un sitio con las Herramientas para webmasters se puede hacer utilizando un archivo HTML, una metaetiqueta, o bien con los Servicios de Google para Páginas web [inglés]. Otras herramientas de gestión de sitios web como Yahoo! Site Explorer [inglés] y Bing Webmaster Tools [inglés] pueden utilizar métodos de verificación similares. Recomendamos comprobar que los usuarios pueden acceder a cada una de estas herramientas.
  • Elige un único directorio o nombre de host para cada usuario.
Las Herramientas para webmasters verifican los sitios web basándose en tan sólo una URL, asumiendo que se pueden obtener datos para las URL que dependen de esa URL, según la jerarquía de la estructura del sitio. Consulta nuestro artículo sobre verificación de subdominios y subdirectorios para más información. Más allá de las Herramientas para webmasters, muchos de los sistemas automatizados de la red (como los motores de búsqueda o agregadores) esperan que los sitios web estén estructurados de este modo, y al hacerlo estarás facilitando a estos sistemas que encuentren y organicen el contenido.
  • Utiliza títulos de página descriptivos y útiles.
Permite que los usuarios puedan establecer sus propios títulos, o que las páginas de los sitios web sean automáticamente descriptivas, según el contenido de esa página. Por ejemplo, todos los títulos de las páginas de un usuario no deberían ser "Blogger. Crea tu blog: es totalmente gratuito". Del mismo modo, si el sitio web de un usuario tiene más de una página con contenidos diferentes, no todos deben tener el mismo título: "Página de inicio del usuario XYZ".
  • Permite añadir etiquetas a una página.
Algunas metaetiquetas son razonablemente útiles para los motores de búsqueda y puede que los usuarios quieran controlarlas. Por ejemplo, las etiquetas con el atributo "name" para "robots" [inglés], "description" [inglés], "Googlebot", "slurp" [inglés] o "msnbot". Haz clic en los atributos de nombre específicos para obtener información adicional sobre estas etiquetas.
  • Permite a los usuarios la utilización de paquetes de análisis de datos de terceros como Google Analytics.
Google Analytics es un software gratuito de análisis profesional que puede ejecutarse en un sitio web con sólo añadir un fragmento de código JavaScript a la página. Si no deseas permitir a los usuarios añadir JavaScript arbitrario por razones de seguridad, el código de Google Analytics tan sólo cambia en la parte del ID. Si permites que tus usuarios te proporcionen el ID de Google Analytics, puedes configurar el resto para ellos. Los usuarios van a obtener más de tu servicio si pueden entender mejor el tráfico de su web. Por ejemplo, la página de ayuda de Weebly [inglés] sobre la adición de Google Analytics. Recomendamos considerar los mismos métodos que se pueden utilizar para habilitar el acceso a otras aplicaciones de terceros.
  • Ayuda a tus usuarios a que realicen cambios.
Los gustos cambian. Puede que alguien en tu servicio desee cambiar su nombre de cuenta o pasarse a un sitio nuevo. Ayúdalos permitiéndoles acceder a sus propios datos [inglés] y dejando que indiquen a los motores de búsqueda cuando cambian una parte o todo su sitio con una redirección 301. Del mismo modo, si un usuario desea eliminar una página, en lugar de cambiarla, se puede devolver un código de respuesta HTTP 404 para que los buscadores sepan que la página o el sitio ya no existe. Esto permite a los usuarios utilizar la herramienta de solicitud de eliminación de URL (en caso necesario), asegurándose así que estas páginas dejan de aparecer en los resultados de búsqueda tan pronto como sea posible.
  • Ayuda a los motores de búsqueda a encontrar el contenido útil de tus usuarios.
Los motores de búsqueda continuarán rastreando la web más y más. Ayuda a que se encuentre el mejor contenido de tu sitio. Permítenos rastrear contenido de los usuarios, incluidas cosas como imágenes subidas por los usuarios. Ayúdanos a encontrar contenido de los usuarios utilizando los sitemaps XML [inglés]. Evitan versiones duplicadas de un mismo contenido, para poder encontrar más cosas buenas que los usuarios están creando mediante la creación de una sola URL para cada contenido en la medida de lo posible, y especificando la URL canónica cuando no sea posible. Si estás alojando blogs, crea feeds RSS que podamos descubrir en Google Blog Search. Si tu sitio está caído o muestra errores, devuelve códigos de respuesta 5xx. Esto nos va a ayudar a evitar la indexación de muchas páginas de "En seguida volvemos", al avisar a los rastreadores de que el contenido no está disponible temporalmente.

¿Se te ocurren otras prácticas recomendadas para sitios que alojan datos o páginas de usuario?

Publicado por Greg Grothaus, Staff Software Engineer, Search Quality Team (traducido por Cristina, equipo de Calidad de búsqueda).

lunes, 12 de octubre de 2009

Site Clinic: ¿Ya enviaste tu web?

Entramos ya en la recta final de nuestro plazo abierto para enviar sitios web a nuestro proyecto de site clinic. Sólo recordaros que el próximo jueves, día 15 de octubre, se cerrará el formulario a través del cual podéis hacernos llegar vuestras páginas web. Así que si queréis que vuestro sitio web sea uno de los elegidos para recibir una crítica constructiva sobre accesibilidad e indexabilidad, que pueden llevar a una mejor visibilidad en los resultados de Google, no dudéis en enviarlo.

Recordar que para participar necesitáis tener vuestro sitios web verificados con nuestras Herramientas para webmasters y rellenar el formulario con la información que se pide: vuestra web, persona de contacto, teléfono e email de contacto, etc. En el artículo original encontraréis todos los detalles.

Publicado por Esperanza, equipo de Calidad de búsqueda

viernes, 9 de octubre de 2009

Nuevo organizador de parámetros para problemas de contenido duplicado

El contenido duplicado ha sido un tema candente entre los webmasters y nuestro blog durante mucho tiempo. Una de nuestras primeras entradas [inglés] sobre el tema se publicó en diciembre del 2006 y la más reciente [inglés] se ha publicado a mediados de septiembre de 2009. En los últimos años hemos ofrecido herramientas y trucos que ayudan a los webmasters a controlar qué URL rastreamos e indexamos, entre ellas: a) el uso de la redirección 301, b) la configuración del dominio preferido, www vs. no www, c) la opción de cambio de dirección, y d) el rel="canonical".

Ahora estamos encantados de anunciar otra nueva funcionalidad para ayudar con el contenido duplicado: organización de parámetros. Esta te permite ver qué parámetros Google piensa que deberían ignorarse y cuales no a la hora de rastrear, así como la posibilidad de cambiar nuestras sugerencias si es necesario.


Utilicemos nuestro viejo ejemplo del sitio web de venta de caramelos Swedish Fish. Imagínate que tu URL favorita es como esta:
http://www.example.com/product.php?item=swedish-fish

Sin embargo, podrías estar ofreciendo el mismo contenido en URL diferentes dependiendo de cómo los usuarios navegen por tu sitio web, o tu sistema de contenido incluya los parámetros tales como sessionid:
http://www.example.com/product.php?item=swedish-fish&category=gummy-candy
http://www.example.com/product.php?item=swedish-fish&trackingid=1234&sessionid=5678


Ahora con la herramienta de "Organización de parámetros" puedes ofrecer sugerencias a nuestro rastreador para que ignore parámetros como: category, trackingid, y sessionid. Si tenemos en cuenta tu sugerencia, el resultado será un rastreo más eficiente de tu sitio web y menos URL duplicadas.

Desde que lanzamos esta funcionalidad hemos tenido algunas preguntas y aquí os presentamos algunas de las más populares:

¿Estas sugerencias son pistas o directrices?
Vuestras sugerencias se consideran pistas. Hacemos lo que podemos para tomarlas en cuenta, sin embargo puede haber casos en los que las sugerencias que se dan pueden hacer más daño que beneficios para un sitio web.

¿Cuándo utilizar el organizador de parámetros y cuándo el rel="canonical"?
rel="canonical" es una muy buena herramienta para tratar problemas de contenido duplicado y tiene una amplia aceptación. Las diferencias entre estas dos opciones son:
  • rel="canonical" tiene que añadirse en cada página, mientras que el organizador de parámetros se configura a nivel de host
  • rel="canonical" está aceptado por muchos motores de búsqueda, aunque estos parámetros son sólo una sugerencia para el motor de búsqueda de Google
Utiliza la opción que mejor te funcione o utiliza ambas si eres muy detallista.

Como siempre, apreciaremos vuestros comentarios.

jueves, 8 de octubre de 2009

Arquitectura de enlaces y PageRank. Vídeos de Matt Cutts.

Esta semana os traemos un vídeo subtitulado de Matt Cutts que habla sobre Page Rank, más en concreto sobre la arquitectura de enlaces y el Page Rank. Esperamos que os resulte útil:

Transcripción de Arquitectura de enlaces y PageRank:

Rand de Brighton, ¿será Rand Fishkin?...¡quién sabe!, nos pregunta: ¿Qué opinas de la arquitectura de enlaces para PR? ¿Útil y recomendada si se implementa de forma correcta? ¿o poco ética?

Yo no diría que no es ética, ya que es algo de tu web, tu puedes que controlar cómo fluye el PR por tu sitio. Yo diría que no es la primera cosa en la que yo trabajaría. Me centraría en tener más enlaces y contenido de calidad, esas son las cosas que quieres priorizar. Pero si tienes una cierta cantidad de PR, entonces definitivamente puedes centrarte en hacer algo con tu PR.

No lo haría necesariamente con un nofollow, aunque puedes poner un nofollow en una página de inicio de sesión, o algo que sea personalizado, donde un robot nunca entraría, por ejemplo. Pero una mejor manera de lograr una buena arquitectura de enlaces es elegir qué cosas enlazas desde tu página de inicio.

Así que imagina que tienes dos páginas diferentes: tienes un producto que te genera mucho dinero cada vez que alguien compra, y tienes otro producto que te genera, digamos, céntimos. Seguro que quieres destacar esa página, te quieres asegurar de que tiene suficiente PR para que se posicione bien, así que vas a querer enlazar a esa página desde tu página de inicio. Así que cuando la gente te habla sobre arquitectura de enlaces, suelen pensar en nofollow y todo ese tipo de cosas. Pero de alguna manera, la forma en que eliges crear tu sitio, la estructura de tu sitio, y cómo se enlaza entre las páginas, es un tipo de arquitectura. Así que no es inapropiado el tener todos los enlaces que vayan a tu sitio y luego decidir cómo enlazar dentro de tu sitio y cómo hacer las páginas dentro de tu sitio.

Creo que tener más enlaces ya que tienes buen contenido es la mejor manera de posicionarte bien ya que el tema de arquitectura es algo secundario. Puede ser útil, pero no sería la primera cosa que yo haría.

lunes, 5 de octubre de 2009

La verificación de sitios, ahora más sencilla

Si utilizas las Herramientas para webmasters, seguramente estés familiarizado con el proceso de verificación de sitios web. Simplemente tienes que añadir una metaetiqueta específica o un archivo HTML a tu sitio, haces clic en el botón y ya tienes tu sitio verificado. No obstante, hemos hecho unos pequeños cambios recientemente, que mejoran el proceso, intentando así que sea más sencillo y fiable para ti.

El primer cambio que hemos realizado es una mejora del método de verificación con metaetiquetas. Antes, la verificación con metaetiquetas estaba basada en parte en la dirección de correo electrónico de tu cuenta de Google. Eso significaba que si cambiabas la dirección de correo electrónico en la configuración de tu cuenta, las metaetiquetas también cambiaban (y entonces había sitios que aparecían no verificados si tenían la metaetiqueta anterior). Así que hemos creado una nueva versión para la verificación con metaetiquetas que no está relacionada con la dirección de correo electrónico. Un sitio nunca dejará de estar verificado si cambias la dirección de correo electrónico.

También hemos mejorado el proceso de verificación mediante archivos HTML. Antes, si tu sitio web devolvía un código de estado que no fuera un 404 para una URL que no existía en tu sitio, no podías usar este método de verificación. Un servidor web debidamente configurado debe devolver un 404 para URL no existentes, pero parece que muchos sitios tienen problemas con este requisito. Así que hemos simplificado este proceso de verificación, eliminando las comprobaciones para URL no existentes. Ahora simplemente descargas el archivo HTML que te proporcionamos y lo subes a tu sitio, sin modificarlo. Comprobaremos los contenidos del archivo y, si están correctos, ya está.




Esperamos que estos cambios faciliten el proceso de verificación. Si ya has verificado tu sitio con el proceso antiguo, no te preocupes. Tus verificaciones anteriores seguirán siendo válidas, estos cambios sólo afectan a las nuevas verificaciones.

Hay software y sitios web que disponen de funciones para ayudarte a verificar tu sitio web, añadiendo la metaetiqueta o el archivo HTML por ti. Es posible que éstos tengan que actualizarse para que funcionen con estos nuevos procesos. Por ejemplo, Google Sites aún no utiliza el nuevo proceso de verificación con metaetiquetas, por el momento. Estamos trabajando para solucionarlo tan pronto como sea posible. Si descubres otros servicios con problemas similares, puedes colaborar con la persona a cargo del mantenimiento para intentar resolver el problema. Sentimos las molestias que esto pueda ocasionar.

Esto es sólo una de las diferentes mejoras en las que estamos trabajando para la verificación de sitios web. En el futuro, por ejemplo, empezaremos a mostrar direcciones de correo electrónico de todos los propietarios verificados para un sitio en concreto al resto de propietarios verificados de ese sitio. Creemos que esto va a facilitar la gestión de sitios, cuando se trata de sitios con varios propietarios verificados. Así que, si utilizas una dirección de correo electrónico que no quieres que otros propietarios vean, ahora puede ser un buen momento de cambiarla.

viernes, 2 de octubre de 2009

Utiliza los "named anchors" para identificar secciones en tus páginas

Acabamos de anunciar un par de nuevas funciones [inglés] en el Blog Oficial de Google que permite a los usuarios obtener la información que quieren de forma más rápida. Ambas características ofrecen enlaces adicionales en los resultados, los cuales permiten a los usuarios saltar directamente a una determinada parte de una página web. Esto es útil cuando un usuario tiene un interés específico en mente y se trata en una sección específica de una página. Ahora, los usuarios pueden acceder directamente a esa sección en cuestión, en lugar de tener que ir buscándola por toda la página.

Generamos esos enlaces de forma algorítmica, basándonos en la estructura de la página, así podemos mostrarlos para cualquier sitio web (y por supuesto, no hay dinero de por medio, vamos, que no puedes pagar para tener estos enlaces). Sin embargo, hay algunas cosas que puedes hacer para aumentar las posibilidades de que estos enlaces aparezcan para tus páginas. Primero, asegúrate de que las páginas de tu sitio web sean extensas y que cubran varios temas; que estén bien estructuradas, es decir, que cuenten con secciones bien marcadas y que posean un orden lógico. Segundo, asegúrate de que cada sección tiene un texto ancla asociado a un nombre descriptivo (por ejemplo: no añadir sólo "Sección 2.1"), y que se incluya una "tabla de contenidos", la cual enlaza a cada uno de los textos ancla. El nuevo enlace incluido en las descripciones sólo aparecerá para búsquedas relevantes, así que no esperes verlos mucho en los resultados, sólo cuando pensemos que un enlace a una sección puede ser muy útil para una determinada búsqueda.

jueves, 1 de octubre de 2009