Cómo mover tu contenido a una nueva ubicación


Mientras mantienen un sitio web, los webmasters pueden decidir moverlo total o parcialmente a una nueva ubicación. Por ejemplo, puedes mover el contenido de un subdirectorio a un subdominio o a un dominio totalmente nuevo. Cambiar la ubicación de tu contenido puede ser un poco pesado, pero merece la pena hacerlo correctamente.

Para que los motores de búsqueda comprendan mejor la estructura de tu nuevo sitio y que sea más fácil de utilizar para los usuarios, sigue estas directrices:

  • Es importante que redirijas a todos los usuarios y a todos los bots que visiten la ubicación anterior de tu contenido a la nueva ubicación con redireccionamientos 301. Para que la relación entre ambas ubicaciones quede más clara, asegúrate de que todas las URL antiguas dirijan a una nueva URL que aloje un contenido similar. Si no puedes utilizar redireccionamientos 301, puedes utilizar canónicos de dominio cruzado para los motores de búsqueda y mostrar un mensaje a los usuarios para informarles y dirigirles a la nueva ubicación del contenido.

  • No olvides verificar tanto la nueva ubicación como la anterior en la misma cuenta de Herramientas para webmasters de Google.


  • Comprueba que Googlebot pueda rastrear tu nueva ubicación con la función Explorar como Googlebot. Es importante que compruebes que Google puede acceder a tu contenido en la nueva ubicación. Además, asegúrate de que las URL anteriores no estén bloqueadas por una directiva Disallow de robots.txt, de forma que sea posible encontrar el redireccionamiento o el rel=canonical.

  • Si vas a mover tu contenido a un dominio o a un nombre de host completamente nuevo, infórmanos del cambio a través de la opción Cambio de dirección en la sección Información del sitio de las Herramientas para webmasters de Google.

Infórmanos si vas a mover tu contenido a través de las Herramientas para webmasters de Google


  • Si también has cambiado la estructura de URL del sitio, asegúrate de que sea posible moverte por el sitio sin que aparezcan páginas de error 404. Las Herramientas para webmasters de Google pueden resultar útiles a la hora de investigar posibles enlaces rotos. Selecciona Diagnóstico > Errores de rastreo para comprobar posibles errores en tu nuevo sitio.

  • Comprueba que tu sitemap esté actualizado.

  • Una vez que hayas configurado los redireccionamientos 301, puedes controlar tus páginas de error 404 para comprobar que se redirija a todos los usuarios a las nuevas páginas y evitar que acaben por error en direcciones URL rotas. Cuando un usuario acabe en una página de error 404 en tu sitio, intenta identificar a qué URL estaban intentando acceder, por qué a este usuario no se le ha redireccionado a la nueva ubicación de tu contenido y, a continuación, realiza los cambios adecuados en tus reglas de redireccionamiento 301.

  • Echa un vistazo a la sección Enlaces a tu sitio en las Herramientas para webmasters de Google e informa de la nueva ubicación a los sitios más importantes que acceden a tu contenido.

  • Como regla general, trata de evitar tener dos sitios rastreables con contenido idéntico o muy parecido sin un redireccionamiento 301 o sin especificar un rel=”canonical”.

  • Si el contenido de tu sitio es específico de una región en particular[c], también puedes comprobar las preferencias de orientación geográfica de la estructura de tu nuevo sitio en las Herramientas para webmasters de Google.

  • Por último, te recomendamos que no implementes otros cambios importantes cuando estés moviendo tu contenido a la nueva ubicación, como contenido a gran escala, la estructura de URL o actualizaciones de navegación. Si cambias demasiado a la vez, puedes confundir a los usuarios y a los motores de búsqueda.

  • Esperamos que encuentres estas sugerencias útiles. Si tienes alguna duda sobre cómo mover tu contenido a una nueva ubicación, te animamos a que visites el foro de ayuda para webmasters de Google y le pidas consejo a los webmasters expertos.



Escrito por Fili Wiese, equipo de Calidad de tráfico de anuncios y Kaspar Szymanski, equipo de Calidad de búsqueda de Google, Publicado por Javier Pérez, equipo de Calidad de búsqueda.

lunes, 30 de abril de 2012

Un paso más en el reconocimiento de sitios de gran calidad


Google ha dejado claro desde hace tiempo que la optimización de motores de búsqueda (SEO) puede ser muy positiva y constructiva , y no somos los únicos que lo pensamos.
Una optimización eficaz de los sitios web para los motores de búsqueda puede mejorar el rastreo de un sitio y permitir que páginas individuales sean más accesibles y fáciles de encontrar. La optimización de las web para los motores de búsqueda también incluye cosas tan simples como que la página incluya las palabras clave adecuadas y no los términos de la jerga del sector que nunca escribirían los usuarios normales.

Las optimizaciones “White hat” para los motores de búsqueda a menudo mejoran la usabilidad de un sitio, permiten crear contenido de gran calidad o aumentan la velocidad de aceso a los mismos, algo que resulta muy positivo tanto para los usuarios como para los motores de búsqueda.
Una optimización adecuada es sinonimo de prácticas de marketing de calidad, y pensar en formas creativas que permitan aumentar el atractivo de un sitio.
El resultado neto de crear un sitio de calidad suele ser un mayor interés por ese sitio en la Web, y a través de los motores de búsqueda y de las redes sociales puede traducirse en un aumento del número de usuarios que incluyen un enlace al sitio o que acceden a él.

El término opuesto a la optimización “white hat” es un concepto denominado “black hat web spam ” (no confundirlo con el "correo no deseado" o "email spam").
Para aumentar el tráfico o mejorar el posicionamiento, algunos sitios utilizan técnicas que no benefician a los usuarios y cuyo objetivo consiste en buscar métodos fáciles y rápidos o vulnerabilidades que permitan que las páginas alcancen mejores posiciones que las que les corresponden.
A diario observamos todo tipo de técnicas de web spam, desde el uso excesivo de palabras clave hasta redes de enlaces que intentan mejorar la posición de los sitios en las clasificaciones.

El principal objetivo de muchos de los cambios que hacemos en la manera de clasificar los sitios web es ayudar a los usuarios a encontrar sitios que proporcionen una experiencia de calidad y les ofrezcan la información que buscan. Asimismo, queremos que los “webmasters honrados” que crean sitios de calidad para los usuarios, no simplemente para los algoritmos, vean recompensados sus esfuerzos. 

Para ello, hemos lanzado cambios en Panda que han hecho que el numero de sitios de gran calidad mostrados en los resultados de busqueda aumente. A comienzos de este año, también lanzamos un algoritmo de diseño de página que rebaja la posición de los sitios que no incluyen mucho contenido en la mitad superior de la página.

En los próximos días, vamos a lanzar un cambio importante en el algorítmico enfocado específicamente para las prácticas webspam. El cambio rebajara la posición de los sitios que creemos que violan las directrices para webmasters de Google.
Siempre nos hemos esforzado en atajar el webspam en los resultados de búsqueda, y este algoritmo representa otro paso más en nuestros esfuerzos por reducir el web spam y promocionar contenido de gran calidad.
Aunque no podemos revelar ninguna señal específica, ya que no queremos que los spammers puedan manipular los resultados de búsqueda y empeorar la experiencia de los usuarios, recomendamos a los webmasters que se centren en crear sitios de gran calidad que ofrezcan una experiencia del usuario positiva y que utilicen métodos SEO "white hat" en lugar de técnicas de web spam.

A continuación, te mostramos un ejemplo la táctica webspam como es el uso excesivo de palabras clave tomado de un sitio que se verá afectado por este cambio:



Obviamente, la mayoría de los sitios afectados por este cambio no son tan "descarados" como el ejemplo anterior. En el siguiente ejemplo, te mostramos un sitio con patrones de enlace inusuales que también se vería afectado por este cambio. Ten en cuenta que, si intentas leer el texto en voz alta, descubrirás que los enlaces salientes no tienen ninguna relación con el contenido real y, de hecho, el texto de la página es completamente ininteligible:



Es posible que el contenido de los sitios afectados por este cambio no se reconozca fácilmente como spam sin un análisis más profundo o la experiencia necesaria, pero el denominador común es que estos sitios van mucho mas allá de lo que se considera optimización "white hat" y se adentran en técnicas de webspam que intentan manipular los resultados de busqueda.

El cambio se publicará para todos los idiomas de forma simultánea. Como referencia, el cambio de Panda inicial afectó aproximadamente al 12% de las consultas de forma significativa, mientras que este algoritmo afecta aproximadamente al 3,1% de las consultas en inglés en un grado que podría ser detectado por un usuario habitual. El cambio afecta aproximadamente al 3% de las consultas en algunos  idiomas, como alemán, árabe y chino, aunque el impacto será aún mayor en idiomas con mucho contenido no deseado. Por ejemplo, el 5% de las consultas en polaco sufrirán un cambio de tal magnitud que podría ser detectado por un usuario habitual.

Queremos que los usuarios apliquen técnicas de optimización "white hat" (o incluso que no utilicen técnicas SEO ) para que puedan centrarse exclusivamente en la creación de sitios web atractivos y de gran calidad. Como siempre, estamos abiertos a tus comentarios relacionados con como mejorar los algoritmos de clasificación para alcanzar este objetivo.


Matt Cutts, ingeniero distinguido.



Publicado por Javier Pérez, equipo de Calidad de búsqueda.

miércoles, 25 de abril de 2012

Vídeo sobre paginación con rel="next" y rel="prev"


Si sientes curiosidad sobre el anuncio relacionado con el uso de los elementos rel="next" y rel="prev" para contenido paginado que hicimos hace unos meses, puedes ver un vídeo sobre otros aspectos básicos de la paginación que hemos preparado para responder a tus preguntas.
Algunos ejemplos de contenido paginado pueden ser un artículo que abarque varias páginas o URL o una categoría de producto de comercio electrónico que abarque varias páginas.
Puedes utilizar los elementos "rel="next" y rel="prev" para indicar claramente a Google que quieres que tratemos esas páginas como una secuencia lógica y que, por tanto, debemos agrupar las propiedades de enlace de esas páginas y, normalmente, dirigir a los usuarios a la primera página de la secuencia.

Para obtener más información, ve el vídeo de presentación:

En este vídeo sobre paginación se tratan los aspectos básicos de los elementos rel="next" y rel="prev" y se indican los motivos por los que pueden resultarte útiles para tu sitio.



Diapositivas del vídeo sobre paginación

Otros recursos en los que puedes encontrar información sobre paginación:
¿Funciona también rel=next/prev como señal para que solo se incluya en el índice de búsqueda una página de la serie (la página 1 en la mayoría de los casos) o habría que incluir etiquetas "noindex" a partir de la página 2?

Cuando se implementan los elementos rel="next" y rel="prev" en páginas de componentes de una serie, se agrupan las propiedades de indexación de las páginas de componentes y se intenta dirigir a los usuarios a la URL/página más relevante, que suele ser la primera página. No es necesario marcar las demás páginas de la serie con etiquetas "noindex" a menos que se desee excluir esas páginas de los resultados de búsqueda.

¿Debo utilizar el elemento rel next/prev en la sección de un blog aunque los dos contenidos no estén estrictamente relacionados entre sí (sino que tengan simplemente una relación secuencial)?

Respecto al uso de rel="next" y rel="prev" para entradas de blogs que "no estrictamente relacionadas entre sí (sino que tengan simplemente una relación secuencial)", probablemente lo más adecuado no sea utilizar elementos de marcado de paginación, ya que las páginas secuenciales son mucho menos útiles para nuestro proceso de indexación que el contenido relacionado semánticamente (como la paginación de páginas de componentes de un artículo o de una categoría). Puedes incluir elementos de marcado en las páginas secuenciales, pero ten en cuenta que ese procedimiento no es el más útil.

Tenemos un sitio web de alquiler inmobiliario. Nuestros archivos muestran resultados basados en múltiples parámetros que determinan el tipo y el orden de los resultados específicos que se ofrecen. Algunos de estos parámetros son, por ejemplo, el "número de página", los "registros por página", el "orden de clasificación", la "selección de área"...

Parece que en vuestro sitio de alquiler inmobiliario os encontráis con muchas de las incidencias que afectan a los sitios de comercio electrónico... Aquí tenéis algunas ideas para comprender mejor vuestra situación:
  1. Está muy bien que utilicéis la función de parámetros de URL de las Herramientas para webmasters de Google para garantizar un rastreo más eficaz del sitio.

  2. Es posible que vuestro sitio pueda formar una secuencia rel="next" y rel="prev" sin parámetros (o con valores de parámetros predeterminados). También es posible formar secuencias de paginación en paralelo cuando los usuarios seleccionan ciertos parámetros (por ejemplo, una secuencia de páginas en la que haya 15 registros y una secuencia independiente cuando un usuario seleccione 30 registros). La paginación de páginas de componentes, incluso con parámetros, nos puede ayudar a indexar el contenido con más precisión.

  3. Aunque se puede establecer rel="canonical" para dirigir de una URL de componente a una página de visualización de todo el contenido, se considera inadecuado establecer como página canónica la primera página de una secuencia sin parámetros. No podemos ofrecer ninguna garantía respecto a esta implementación de rel="canonical".

Recuerda que, si tienes contenido paginado, puedes dejarlo tal como está y no añadir elementos de marcado rel="next" y rel="prev". No obstante, si tienes mucho interés en utilizar elementos de marcado de paginación para que podamos interpretar mejor el contenido de tu sitio, esperamos que estos recursos te ayuden a encontrar las respuestas que necesites.


Escrito por por Maile Ohye, coordinadora técnica de desarrollo de programas, Publicado por Javier Pérez, equipo de Calidad de búsqueda.

jueves, 19 de abril de 2012

Títulos de páginas más adecuados en los resultados de búsqueda


Los títulos de las páginas constituyen una parte importante de los resultados de búsqueda, ya que son la primera línea de cada resultado y los enlaces en los que hacen clic los usuarios que realizan búsquedas para acceder a los sitios web. 
Siempre hemos recomendado a los webmasters que incluyan títulos de páginas (y metadescripciones de los fragmentos) descriptivos y únicos para especificar a los usuarios que realizan búsquedas el tema de la página. 

Utilizamos un gran número de indicadores para determinar el título que se debe mostrar a los usuarios, principalmente la etiqueta <title> si el webmaster ha especificado una. 
No obstante, en el caso de algunas páginas, es posible que un único título no sea el más adecuado para mostrarse como respuesta a todas las consultas, por lo que disponemos de algoritmos que generan títulos alternativos para que los usuarios reconozcan páginas relevantes con mayor facilidad. 
Nuestras pruebas han demostrado que estos títulos alternativos suelen ser más relevantes para la consulta y que pueden mejorar considerablemente el porcentaje de clics en el resultado, lo que sirve de ayuda a los usuarios que realizan búsquedas y a los webmasters. En aproximadamente la mitad de los casos, este es el motivo por el que mostramos un título alternativo. 

En otras ocasiones, los títulos alternativos se muestran para páginas que no tienen título o en las que el webmaster ha especificado un título no descriptivo en el código HTML. 
Por ejemplo, un título en el que se utilice únicamente el término "Página principal" no indica realmente el tema de la página. Otra incidencia común que hemos observado es que, en ocasiones, los webmasters utilizan el mismo título en casi todas las páginas de un sitio web, unas veces repitiéndolo de forma exacta y otras utilizando pequeñas variaciones. 
Por último, también intentamos sustituir los títulos innecesariamente largos o difíciles de leer por alternativas más concisas y descriptivas. 

Para obtener más información sobre cómo puedes escribir metadescripciones y títulos más adecuados, así como sobre los indicadores que utilizamos para generar títulos alternativos, hemos actualizado recientemente el artículo del Centro de asistencia relacionado con este tema
Asimismo, tratamos de informar a todos los webmasters cuando descubrimos títulos que se pueden mejorar en sus sitios web mediante la función de sugerencias en HTML incluida en las Herramientas para webmasters de Google, a la que puedes acceder a través de la sección "Diagnóstico" del menú situado a la izquierda. 

Como siempre, si tienes preguntas o comentarios, comunícanoslo a través del foro de ayuda para webmasters


Publicado por Pierre Far, analista de tendencias de webmasters. Publicado por Javier Pérez, equipo de Calidad de búsqueda.







domingo, 15 de abril de 2012

Algunas consideraciones a tener en cuenta en tu estrategia de enlaces


Optimizar un sitio web para que su contenido esté bien representado en los motores de búsqueda puede ser un procedimiento largo y complejo. Lamentablemente, algunas veces los propietarios de los sitios se centran en aspectos erróneos y contratan a agencias que emplean técnicas bastante dudosas, lo que se traduce en considerables pérdidas de tiempo y de dinero.

Por ejemplo, mientras que el contenido único y de calidad atrae enlaces por sí solo con el tiempo, algunos optimizadores de motores de búsqueda (Search Engine Optimizers, SEOs) hacen ofertas de generación de enlaces garantizando resultados muy rápidos y una gran mejora de la posición (llegando incluso al puesto número 1) en un breve período de tiempo. Una de las estrategias que pueden emplear esos SEOs para conseguir enlaces de una forma fácil y rápida es crear o comprar enlaces de sitios destinados exclusivamente a la generación de enlaces. Normalmente, esos sitios tienen un contenido genérico y de baja calidad y ofrecen un mal servicio al usuario.

¿No sabes exactamente de qué estamos hablando? Veamos un ejemplo:

Las camas son buenas porque podemos dormir en ellas. La mayoría de la gente se dedica a dormir por la noche. Puedes comprar mantas baratas en las tiendas. Las mantas te dan calor por la noche. También puedes comprar un calentador. El calentador suele ser la mejor opción porque produce más calor y lo puedes apagar en verano mientras estás de vacaciones en francia.


El texto anterior puede parecer un poco exagerado, pero lo cierto es que generalmente estos dominios creados para la generación de enlaces incluyen contenido bastante genérico, repetitivo y frecuentemente inútil que está muy optimizado para una serie de palabras clave y de textos de anclaje.
Con bastante frecuencia, contienen una combinación de artículos completamente inconexos (por ejemplo, el artículo sobre mantas del ejemplo podría ir seguido de un artículo sobre tarjetas de crédito y, tal vez, de otro sobre neumáticos de coches). Este contenido es de muy baja calidad y rara vez puede aportarle algo al usuario.

Este tipo de contenido se puede alojar en un host gratuito, un tipo de dominio de reciente creación que incluye palabras clave genéricas en el nombre de dominio, o bien en dominios caducados, es decir, dominios que no han renovado sus propietarios y que posteriormente han sido adquiridos por otra persona.

En cualquier caso, sea cual sea el lugar en el que se aloje el contenido, estamos mejorando cada vez más nuestras técnicas de análisis de enlaces y, aunque en algunos casos este sistema de generación de enlaces pueda producir algunos efectos positivos temporales a corto plazo, lo más probable es que esos enlaces acaben descontándose y que pierdas el tiempo y el dinero que hayas invertido en su adquisición.

Por eso, te recomendamos que dediques esos esfuerzos a algo que pueda suponer un beneficio más sostenible para tu sitio y para tus usuarios a largo plazo. Crea contenido único y de calidad que mantenga el interés de los usuarios, participa activamente en medios sociales y aplica alguna técnica de marketing tradicional y los enlaces llegarán por sí solos. 

Este método requiere tiempo y esfuerzo, pero te servirá para conseguir enlaces de calidad de una forma natural que perdurarán a lo largo del tiempo.

Una de nuestras anteriores entradas del blog puede darte algunas ideas sobre cómo conseguir enlaces de calidad.

Si te preocupa el tipo de enlaces que pueden estar asociados a tu sitio, comprueba los backlinks en tu cuenta de las Herramientas para webmasters de Google. Consulta todos tus enlaces y comprueba de dónde proceden. ¿Qué aspecto tiene la página que enlaza con tu sitio? ¿Tiene contenido de calidad que aporta algún valor al usuario? ¿Tiene relación con el enlace que dirige a tu sitio? ¿Cómo se consiguió ese enlace? ¿Fue por méritos?
Si tienes una gran cantidad de enlaces procedentes de sitios de spam o de baja calidad (o cualquier otra clase de enlaces no naturales), intenta deshacerte de ellos.

Para muchos sitios, existen otras técnicas lícitas de optimización de los motores de búsqueda que permiten mejorar el rendimiento de un sitio en poco tiempo. Por ejemplo, el webmaster puede mejorar la capacidad de rastreo, la experiencia del usuario y la velocidad de su sitio con poco esfuerzo y tener un mayor control sobre los resultados obtenidos. 
Si no sabes exactamente por dónde empezar, echa un vistazo a la guía de introducción a la optimización de motores de búsqueda, en la que posiblemente encontrarás algo que pueda ayudarte a mejorar los resultados de tu sitio web en los motores de búsqueda. También puedes examinar el informe SEO de Google (SEO report card) , que hemos utilizado para comprobar la adecuación de nuestros propios sitios web a los motores de búsqueda (y consultar algunos aspectos que hemos descubierto que podemos mejorar).

Si decides utilizar un SEO para optimizar el rendimiento de tu sitio, asegúrate de elegir bien el SEO y de informarte previamente sobre los planes que se van poner en marcha para tu sitio.

Como siempre, si tienes preguntas más específicas, puedes acceder al foro para webmasters para recibir consejos e información de webmasters que estarán encantados de ayudarte y de debatir contigo.


Escrito por Uli Lutz y Daniela Loesser, equipo de Calidad de búsqueda. Publicado por Javier Pérez, equipo de Calidad de búsqueda.

miércoles, 11 de abril de 2012

Errores de rastreo: la próxima generación



La función de errores de rastreo es una de las más populares de las Herramientas para webmasters de Google, y hoy vamos a lanzar varias mejoras bastante importantes que aumentarán su utilidad.

Ahora es posible detectar y notificar un gran número de tipos de errores nuevos. Para poder entender los nuevos datos, hemos dividido los errores en dos secciones: errores del sitio y errores de URL.




Errores del sitio

Los errores del sitio son errores que no son específicos de una URL determinada, sino que afectan a todo tu sitio. Entre estos errores, se incluyen errores de resolución de DNS, incidencias relacionadas con la conectividad de tu servidor web y errores de recuperación de tu archivo robots.txt. 
Anteriormente, solíamos informar de estos errores por URL, pero eso no tenía mucho sentido porque no eran errores específicos de URL individuales; de hecho, ni siquiera permitían que Googlebot solicitara una URL. Ahora realizamos un seguimiento de las tasas de fallo de cada tipo de error del sitio. También intentaremos enviarte alertas cuando estos errores sean lo suficientemente frecuentes que merezcan ser objeto de atención.




Consultar recuentos y tasas de error del sitio a lo largo del tiempo



Asimismo, si no se ha producido ninguna incidencia (y no has experimentado errores recientes) en estas áreas, como ocurre en muchos sitios, no te molestaremos con esta sección. Simplemente te mostraremos algunos marcadores de verificación útiles para informarte de que todo marcha sobre ruedas.


Un sitio sin errores del sitio recientes




Errores de URL


Los errores de URL son errores específicos de una página determinada, lo que significa que cuando Googlebot intentó rastrear la URL, pudo resolver tu DNS, establecer conexión con tu servidor, recuperar y leer tu archivo robots.txt y, a continuación, solicitar esa URL, pero se produjo algún error posteriormente. 
Los errores de URL se dividen en diferentes categorías en función de la causa del error. Si tu sitio muestra datos de Google Noticias o para móviles (CHTML/XHTML), mostraremos categorías independientes para esos errores.

Errores de URL por tipo con recuentos completos actuales y del historial



Menos es más


Anteriormente, solíamos mostrarte un máximo de 100.000 errores de cada tipo. Intentar hacer uso de toda esa información era como beber de una manguera contra incendios; además, no era posible determinar cuáles de esos errores eran importantes (por ejemplo, la inactividad de la página principal) o menos importantes (por ejemplo, un error ortográfico en un enlace a tu sitio incluido en el sitio personal de otro usuario). No existía una forma realista de ver los 100.000 errores ni de ordenarlos, buscarlos o marcar tu progreso. 
En la nueva versión de esta función, nos hemos centrado en intentar ofrecerte únicamente los errores más importantes desde el principio.
Para cada categoría, te ofreceremos los 1.000 errores que consideramos más importantes y que puedes resolver. Puedes ordenar y filtrar esos 1.000 errores principales, informarnos cuando creas haberlos solucionado y ver información detallada sobre ellos.

Filtrar y ordenar de forma instantánea errores de cualquier columna


Algunos sitios tienen más de 1.000 errores de un determinado tipo, por lo que seguirá siendo posible que veas el número total de errores que tienes de cada tipo, así como un gráfico en el que se muestran datos del historial de un período de 90 días.
Para aquellos que consideran que la información detallada de 1.000 errores, junto con un recuento global total, no es suficiente, tenemos intención de añadir un acceso mediante programación (un API) que te permita descargar cada uno de los últimos errores que se hayan producido, por lo que nos gustaría que nos enviaras tus comentarios si necesitas más información al respecto.

Asimismo, hemos eliminado la lista de páginas bloqueadas por el archivo robots.txt, ya que, aunque estas páginas pueden resultar útiles en ocasiones para diagnosticar un error relacionado con tu archivo robots.txt, suelen ser páginas que has bloqueado de forma intencionada.
Queríamos centrarnos realmente en los errores, por lo que te recomendamos que consultes la información sobre URL robotizadas que se mostrará en breve en la opción "Acceso de rastreadores" de la sección "Información del sitio".



Profundiza en los detalles


Si haces clic en una URL de error individual de la lista principal, aparecerá un panel de detalles con información adicional, incluidos datos de la última vez que intentamos rastrear la URL y de la primera vez que detectamos un error, así como una breve explicación del error.

Información detallada de cada error de URL


En el panel de detalles, puedes hacer clic en el enlace de la URL que ha provocado el error para que compruebes lo que ocurre al intentar acceder a ella. También puedes marcar el error como "solucionado" (posteriormente, ampliaremos este tema), ver contenido de ayuda del tipo de error, mostrar los sitemaps que incluyen la URL, ver otras páginas que incluyen enlaces a esa URL e, incluso, hacer que Googlebot explore la URL de forma inmediata, ya sea para obtener más información o para comprobar que has solucionado el error correctamente.


Consultar páginas que incluyen enlaces a esta URL




¡Toma medidas!


Una de las novedades de la función de errores de rastreo que más nos gusta es que ahora puedes centrarte realmente en solucionar primero lo más importante. Hemos clasificado los errores de modo que los que aparezcan en la parte superior de la lista de prioridades serán los que necesitan alguna acción por tu parte, ya sea solucionar enlaces rotos en tu propio sitio o errores en el software de tu servidor, actualizar tus sitemaps para eliminar URL obsoletas o añadir un redireccionamiento 301 para redirigir a los usuarios a la página "real".

Para determinar la clasificación de los errores, nos basamos en una serie de factores, incluido el hecho de si has incluido o no la URL en un sitemap, cuántos sitios incluyen enlaces a tu URL (y si alguno de ellos aparece también en tu sitio) y si la URL ha recibido tráfico de búsqueda recientemente.

Una vez que creas haber solucionado la incidencia (puedes probarlo explorando la URL como Googlebot), podrás comunicárnoslo marcando el error como "solucionado" si eres un usuario con permisos de acceso completos. De esta forma, el error se eliminará de tu lista. En el futuro, los errores que hayas marcado como solucionados no se incluirán en la lista de errores principales, a menos que hayamos detectado el mismo error al intentar volver a rastrear una URL.

Seleccionar errores y marcarlos como solucionados


Nos hemos esforzado enormemente en la nueva función de errores de rastreo, por lo que esperamos que te resulte muy útil. Indícanos qué te parece y, si tienes alguna sugerencia, visita el foro.



Escrito por Kurt Dresner, equipo de Herramientas para webmasters de Google. Publicado por Javier Pérez, equipo de Calidad de búsqueda.

martes, 3 de abril de 2012