Penalización por contenido duplicado, ¿mito?

Escrito el 14 septiembre 2008, 03:24pm en Google

Tagged with: , , ,

Penalización por contenido duplicado

No, no hizo falta que Adam y Jamie de Mythbuster (*) se pusieran a experimentar con Google para comprobar si la teoría de la penalización por contenido duplicado era o no un mito; lo han aclarado desde el blog para webmasters de Google nomas.

Mucho se ha hablado durante estos últimos años de dominación de Google, en lo que a buscadores se refiere, sobre las posibles penalizaciones a causa del contenido repetido. Ahora bien, ¿de qué va todo esto?, según Google si tenemos el sitio A que genera contenido relativamente único y el sitio B toma ese mismo contenido y lo reedita sin aportar nada nuevo, esto se llama contenido duplicado y para esto SI hay penalización.

El problema

La confusión giraba en torno a si Google podría penalizar a una web que internamente posee contenidos repetidos, ya sea intencional o inocentemente, seria o no penalizada; la respuesta oficial dice que si se replica el contenido de forma maliciosa, como por ejemplo creando varios subdominios de un mismo sitio para ganar un mayor número de páginas indexadas, posiblemente seamos penalizados, pero sí en cambio poseemos un sistema para administrar nuestra web o blog como por ejemplo WordPress, y este no maneja muy bien este asunto haciendo que los buscadores indexen más de una vez el mismo texto NO seremos penalizados. Pero ojo, el problema ahora no está en la penalización, sino en cómo Google maneja esa duplicación.

La indexación

Una de las formas más comunes de generar contenidos duplicados sin quererlo son, las páginas de archivo y categorías. Si tenemos un índice (portada) en donde mostramos nuestras entradas y además repetimos las mismas dentro de nuestras secciones de archivo y categorías, lo más probable es que Google interprete esas páginas como iguales.

Los resultados

Cuando el algoritmo de Google se encuentra con más de una página pertenecientes a un mismo sitio web mostrando casi exactamente el mismo contenido, las agrupa es un solo conjunto, y cuando un usuario realiza una búsqueda relacionada a esas páginas, Google determina a solo una URL de ese conjunto como la más relevante, por lo que el usuario no verá 10 resultados de la misma web entre sus resultados sino las que el algoritmo del buscador interprete como la más útil para él. El drama ahora está en que quizás el documento elegido por Google no sea el que nosotros queremos mostrarle al usuario, y es ahí cuando debemos hacer uso de ciertas herramientas, como lo son los sitemaps y las meta etiquetas.

Espero que les haya quedado claro el tema, sino hagan uso de los comentarios que para eso están 🙂

Vía | Google Webmaster Central y TengoUn.com.ar

(*) MythBusters es un programa del canal Discovery Channel, en donde Adam Savage y Jamie Hyneman, los conductores, junto a un equipo técnico tratan de verificar los mitos y leyendas urbanas más famosas haciendo uso del método científico.

Comentarios (2)

  1. Arqui — marzo 4, 2009 a las 5:39 am

    Hola, la consulta es acerca del meta NOFLOW, por ejemplo:

    tu pagina tienes varias sub/paginas,
    pero tienes enlaces de páginas amigas o paginas de interés

    este metatag hace que no indexe esas paginas amigas, ó que no indexe tus sub/paginas interiores.

    eso no me quedó claro,.
    saludos.

  2. Martín Aberastegue — marzo 4, 2009 a las 10:46 am

    Los enlaces a paginas amigas estan en el index en donde si tiene el meta “follow” por lo que los links a dichas webs si son seguidos por los buscadores. En el resto de la web lo uso para prevenir el contenido duplicado nada mas.

Los comentarios están cerrados para este artículo.