¿Los datos de mashup se cuentan como contenido duplicado?

Sin entrar demasiado en el área turbia del raspado web, la conclusión es que corre el riesgo de que su contenido se clasifique como contenido duplicado, ya que se muestra en otro lugar. Sin ver o saber más sobre su sitio, es difícil decirlo con certeza.

Dado que se realiza de manera completamente algorítmica, existe la posibilidad de que si el contenido de cada página es lo suficientemente diferente a cualquier otra URL en la web, podría salirse con la suya, aunque siempre existe la posibilidad de que lo atrapen en el futuro.

Básicamente tienes un par de opciones:

1) Corra el riesgo y permita que su sitio sea rastreado. Siempre puede buscar obtener tráfico de fuentes alternativas como las redes sociales. Si hace esto, me aseguraría de que ‘mezcle’ el contenido tanto como sea posible para intentar crear algo que se vea único en los motores de búsqueda.

2) Intenta agregar contenido único. En Frugaal.com decidimos implementar la etiqueta meta = ‘noindex’ hasta que un usuario deja una reseña en la página. De esta manera, no se rastrearán hasta que haya un contenido de texto único allí, pero las páginas seguirán siendo accesibles para los usuarios con fines de comparación.

Pregunta difícil sin una respuesta directa.

Si los datos están bien mezclados para ser, como usted dijo, significativos, y su proceso no está violando los términos de uso de ningún otro sitio, es probable que no experimente ninguna penalización.

Sin embargo, tendrá dificultades para clasificar las palabras clave serias hasta que tenga un contenido único increíble. Sin embargo, es posible que aún pueda desempeñarse bien en nichos de cola larga que no estén demasiado llenos.

Los datos en sí mismos probablemente no se considerarán contenido duplicado. Los datos son simplemente una recopilación de hechos, y los hechos no cambiarán en la web. Por ejemplo, el iPhone tiene una pantalla de 3.5 pulgadas … tendrá una pantalla de 3.5 pulgadas en la web, sin importar en qué sitio se encuentre.

La forma en que presenta esos datos es lo que determinaría el contenido duplicado. El robot de Google es obviamente muy inteligente, por lo que notará cambios en la estructura de los datos, es decir, el HTML y CSS que lo rodean.

Dicho esto, si no agrega mucho valor más allá de los datos básicos, es probable que sea muy difícil obtener mucho amor de Google.