Querido Peter,
esa es una tarea muy difícil a la que apunta, pero no imposible 🙂 Entonces, primero le sugiero que se haga algunas preguntas:
-> ¿Cómo defino ‘nueva información’? ¿Cómo hago para que un sistema sea lo suficientemente robusto como para reconocer que ‘información x’ = ‘información y’ (vea el ejemplo a continuación)?
- ¿Cómo puede Google diseñar un procesador más adecuado para el entrenamiento de redes neuronales profundas que la GPU?
- ¿Cómo se puede aplicar el aprendizaje profundo a los sistemas de recomendación?
- ¿Por qué necesitamos Python y Java para el aprendizaje automático mientras tenemos R?
- ¿Cuáles son los mejores materiales de física estadística para redes neuronales profundas?
- ¿Cuáles son algunas falacias o errores comunes cometidos por los principiantes en estadística, aprendizaje automático y análisis de datos?
Por ejemplo, URL1-> Apple es una fruta. vs URL2-> Una fruta roja es consumida con mayor frecuencia por los humanos para estimular su sistema inmunológico.
—-> En este caso, tiene ‘nueva información’ sobre la ‘manzana’ en URL2, sin embargo, ¿reconocerá su algoritmo que ‘manzana’ de URL1 es la ‘fruta roja’ de URL2?
Este es el punto de vista lógico. Ahora, en lo que respecta a ‘copiar y pegar’, mi pregunta es:
-> ¿Qué quieres lograr aquí? ¿Desea verificar el plagio o simplemente busca un algoritmo que pueda clasificar el contenido antiguo frente al nuevo?
Cuando encuentre respuestas justificadas a estas preguntas, escríbame una línea;)
mario