Hola señora Vera. No hay “noticias verdaderas” en CS. Sin embargo, las noticias falsas son menos relevantes que las noticias serias. En principio, las noticias falsas son menos costosas de leer y comprender Y / O tienen un alcance indirecto mucho más amplio de razonamiento abductivo (implícito) de lo que comúnmente se supone que es en las noticias serias. Eche un vistazo a mi tesis doctoral sobre Theory of Relevance (sobre MIT Theory of Relevance of Sperber & Wilson). Se puede cuantificar solo en grandes números.
EDITADO
- ¿Cuál es el mejor algoritmo para descubrir todos los nodos de la red y mantener esa red en tiempo real?
- ¿Cuáles son algunas buenas implementaciones para modelos gráficos probabilísticos? En particular, quiero poder crear y visualizar redes de creencias y aplicar varios algoritmos como la eliminación de variables y otros algoritmos de aproximación.
- Durante el aprendizaje automático para la detección de objetos, ¿cómo puedo simular el efecto de la iluminación de diferentes días en mi conjunto de datos de entrenamiento?
- ¿Es cierto que la cantidad de datos es, con mucho, la ventaja competitiva más importante para las empresas de aprendizaje automático (por ejemplo, en automóviles autónomos)?
- ¿Cuál es una buena referencia para aprender cómo implementar y usar la búsqueda de línea para la optimización?
Doy ejemplos inventados en el caso de la reciente carrera electoral de Estados Unidos, Donald Trump x Hillary Clinton, basada en el contenido del periódico de mi país. La información a continuación fue inventada para representar las ideas lingüísticas.
A. NOTICIAS GRAVES:
“El muro de Trump a lo largo de la frontera con México se construiría con concreto danés de 3 metros de espesor”.
16 palabras Estrés cognitivo (energía): 10 unidades.
B. NOTICIAS FALSAS:
“Trump ama los muros en general y también odia a los mexicanos y quiere castigar a los pobres”
16 palabras Estrés cognitivo (energía): 5 unidades.
Ahora tome el segundo análisis por alcance implícito del contexto cognitivo de las abducciones:
A. NOTICIAS GRAVES:
“A Trump le encanta comer pasteles de manzana y chocolate desde su infancia”.
11 palabras Cascada abductiva: 3 inferencias implícitas promedio (está engordando debido a eso, etc.)
B. NOTICIAS FALSAS:
“A Trump le encanta espiar y aparearse con mujeres que usan labiales rojos”
11 palabras Cascada abductiva: muchas más de 3 inferencias implícitas promedio.
Saludos.