Hice un análisis de datos de las recomendaciones obtenidas de las búsquedas de “Clinton” y “Trump”, siguiendo las recomendaciones 5 veces, justo antes de las elecciones.
Las conclusiones fueron:
- Más del 80% de los videos recomendados eran pro-Trump o, mejor dicho, anti-Clinton
- La cantidad de información falsa / noticias falsas recomendadas por el algoritmo es preocupante
- YouTube es un compromiso de maximización (clics + tiempo de reproducción). Maximizar el compromiso puede crear una alineación con valores y comportamientos que son particularmente atractivos para un pequeño grupo de personas a costa de otros, como el racismo, la homofobia, el sexismo, la xenofobia, el acoso escolar, el odio religioso, la violencia o las conspiraciones.
Es por eso que vemos tanto de eso en YouTube - La mayoría de las personas solo ven recomendaciones cercanas a lo que suelen verse (efecto de burbuja de filtro), por lo que no tenemos idea de lo que sucede en YouTube en promedio .
Visualizaciones:
- Cómo crear un sistema de clasificación que dependa de tres variables (nivel, resultado y tiempo) cuanto más altas sean las dos primeras, mejor, mientras que por un tiempo, un valor menor es mejor
- ¿Cuál es más artístico, un programador o un piloto?
- Cómo generar todas las permutaciones de fila de una matriz 2D dada de forma recursiva
- ¿Dónde debería comenzar si quiero implementar un algoritmo de detección de movimiento en FPGA?
- ¿Son los problemas NP completos también problemas NP difíciles? ¿Por qué?
Visualización de YouTube de una búsqueda de Clinton
Visualización de YouTube de una búsqueda de triunfo
Publicación de blog completa al respecto:
¿La IA de YouTube favorece a Trump y las noticias falsas? Un llamado a la transparencia