¿En qué áreas del aprendizaje automático es crucial la cuantificación de la incertidumbre?

Solo para dar algunos ejemplos informativos, piense en autos sin conductor. Tendrían que ser programados para tomar una decisión cada milisegundo, o incluso menos.

Pero hay casi un número infinito de variables a tener en cuenta, por lo que no todas las situaciones se pueden programar. Por lo tanto, siempre existe incertidumbre acerca de lo que deberían hacer los automóviles.

Tome esta serie de ejemplos:

  1. Un auto sin conductor está conduciendo a lo largo de una carretera, y un perro corre delante de él. Muchos humanos se desviarían a otro carril para evitar golpear al perro. Pero si hay otro automóvil en ese carril, podría haber un accidente que hiera o mate a otra persona. Afortunadamente, un automóvil autónomo sabrá si hay otro automóvil en el siguiente carril, y estaría programado para cambiar de carril si no hay un automóvil, pero para golpear al perro si el automóvil no puede cambiar de carril de manera segura. Este es un ejemplo bastante simple.
  2. Un auto sin conductor está conduciendo a lo largo de una carretera, y un niño corre delante de él. Nuevamente, la mayoría de los humanos se desviarían a otro carril para evitar golpear al niño. Pero si hay otro automóvil en ese carril y ese automóvil tiene dos adultos y tres niños, podría haber un accidente que hiera o mate a muchas personas. Un automóvil autónomo debe saber si hay otro automóvil en el siguiente carril, y debe saber cuántas personas hay en el automóvil. (Tal vez ese automóvil comunicaría a los automóviles a su alrededor cuántos pasajeros tiene, sus edades y sus posiciones en el automóvil). ¿Cómo programarías esto? Parece que sería “mejor” si el auto sin conductor golpeara al niño corriendo.
  3. Supongamos que tenemos el mismo escenario que el anterior, pero el automóvil en el siguiente carril tiene un ocupante de 60 años. ¿Programarías el auto para cambiar de carril porque la vida de un niño es más valiosa que la de un hombre de 60 años?

Ahora agregue probabilidades inciertas, tales como: “Si yo, el auto sin conductor, puedo cambiar de carril y hacerlo de tal manera, ¿cuál es una estimación de probabilidad de que mataré o heriré x número de personas en ¿ese coche?”

Es imposible programar todas las posibilidades en el automóvil. Además, tendríamos que programar con cierta “moralidad” para que los automóviles puedan tomar decisiones en las situaciones descritas anteriormente. Y, sin embargo, es poco probable que los diseñadores tengan la misma “moralidad” porque deben programar el valor de una lesión o muerte para varias personas.

Entonces la cuantificación de la incertidumbre es esencial. Pero la aplicación de estas cuantificaciones a veces será una decisión decisiva. Buena suerte con eso.


No me malinterpretes. Una vez que los autos autónomos se vuelvan muy buenos, habrá muchos menos accidentes, por lo que habrá que tomar menos decisiones extremadamente difíciles.

Mi reacción inicial fue que la cuantificación es crucial en el aprendizaje supervisado, pero mientras releía los detalles de la pregunta, pensé “¿Por qué estamos discutiendo los aspectos estadísticos y no los productos de datos?”

Entonces, si su enfoque es estadístico o matemático, entonces diría que cualquier cosa que sea inferencia estadística o predicción supervisada tiene una cuantificación de incertidumbre como crucial.

Si, por otro lado, lo mira desde la perspectiva del producto de datos, cuantificar la incertidumbre siempre es crucial. Los algoritmos de aprendizaje automático que alimentan productos de datos cumplen un cierto objetivo. Ese objetivo se prueba como una hipótesis, por lo que la incertidumbre está presente en todos los proyectos de aprendizaje automático.