¿Podría una IA fuerte (similar a la inteligencia humana) ser mejor para superar los prejuicios que una persona?

Principalmente sí, pero también depende de cómo se haya diseñado la IA. En la mayoría de los casos, la IA no tendría el mismo sesgo que los humanos. Pero bajo estrictas limitaciones de tiempo, puede tener un sesgo en cómo interpreta las probabilidades y la probabilidad de eventos u observaciones de un entorno. Esto se refiere principalmente a las probabilidades bayesianas y la implementación de la navaja de afeitar de Ockham para predecir la observación más probable de un entorno particular.

Con tales sistemas de IA, la predicción “más simple” a menudo se considera la más probable. La simplicidad en este sentido suele estar determinada por diversas medidas de complejidad, como la complejidad de Kolmogorov. Entonces, si una IA no tiene tiempo suficiente para explorar todas sus predicciones con respecto a un entorno particular, entonces podría argumentarse que tiene algún sesgo de forma en cómo selecciona e implementa sus acciones.

Pero en cualquier caso, la IA fuerte debería ser generalmente mejor para superar el sesgo que una persona.