¿La inteligencia artificial será propensa a los mismos prejuicios que los humanos? Si no, ¿cómo se evita (/ será)?

Como todavía no tenemos ninguna IA de este tipo, no hay forma de saberlo. De su pregunta deduzco que está comparando el comportamiento de un AGI teórico (inteligencia general artificial) con el comportamiento humano. Además, supongo que está preguntando sobre prejuicios negativos complejos, como los prejuicios y el racismo.

Si se crea un AGI basado en modelos de neurociencia cognitiva computacional (CCN), existe una ligera posibilidad de que se muestren sesgos similares a los humanos. Esto depende en parte de la naturaleza de la capacitación brindada a la AGI.

Si se crea un AGI basado en redes neuronales profundas y otros modelos no humanos, es muy poco probable que el AGI muestre sesgos humanos. Los mecanismos subyacentes que contribuyen a los prejuicios humanos no están presentes.

En cualquier caso, los prejuicios no humanos estarán presentes. Aquellos que crean y refinan AGIs harán un esfuerzo sustancial para disminuir cualquier sesgo indeseable (la definición de indeseable es una variable subjetiva significativa). Para cuando un AGI sea lo suficientemente maduro como para considerarse viable, la mayoría de los sesgos negativos se eliminarán del sistema. Aquí nuevamente, la definición de negativo es subjetiva.

Una vez que un AGI comienza a revisar sus propios procesos, nadie sabe qué comportamientos se producirán.