¿Qué beneficios tendría la IA sobre la inteligencia humana?

La IA no es vulnerable a decisiones subóptimas que los humanos toman gobernadas por partes primitivas de nuestro cerebro. No siente miedo, amor, esperanza, enojo y no cometerá los errores que cometemos por eso.

Hay tantos malos ejemplos de decisiones que tomamos regidas por estas cosas:

  • El anclaje nos hace emitir malos juicios sobre las compras comparativas.
  • La aversión a la pérdida nos hace menos propensos a valorar algo que ya poseemos más que su verdadero valor.
  • Hay literalmente cientos de ejemplos de tales sesgos; vea esta Lista de sesgos cognitivos. Otras fuentes que recomendaría leer son predeciblemente irracionales, pensantes, rápidas y lentas.

Ahora hay muchas cosas que un algoritmo ML ya hace mejor que los humanos.

  • Sistemas de recomendación para películas, compras, música, etc.
  • Autos sin conductor en un mundo donde todos los autos son autos sin conductor
  • Mercados de predicción
  • etc.

… y muchos otros que es casi tan bueno y superará pronto

  • Problemas de percepción visual como detectar entidades en imágenes
  • Reconocimiento de voz
  • Traducción de idiomas
  • Diagnóstico médico
  • etc.

Se pone interesante porque la IA tomará decisiones con las que no estamos “de acuerdo” subjetivamente porque no será coherente con los “valores humanos”. El problema es que estos valores humanos a menudo están significativamente influenciados por estos sesgos.

Ahora, una IA no solo tiene que ser objetivamente mejor que los humanos de alguna manera medible, sino que también debe ser percibida por los humanos como mejor que los humanos. Hoy vemos que esto se desarrolla en el mundo que nos rodea.

Tome el fatal accidente del piloto automático de Tesla, por ejemplo. Tesla deja en claro que se trata de tecnología de asistencia y no se supone que se haga cargo de los humanos por completo. Sin embargo, las personas confían en la tecnología más de lo que deberían y ceden ante la automatización más allá de sus límites. Esto también ha sucedido históricamente, el vuelo 447 de Air France se estrelló porque los pilotos no estaban preparados para el cambio de piloto automático a manual. El piloto automático ha recorrido más millas sin accidentes que los conductores normales, pero lo mantendremos en una barra más alta. Por esta razón, Google tiene una filosofía diferente hacia los autos sin conductor y cree que no podemos confiar en que los humanos estén listos para hacerse cargo.

La raza humana continuará siendo guiada por nuestros sentimientos y cerebros reptilianos sobre la “racionalidad pura” durante mucho tiempo. Buscamos el amor y la felicidad, cosas que a menudo son contradictorias con el comportamiento puramente racional. Dado eso, elegiremos desplegar IA en asuntos donde elegimos explícitamente “diferir a la racionalidad”. Este es el tipo de decisiones que las computadoras tomarán mejor que nosotros y confiaremos en que tomarán mejores decisiones que nosotros.

Mientras tanto, en otros lugares usaremos humanos para aumentar las decisiones de IA donde los sesgos cognitivos o los asuntos de confianza están en juego.

  • ML probablemente tomará decisiones de diagnóstico consistentemente mejores que los médicos pronto, si es que no lo está ya en muchos casos, pero de todos modos querremos la opinión de un médico porque podría haber un “problema técnico en la máquina”.
  • Mantendremos a la IA con estándares mucho más altos para los autos sin conductor que las personas porque no podemos tolerar el “error humano” de una máquina.

Habrá una clase de decisiones que AI mejorará, pero vamos a querer una segunda opinión en el futuro.

Finalmente, hay cuestiones de gusto, donde la racionalidad en realidad no es dominante y la percepción humana puede ser fácilmente influenciada o redefinida, por ejemplo, qué es la música popular puede ser cambiada por artistas fuertes y aunque podría usar Machine Learning para comprender los gustos y generar “atractivos” música “no se puede” redefinir un género “con patrones aprendidos estadísticamente, que derivan de conocimientos previos. Por lo tanto, siempre habrá una clase de conocimiento humano, en gran parte en torno al descubrimiento y la novedad de que la IA no hará “mejor” que los humanos.

No se queja cuando no hay café, no necesita estar “de humor” para hacer su trabajo.

No se degrada, no se cansa. Estas son mejoras significativas en el control a nivel humano para tareas que la IA puede hacer bien incluso hoy. Probablemente preferiría un piloto automático de Tesla / Google en lugar de un adolescente privado de sueño (y posiblemente borracho) conduciendo a casa.