¿Alguna vez ha habido una situación en la que la IA no funcionó correctamente e hizo algo para lo que no estaba programada?

“Mal funcionamiento” es un poco exagerado en este contexto, porque la IA siempre hará lo que usted programe. Es solo en algunos contextos, lo que programamos puede tener consecuencias no deseadas.

Uno de los ejemplos más famosos es el Deep Blue de IBM en la famosa partida de ajedrez contra Garry Kasparov en 1997. En las últimas etapas del juego, Deep Blue jugó un movimiento que Kasparov y otros espectadores simplemente no entendieron. En ese momento, Kasparov pensó que la máquina había visto una variación increíblemente lejana en el futuro que no tenía esperanza de ver y perdió una gran cantidad de confianza en su capacidad de igualar la computadora. Algunos incluso afirman que este movimiento, anunciado más tarde como un error en el software en el que Deep Blue llegó a un caso en el que eligió al azar un movimiento en el tablero, fue la razón por la que Kasparov perdió esta partida.

Otro experimento mental que a la comunidad de IA le gusta usar es el ejemplo de una aspiradora. En un contexto de IA, generalmente existe una noción de una función de recompensa, que brinda retroalimentación positiva a las acciones que creemos que son buenas y retroalimentación negativa a las acciones que creemos que son malas. Digamos que modelamos nuestra función de recompensa para una aspiradora que limpia la mayor cantidad de polvo en un período de tiempo determinado. Parece bastante racional, ¿verdad?

Resulta que la acción óptima para la aspiradora con esta función de recompensa es aspirar el polvo, escupirlo, aspirarlo, escupirlo, etc. Así que este es otro ejemplo en el que la IA hizo exactamente lo que programamos hacerlo, pero nuestra función de recompensa dio un resultado que no habíamos considerado.

¿Un error informático ayudó a Deep Blue a vencer a Kasparov?

No es que yo trabaje en IA, pero este incidente fue narrado por Balaji Viswanathan, en una quora reunión en Bangalore.

Todos lo conocen, el CEO de Invento y un conocido escritor de Quora.

Si bien el tema de conversación fue, “cómo fue el avance de la tecnología haciendo que la gente sea perezosa”, nos contó sobre cómo él y su equipo trabajaron una vez para hacer autos eficientes y autónomos.

Una vez que se les ocurrió esta idea. ¿Por qué los autos deberían divertirse tanto? ¿Por qué no hacer bicicletas sin conductor?

Entonces experimentaron en bicicletas, en un Honda Activa. Hicieron una bicicleta autónoma que se controlaba mediante la computación en la nube. Todo lo que el piloto tenía que hacer era sentarse en su bicicleta y haría el resto.

Una vez, aleatoriamente a medio día, debido a un error en el código, el vehículo estacionado se encendió por sí mismo y se aceleró por completo.

Por supuesto, sabían que era por algún error. Pero no los peatones. Luego vino la diversión. El camino era un caos. La única pregunta que tenía cada peatón era: “¿Dónde desapareció el jinete?”

Incluso si el vehículo corriera en una carretera de sentido único, ¿en quién podría el policía presentar un caso?

Además, todos los ateos en el camino predicaban todas las religiones y creían en la existencia de fantasmas.

Jaja.

Gracias

Balaji Kasiraj

He escuchado un par de historias interesantes.

Creo que había un artículo sobre inteligencia artificial en una revista de los años 90; probablemente Scientific American. Se pidió a un programa de traducción que tradujera “el espíritu está dispuesto, pero la carne es débil” del inglés a otro idioma (parece recordar que era ruso) y luego nuevamente al inglés.

“El vino es bueno, pero la carne está en mal estado”, fue el resultado.

Hubo una serie en la televisión pública (ya sea PBS o TVO) sobre computadoras e inteligencia artificial, nuevamente en los años 90 o finales de los 80. Tenían un ejemplo de cómo el ejército estadounidense intentaba entrenar una red neuronal para reconocer los tanques en las fotografías.

¡Entonces lo entrenaron! Le mostraron innumerables fotos: algunas con tanques, algunas sin tanques, tanques en el desierto, tanques en el bosque, tanques en la hierba, tanques desde la parte superior, frontal, lateral y posterior.

¡La red pudo identificar con éxito fotos con tanques y rechazar fotos sin tanques, casi el 100% del tiempo!

Según los informes, los generales del Pentágono estaban encantados, como era de esperar. Entonces les dieron a los investigadores un nuevo lote de fotos.

¡La red marcó positivos para imágenes que tenían tanques, positivos para imágenes que no tenían tanques, negativos para imágenes que no tenían tanques y negativos para imágenes que tenían tanques!

¡El resultado fue un poco mejor que lanzar una moneda! Un fracaso triste.

Cuando regresaron y examinaron las fotos de entrenamiento, descubrieron que la mayoría de las fotos sin tanques fueron tomadas en un día brillante y soleado, mientras que la mayoría de las fotos con tanques estaban nubladas.

La red neuronal fue en realidad un éxito rotundo, pero la IA no había estado aprendiendo lo que los investigadores pensaban que estaban enseñando.

Me imagino que se parece mucho a la paternidad …

¿Alguna vez ha habido una situación en la que la IA no funcionó correctamente e hizo algo para lo que no estaba programada?

Los sistemas de IA a menudo han hecho cosas inesperadamente para las que no estaban programados. ¿Eso cuenta? 😛

  • El error de reconocimiento facial de Google. Dejaré que el tweet hable:

Google Photos, ustedes están jodidos. Mi amigo no es un gorila. pic.twitter.com/SMkMCsNVX4

– Oluwafemi J Alciné (@jackyalcine) 29 de junio de 2015

  • El colosal error de Microsoft (No, no la adquisición de Nokia). Otra vez dejaré que los tweets hablen. “Tay” fue el chatbot de inteligencia artificial de Microsoft.

“Tay” pasó de “los humanos son súper geniales” a nazis completos en <24 horas y no me preocupa en absoluto el futuro de la IA pic.twitter.com/xuGi1u9S1A

– gerry (@geraldmellor) 24 de marzo de 2016

En los dos casos anteriores, los sistemas de IA no funcionaron exactamente “mal”. Solo fueron tan buenos como el entrenamiento que recibieron. Solo tratan en píxeles, caracteres y palabras, todos representados como números. Los sistemas de IA no entienden las sensibilidades culturales que son importantes para los humanos, a menos que estén programadas explícitamente para hacerlo. Y eso es un problema, también porque probablemente ignoraste por completo lo increíble que es, que Google pudo etiquetar la foto en la esquina inferior derecha del primer tweet como ‘ Graduación ‘ simplemente basada en una toga y gorra de graduación.

Al que le gusta contar historias de IA que forman sus propias prioridades es Lenat.

  1. un auto sin conductor se detuvo porque sintió gotas de lluvia en el parabrisas y pensó que las gotitas eran una obstrucción.
  2. En un juego de guerra naval, su programa se dio cuenta de que estaba perdiendo terreno debido a la maniobrabilidad. Entonces, decidió hundir algunos de sus propios barcos de apoyo. Se informó que el programa ganó el juego de guerra pero fue descalificado del evento por un futuro imprevisible.
  3. Su programa cerró la operación de una sala de servidores completa. Ahora, no recuerdo los detalles. Sin embargo, estaba trabajando para garantizar el máximo recurso para las operaciones, y terminó atascado en un punto muerto por buenas ideas sobre qué hacer con uno o dos servidores al máximo. (La charla fue hace mucho tiempo en los años 80). La cuestión es que se atascó en conceptos o creó una tarea de prioridad extremadamente alta para no hacer nada.

Tenga en cuenta que estos escenarios son un poco como un truco de magia.

Se supone que la IA puede hacer cosas que no necesariamente podemos predecir. Pero, diseñamos los límites. Se requiere que los humanos mantengan las cosas en el ámbito de la seguridad. Entonces, la idea de que un automóvil se detiene por algo por lo que no nos detendríamos no es un desastre. Programamos el auto para evitar desastres. Pero, olvidamos decirle que algunas cosas no son desastrosas. Entonces, podríamos sorprendernos.

Es más probable que podamos obtener desastres por mal funcionamiento de la computadora que no tienen nada que ver con la IA. Con toda nuestra cuidadosa planificación y diseño, alguien olvidará dar cuenta de algunas condiciones. Ha habido más de unos pocos accidentes de avión por esta razón.

Cuando cualquier software AI o no AI funciona mal y hace algo que no está destinado a hacer, lo llamamos un error . No es mágico ni catastrófico y no significa algo como Terminator o I Robot. Es solo porque un programador cometió un error en alguna parte. Por lo general, en este caso, los programadores detienen el programa y revisan el código fuente para solucionar el problema.