¿Por qué dicen que es imposible entender cómo la inteligencia artificial tomó su decisión?

Es un problema estrecho pero real.

Estrecho porque la mayoría de los sistemas de IA se basan en matemáticas sólidas. Puede ser complicado, pero no hay misterios allí.

El problema es con una caja de herramientas, las redes neuronales.

Las redes neuronales manipulan dimensiones muy grandes. Fueron inventados para manipular dimensiones muy grandes, y de alguna manera aún no pueden escapar de la maldición que conlleva.

Una imagen de 50 × 50 en RGB es un modelo de 7500 dimensiones (“dimensiones” como en 2D o 3D: intente representar mentalmente 7500D …). Y un auto sin conductor necesita reconocer el borde de la carretera, o un oficial de policía levantando su mano, en 400 milisegundos, usando mucho más que una imagen de 50 × 50 píxeles.

La solución, inventada en los años 70, fue dividir estos cálculos en millones de pasos simples, imitando cómo podría funcionar el cerebro. Tomó 20 años hacerlo funcionar correctamente. Ahora lo hace

Entonces, ahora podemos calcular, pero debido a que atraviesa millones de operaciones únicas, realmente no podemos rastrear lo que se computa, y arreglar lo que está mal.

El problema de las grandes dimensiones sigue con nosotros.

Las neuronas hacen un trabajo matemático, los millones de cálculos interconectados que necesitan para extraer reglas de los millones de combinaciones de píxeles. Desglosamos el problema para hacerlo computable, pero esto no nos da un “modelo” de lo que se hace. No podemos “pensar” al respecto, entender y arreglar las cosas. No podemos pasar de a a b a c y d y decir: así es como el sistema reconoció las imágenes, esto es lo que usó. No podemos ponerlo en la pizarra y no podemos depurarlo.

Hoy no es un gran problema porque la mayoría de lo que hacemos con estas aplicaciones sigue siendo lo suficientemente simple. Sabemos cuando está mal.

Pero el objetivo de la industria es, por supuesto, construir sistemas más complejos. Una mayor abstracción hará que sea más difícil identificar la respuesta correcta, y si no podemos hacerlo, no confiaremos ni utilizaremos el sistema. 22 capturas.

No es aceptable para los sistemas que se ocupan de la vida y la muerte: el ejército y la medicina. Es por eso que la medicina tiene una relación de amor y odio con la IA, y el ejército (DARPA) está financiando proyectos de investigación para encontrar una solución.

Buen artículo aquí: DARPA está financiando proyectos que intentarán abrir las cajas negras de AI

Ese trabajo de DARPA comenzó en noviembre pasado. Desde entonces hemos visto conferencias y ponencias todos los meses …

Depende de la implementación …

Los sistemas expertos pueden registrar los pasos tomados al hacer deducciones. Básicamente, esto es de una colección de reglas “si esto, entonces eso” y registra qué fue “esto” y qué es “eso”.

SIN EMBARGO, los que usan redes neuronales no tienen tales reglas. Todo lo que pueden escupir son “las tesis son los pesos de mis entradas” … Lo que no tiene sentido para la respuesta proporcionada, ya que son solo valores entre 0.0 y 1.0.

Algunos sistemas de IA usan una combinación de los dos (como Watson). Las reglas establecen un rango de probabilidades, pero la red neuronal las usa como entradas para tomar decisiones finales …

La IA detrás de Watson – El artículo técnico

Y eso hace que Watson sea un poco impredecible. Puede considerar MUCHA información que las personas tienen … y aún así sorprender a las personas con respuestas inesperadas. Es el entrenamiento de la red neuronal lo que se vuelve difícil, y dificulta las predicciones de sus respuestas.

Aquí hay dos conceptos diferentes:

  1. Redes neuronales. Básicamente, le damos tareas a una computadora y nos da un resultado, y cada vez que cambia algo en función de si está bien o mal. Al final, probablemente lo haga bien casi siempre, pero no entendemos cómo funciona exactamente eso, lo que significa “ciertos subconjuntos de conexiones en la red”.
  2. El problema de inteligencia. Nunca podemos predecir qué haría una inteligencia sobrehumana, porque si pudiéramos, eso significaría que teníamos esa inteligencia. Si pudieras imaginar cómo una persona es más inteligente de lo que piensas, efectivamente serías así de inteligente.

Aparte del hecho de que ni siquiera hemos definido la “inteligencia artificial”, y mucho menos lo hemos logrado, a menos que solo dé un paso a una computadora y registre todos los pasos, no es posible que un ser humano “adivine” cómo llegó la computadora donde lo hizo