¿Algunas máquinas de IA actuales ya son tan inteligentes que no entendemos cómo funciona su inteligencia?

Es cierto que podemos ver el modelo aprendido por un programa de RM y no poder explicar por qué funciona ese modelo en particular. Especialmente con el procesamiento de la visión, es extremadamente difícil explicar por qué funciona.

Esto no es porque sea “tan inteligente”. Es porque es una solución no diseñada por un humano. Cuando un humano resuelve un problema, piensa en romperlo en pedazos, resolver esos pedazos y juntarlos en una estructura clara. Esta estructura lo hace comprensible, pero los elementos de bajo nivel que lo componen podrían estar en una disposición muy compleja.

Toma esta analogía:

Un humano intenta diseñar una torre. Lo hacen simétrico para que se equilibre fácilmente, ponga más peso en la parte inferior para el equilibrio, cree una estructura esquelética sólida para construir detalles, organice los pisos espaciados de manera predecible con escaleras en caminos ordenados.

Un ai intenta diseñar una torre. Construyen algo, lanzando materiales al azar. Se inclina hacia la izquierda, por lo que ponen más peso en el lado opuesto. La parte inferior comienza a doblarse, por lo que arrojan algo de refuerzo. Necesitan una forma de llegar al siguiente nivel, por lo que tiran una escalera donde les queda. No tiene un plan, solo sigue haciendo ajustes que lo acercan a su objetivo. A veces tiene un mal comienzo y termina con una torre que no puede hacer más alta, otras veces lo hace más alto.

Explicar el diseño humano es fácil. Incluso un niño puede comprender la esencia de por qué un edificio se mantiene en pie, incluso si requiere más experiencia para analizar los detalles

Explicar la torre ai es difícil. Tiene voladizos al azar, su estructura esquelética es de locos, el interior es un laberinto retorcido. Puede comprenderlo si se toma mucho tiempo para estudiarlo en detalle y realizar un análisis cuidadoso. Puede demostrar que hay equilibrios en voladizo contra esa masa allí y esta línea de tensión tiene soporte aquí, pero no es una solución clara al problema.

La falta de un principio rector sólido para la solución ais es la razón por la cual son tan propensos a sobreajustar. No se dan cuenta del caso general, se dan cuenta de cómo armar un modelo para los datos que tienen.

Puede ser efectivo El aprendizaje automático puede encontrar soluciones a problemas para los que no podemos diseñar soluciones directamente. Eso no significa que sea realmente inteligente. Es solo obtuso.

Oh, hemos estado allí por mucho tiempo.

Entonces, si alguien pregunta cómo funciona un automóvil, podemos proporcionar una respuesta completa. Podemos describir la función de cada parte y decir exactamente lo que necesitaríamos cambiar para convertirlo en algo diferente.

Cuando alguien pregunta cómo funciona una red neuronal, podemos responder con generalidades muy vagas y fórmulas matemáticas que mapean su desarrollo. No podemos señalar una sola neurona y decir “esa es la que le permite distinguir entre una cara y una taza de café”. Y no podemos editarlas o refinarlas explícitamente en detalle.

No son solo las redes neuronales tampoco. Muchos enfoques tienen un nivel de complejidad que simplemente está más allá de nuestra comprensión. Incluso hemos tenido IA que producen circuitos funcionales y avanzados utilizando FPGA que utilizan principios que no podemos explicar para operar. Y ese es el objetivo de las IA, encontrar soluciones a problemas demasiado complejos para que podamos crear un algoritmo riguroso.

‘inteligente’ porque nos hacemos los tontos. Y tenemos aproximadamente una década y media de este tipo de idiotez.

¿No es hora de madurar con respecto a la informática?

Ha habido muchos sugiriendo esto.

Ahora, habiendo salido de la caja de jabón, no es que no podamos entenderlo. Podemos construir análisis que nos permitan comprender. Pero, ¿quién quiere hacer eso? ¿Pagar por ello?

Y, ¿quién podría querer hacer esta tarea necesaria (asumir este papel esencial)? Bueno, los autodidactas que se preocupan poco por lo que motiva a la mayoría de las personas (afortunadamente, creo que vamos a estar a la altura del desafío) son un grupo de personas. En realidad, esto sería hecho por la supuesta gente de orden (sí, fanáticos de Quora IQ) ya que el modo es de habilidades humanas (ignorado hasta ahora).

No, esto recibe poca atención. “Huyendo después de wowee, mira mamá, ¿no soy yo y mi pequeña bestia genial?” Es un modo que tenemos que superar. De hecho, todo eso (he estado mirando desde un modo 1G / 2G) ha atrapado a la población (gracias chicos).

¿Sobre esos tipos de análisis? Puedo demostrar que estos son más preocupantes y más necesarios que empujar el horizonte. Si. Mira alrededor. La estabilidad se ha ganado con esfuerzo gracias a los esfuerzos de muchos (que fueron / son pasados ​​por alto, la multitud no era la mimada que vemos en nosotros).

Piensa en esto, casi como el karma. Veremos (cuando crezcamos), que por cada dólar (bueno, libras) gastado en whiz-bang debe combinarse con aproximadamente 10 dólares de un nuevo tipo de control llamado ingeniería de la verdad (Bezo necesita ver esto). Si. Aquellos que juegan en los mercados con sus técnicas avanzadas necesitan hacer una barriga para pagar su “impuesto” que corresponde a la población en general.

Hay mucho que discutir.

Absolutamente. Por ejemplo, nadie entiende cómo Alpha Go genera sus victorias Go de clase mundial. Todo lo que sabemos en este momento es que los maestros de Go que han estudiado sus juegos han identificado nuevas estrategias.

Lo mismo está ocurriendo en otros campos de dominio de la IA, y continuará proliferando en más dominios a una velocidad acelerada.

Puede que no, pero la persona que escribió el programa de IA probablemente sí. Incluso las redes neuronales pueden ser analizadas.