Cuando los laicos dicen que la IA solo hace lo que está programado para hacer, ¿están pasando por alto la diferencia entre los algoritmos y las técnicas modernas de IA?

Se está convirtiendo en un argumento más complejo porque ya no estamos seguros de lo que le estamos diciendo a la computadora que haga.

Las redes neuronales, por ejemplo, se les enseña a hacer algo, no diciéndoles qué hacer sino entrenándolos para que respondan correctamente. Les da algunos miles de ejemplos del problema y los ajusta gradualmente hasta que la respuesta que sale es correcta. Pero nunca preguntas cómo lo están resolviendo.

Hay una historia antigua (y verdadera) de que un grupo de investigadores tuvo la tarea de crear un sistema que pudiera detectar cuándo una imagen de un campo de batalla tenía un tanque. Tomaron varios miles de fotos de campos de batalla con y sin tanques. Tomaron la mitad de las fotos y entrenaron una red neuronal para detectar los tanques. Luego le dieron la otra mitad de las imágenes e identificó correctamente las que tenían tanques adentro. Trabajo hecho. Se lo entregaron a los militares, quienes rápidamente descubrieron que había fallado por completo. Las respuestas que dio no tenían relación con si había un tanque allí. Los investigadores revisaron sus datos de prueba y se dieron cuenta de que toda la imagen con tanques había sido tomada en días soleados, mientras que las que no tenían habían sido tomadas en días nublados. Habían entrenado con éxito la red neuronal para decirles cuándo necesitaban usar protector solar.

Otras variedades de aprendizaje automático tienen problemas similares. Podemos desarrollar un algoritmo para resolver un problema, pero no sabemos cuán perfectamente lo resuelve, solo que mejoró por un tiempo y luego dejó de mejorar. Puede haber una solución aún mejor disponible, pero nunca lo sabremos porque no entendemos la solución que encontró el programa o qué fuerzas están actuando sobre él.

Entonces, aunque sabemos lo que le dijimos a la computadora que haga, implementar una red neuronal o una estrategia evolutiva, el resultado del entrenamiento es un programa que no hemos programado y que no podemos entender. Un programa es siempre las instrucciones más los datos. En el caso de la IA, las instrucciones son triviales, pero los datos pueden ser demasiado complejos para que nuestras mentes los comprendan. Y, a diferencia de lo que se nos dice que hagamos en los exámenes de matemáticas, no muestra que está “funcionando” para darnos una pista.

Google ha investigado cómo funcionan las redes neuronales, y los resultados son fascinantes: Incepcionismo: profundizar en las redes neuronales

Los perceptrones pueden funcionar como puertas NAND. Como la puerta NAND está funcionalmente completa, los perceptrones están funcionalmente completos. En otras palabras, los perceptrones pueden crear CUALQUIER circuito lógico. Eso es increíble y desconcertante. Cualquier lógica que pueda ser diseñada o programada, por lo tanto, puede ser diseñada por una red neuronal artificial. En otras palabras, parece que no hay limitación para los tipos de programas que pueden ser autoensamblados por una red neuronal artificial.

Es una cosa despistada que decir. Ignoran el aprendizaje, una característica clave en la IA. También ignoran la complejidad. Los sistemas complejos casi nunca se comportan como lo quiso decir el diseñador.

Es como decir “un humano solo hace lo que se le ha dicho que haga”.

No, simplemente están siendo realistas. Las computadoras son máquinas deterministas; siempre hacen solo lo que están programados para hacer. No hay magia

La IA se ha basado en gran medida en humo y espejos durante más de medio siglo, con un fuerte énfasis en afirmaciones regulares y espectaculares que ocultan logros mediocres. Todo es solo programación. Las computadoras más rápidas permiten escribir más código y ejecutarlo más rápidamente, pero los principios básicos no han cambiado.

Bueno, ciertamente no soy un novato cuando se trata de computadoras o programación, y todas las computadoras hacen lo que están programadas para hacer, incluso la IA. Eso no impide aprender, pero no sucede espontáneamente.

La biología y el medio ambiente son los programas humanos. Eso no significa que no tengan libre albedrío, solo significa que reaccionan al estímulo dentro del rango que permite su biología.

La programación de una computadora es una forma de estímulo. Si proporciona una retroalimentación de la computadora desde los sensores, esa es otra forma de estímulo potencial, pero si el programa de la computadora no incluye instrucciones para imputar e interpretar los sensores, la computadora no puede hacer uso de ellos.

Una computadora no aprende por sí misma, requiere reglas al igual que los humanos siguen reglas que les permiten aprender, reglas de lenguaje, categorización, etc. Para que una computadora aprenda debe tener reglas por las cuales se organiza y se relaciona con los datos que contiene. procesos, porque esa es la esencia del aprendizaje. Las experiencias son solo otra forma de programación. La programación viene en muchas formas, la codificación es solo una de ellas.

More Interesting

¿Cuáles son las áreas más interesantes de la investigación / aplicaciones actuales en el aprendizaje semi-supervisado?

¿Cuáles son los aspectos más destacados de los avances del aprendizaje profundo en 2013?

Quora: ¿Se volverá sensible la base de datos de Quora?

¿Podrán las computadoras componer música y escribir poemas que podamos apreciar? ¿Es la inteligencia humana tan superior que no se puede crear?

¿Los ingenieros de TI están calificados para trabajar en campos como la robótica y la inteligencia artificial?

¿Por qué Python se considera un buen lenguaje para IA y Machine Learning?

¿Cómo aprovecho los datos del usuario para proporcionar recomendaciones basadas en la ubicación?

¿Es mejor aprender IA sobre ML, en caso de que ML se vuelva obsoleto?

Si en 2024 alguien pone a un bebé con un traje y una máscara de realidad virtual (Tierra), ¿son reales las personas y los animales con IA?

¿Dónde puedo aprender sobre aprendizaje automático e inteligencia artificial en India?

¿Qué significa ser 'inteligente' después de que la IA se haya integrado en el cerebro humano?

¿Los robots nunca serán considerados propiedad? ¿Habrá algún momento en el que los robots tengan derechos legales?

¿Prefieres estudiar Inteligencia Artificial en KU Leuven o en la Universidad de Amsterdam?

Si los humanos se vuelven más tontos y la IA de la máquina se vuelve más inteligente, ¿qué sigue?

¿Qué tan buenos son Home o Echo para comprender idiomas que no son inglés a principios del '17?