¿Cuáles son los conceptos erróneos más comunes sobre la IA?

Concepto erróneo uno: una IA que sea buena en una tarea también lo será en otras tareas.

Entre los humanos, esta habilidad tiene sentido, ya que los cerebros adultos aprenden rápidamente nuevas habilidades, ya que ya aprendimos muchas habilidades básicas sobre las que desarrollamos. Así sabemos aprender; Al abordar cada nueva tarea, entendemos rápidamente qué información es esencial y qué no, y no necesitamos instrucciones repetidas una y otra vez para generalizar y aprender la habilidad en un grado que sea útil en muchas circunstancias diferentes. Entendemos los principios que podemos reutilizar para acelerar el proceso de aprendizaje, así como confirmar cómo lo sabemos y enseñar a otros.

Sin embargo, el estado actual del aprendizaje automático (IA que se mejora a sí mismo) implica enseñar a la computadora cómo hacer solo una cosa bien . Al comenzar a aprender cada nueva tarea / problema, el humano necesita mucho esfuerzo para dar forma a los datos y elegir el algoritmo para que una computadora pueda usarlo para aprender una sola tarea. Si / cuando eso se ha logrado, casi sin excepción , la computadora es incapaz de realizar una tarea diferente igualmente bien, incluso una similar. Y generalmente, es incapaz de realizar una tarea diferente.

Por ejemplo: digamos que usamos IA para entrenar una computadora para reconocer gatos en fotos. Después de mostrarle a la computadora muchos miles de fotos que contienen gatos y objetos que no son gatos, aprende a reconocerlos de manera útil. Entonces, ¿puede reconocer otros objetos que son * como * un gato (por ejemplo, con cuatro patas o pelaje), como un banco de parque o un sombrero de castor? No en realidad no. Para hacerlo de manera confiable, la computadora tendrá que mostrar miles de fotos con bancos y sombreros peludos. Solo entonces discriminará constantemente entre estos tres tipos de objetos. Incluso entonces, no puede explicar en absoluto cómo un objeto podría ser similar a otro. Después de todo ese entrenamiento, esa habilidad explicativa está completamente ausente. Y no tenemos idea de cómo agregarlo. El estado del arte en IA se detiene allí .

¿Qué pasa con el aprendizaje de los otros innumerables objetos que ocurren en las fotos que una IA útil debe saber para ser útil para Facebook al analizar el contenido de las fotos de los usuarios o para una cámara de policía al registrar un crimen? Aprender cada uno de esos objetos adicionales o actividades de video requerirá muchos miles de ejemplos más de cada nuevo concepto cada vez que se agregue un nuevo concepto. El método de aprendizaje de IA involucrado es completamente incapaz de aprender los principios involucrados que distinguen cada nuevo objeto de una manera que acelera su capacidad de aprender nuevos objetos similares, o de maneras que explican cómo la forma, el color o el movimiento de un objeto difiere de otro.

Esa incapacidad de los métodos actuales de inteligencia artificial para aprender a reconocer muchos objetos rápidamente con solo unos pocos ejemplos, o de manera significativa, en función de un conjunto de características de componentes, son enormes límites sobre cuán flexible y generalmente útil es la tecnología hoy y durante mucho tiempo. . Hasta que descubramos formas de hacer que la IA resuelva los problemas de forma rápida y compositiva , para que pueda aprender de algunos ejemplos y construir nuevas ideas paso a paso basadas en los principios que ha aprendido antes, la IA continuará aprendiendo solo de memoria y, por lo tanto, se limitará a regurgita sin pensar solo lo que ya ha memorizado.

Si la IA no llega a ser más inteligente que eso, siempre será un pony de un solo truco.

Que reemplazarán nuestros trabajos.

Ves esto:

Este es el escenario de una película ficticia en la que la mayor parte del trabajo doméstico, social, público y de atención médica es realizado por robots.

La idea errónea paranoica de que la inteligencia artificial reemplazará a los humanos en la fuerza laboral se usa ampliamente en los medios, pero el hecho es bastante diferente.

Si bien es cierto que los robots y la IA coexistirán en nuestra fuerza laboral, es probable que los trabajos que reemplazarán sean repetitivos, como informes, ingreso de datos, diseño, trabajo industrial, etc.

Gracias por el precio cada vez menor de estas tecnologías y la mayor innovación en IA, serán más asequibles y prácticas para los empleadores, pero eso no significa que lo reemplazarán. Muchos trabajos como la atención médica, los servicios públicos, la ingeniería, la enseñanza y muchos más aún necesitarán manejo humano.

Pero, por otro lado, los trabajos que la IA consumirá son el desarrollo de software. Ya existen programas de autoaprendizaje que podrán automatizar tatsics y crear software de manera más eficiente que los humanos.

Estoy de acuerdo con Andrew Rump. Actualmente: AI = simulando = imitando = engañando = marketing.

Si el software es inteligente, está programado para ser inteligente. Y si no está programado para ser inteligente, no es inteligencia. No hay un algoritmo disponible que desarrolle una nueva funcionalidad por sí mismo.

Pero, ¿qué pasa si podemos crear inteligencia artificialmente , como si pudiéramos crear luz artificialmente (sin ser irradiada por el sol o por un fuego)? ¿Qué pasa si la naturaleza proporciona leyes naturales de inteligencia , que pueden utilizarse para crear inteligencia artificialmente en software?

Desafortunadamente, soy el único en el mundo que ve las leyes naturales de la inteligencia en la gramática. Y ofrece: la única tecnología de conocimiento integrada del mundo (código abierto).

Que se trata de hacer un robot que piense como un humano

Que es Inteligencia Artificial. Cuando se lo explico a la gente, lo llamo Inteligencia simulada.