Los avances recientes en inteligencia artificial no son, en realidad, “estadísticas simples” disfrazadas como dice el OP. Vea los avances en redes neuronales profundas, por ejemplo, donde los tamaños y la naturaleza de los modelos son tales que es casi imposible interpretar lo que los modelos han aprendido. Algunos de estos modelos pueden aprender características poderosas completamente de los datos de una manera “de extremo a extremo” que puede superar las características de vanguardia diseñadas por expertos en el dominio a través de décadas de investigación, por ejemplo, en la detección de objetos visuales. o reconocimiento de voz, así como una serie de problemas más exóticos. Si lo piensa, estos modelos ya están comenzando a verse un poco espeluznantes, como cualquier otro fenómeno que no entendemos. O vea la explosión en el aprendizaje de refuerzo causada por la integración de estos métodos de aprendizaje profundo, donde el algoritmo posee “habilidades” de aprendizaje que son lo suficientemente generales como para aprender una amplia variedad de juegos de Atari:
https://www.cs.toronto.edu/~vmni…
Por otro lado, no tenemos una definición adecuada de “conciencia” y mucho menos un modelo completo de cómo funciona el cerebro. Por otro lado, un conjunto de ideas que me gustan son de Marvin Minsky (libro / reciente MIT OCW: Society of Mind), donde propone cómo un cerebro ‘consciente’ con capacidades a nivel humano podría surgir de una ‘sociedad’ de tontos bajos. -actores de nivel. ¿Y cómo la interacción de estas funcionalidades de bajo nivel podría darnos la percepción (falsa ?!) de autorreflexión interna, etc.
- ¿Alguna vez vamos a tener robots conscientes? En caso afirmativo, ¿cuándo y cuáles serán los pros y los contras de tenerlos?
- ¿IBM Watson pondrá a miles de personas sin trabajo?
- Quiero ser experto en IA, ¿por dónde debería comenzar? Tengo veinte y tantos años viviendo en Europa.
- ¿Qué pasa si nuestra humanidad es la computadora maestra artificialmente inteligente de nuestros antepasados?
- ¿Qué es una tubería en el aprendizaje automático?
Dado que realmente no sabemos cómo surgen las capacidades cerebrales de nivel superior, ¡simplemente no hay forma de predecir qué tan lejos estamos de implementarlas en el software! Podrían ser cinco años o podrían ser cien años. Aunque una encuesta informal de renombrados investigadores de IA realizada por el profesor de Oxford Nick Bostrom en su libro “Superinteligencia” da un promedio de 30 años si mi memoria me sirve bien. Por supuesto, la ciencia ficción ha estado formulando hipótesis durante mucho tiempo sobre lo que podría suceder una vez que se alcanza esta “singularidad”. Dado que las computadoras ya son más capaces que nosotros para ciertas tareas de bajo nivel, recuperación de memoria, cálculo o comunicación, por ejemplo, y controlan una porción cada vez más grande de nuestra infraestructura, de hecho es una perspectiva aterradora.
No creo que se discuta realmente que las máquinas eventualmente superarán a los humanos en todas las áreas del esfuerzo humano. Lo que se discute es si será posible controlar estas máquinas, y el libro de Nick Bostrom está dedicado en gran medida a argumentos y experimentos hipotéticos sobre cómo incluso una inteligencia artificial inocente (que podría no poseer ‘conciencia’, lo que sea que eso signifique) podría causar humanidad daño significativo!