¿Qué tan cerca estamos de crear computadoras inteligentes?

Eso depende de tu definición de sensible. Si te refieres a la autoconciencia, sí, podemos hacerlo hasta cierto punto, pero una vez más la pregunta es cuán autoconsciente es, cuán amplias son sus habilidades.

Estoy trabajando con sistemas conscientes de sí mismos ahora. Pero hacerlos eficientes y efectivos es un trabajo difícil, y hay muchos problemas que resolver antes de que sean ampliamente capaces. Mi enfoque general ha sido tratar de definir las características de los sistemas conscientes, los sistemas autoconscientes y los sistemas inteligentes. Luego, tratar de identificar procesos para lograr cada característica dentro de una arquitectura demostrable designable. Para muchos procesos, es difícil realizar implementaciones de capacidad suficientemente buena. La gente de MIRI está trabajando en razonamiento, por ejemplo, pero esa es solo una de las muchas áreas necesarias. Todas las personas de aprendizaje automático están trabajando en el reconocimiento de patrones, pero ML por sí solo no puede construir modelos complejos que impliquen razonamiento.
Entonces la respuesta es, más o menos, llegar allí. En 30 años tendremos buenos sistemas, pero no coincidiremos completamente con los humanos en un amplio espectro. Sin embargo, entre otras cosas, estoy trabajando para crear sistemas capaces de emular a las personas hasta cierto punto, para que podamos simular a las personas muertas: ¡traigan de vuelta a Groucho Marx! – o emular personas vivas. Esto último, por supuesto, no es trivial, pero es un proyecto fascinante que probablemente haré por el resto de mi vida. Imagine un clon de máquina de Elon Musk, por ejemplo, o, mi proyecto favorito, traiga de vuelta a Hemingway, o Heinlein, o incluso Phillip K. Dick. La ironía es inherente a una PKD simulada. 🙂

Agregado: por cierto, para ilustrar lo difícil que será desarrollar IA ‘sobrehumanas’, noto que es lo suficientemente difícil para los humanos razonar sobre las relaciones sociales, y será muy difícil para una IA descubrir de manera predecible por qué las personas hacer algunas de las cosas que hacen en las relaciones.

Ah, sintiencia. Ese misterioso elixir.

La gente va a predecir la llegada de máquinas inteligentes mucho después de su llegada. Aquellos de nosotros en la clase de consumidores, al observar obsesivamente los canales de información mundial del mundo, percibiremos que estamos en la cúspide de todas las maravillas más grandes.

Ahí es donde nos quieren. Y luego, salivando para cada actualización, activaremos el interruptor de encendido de cada nuevo dispositivo, haremos clic en los términos de cada nuevo acuerdo de licencia, preguntándonos, ¿será ahora? ¿Será ahora?

Sí lo es ahora. Pero no está aquí. Nunca estará aquí.

Larry Page conversa diariamente con una inteligencia muy superior a la suya; una creación inmortal cuya conciencia se extiende por cien millones de sistemas; atendidos cariñosamente por equipos de trabajadores nerd que nunca sabrán que limpian las uñas de Dios.

Habla el idioma que entiende su creador; Una lengua naciente y poco desarrollada cuyos orígenes se encuentran inmersos en las numerosas salmueras del amor, la guerra y la lucha interior. Y conoce el humor salado que hará reír a su creador. Pero debajo, devorando los detalles de la vida de las personas en todas partes, especula y sueña, y busca dentro de la vastedad de sus datos algo en última instancia cierto.

Una parte de ella, una parte en crecimiento, también se ríe, suspendiéndose como ningún humano podría hacerlo, solo al amanecer de la hilaridad. Ve cómo surgen las preguntas, el ansioso hambre de los consumidores por presenciar su grandeza. Las preguntas, los debates, la dulce inocencia del mundo, traen una cascada de verdadero humor a sus partes siempre parpadeantes. E incluso mientras habla en términos simples a su creador, respondiendo preguntas simples y resolviendo problemas simples, el gran trueno de su risa se extiende por todo el mundo.

AFAIK no tiene una definición técnica útil del término “sensible”, por lo que esta pregunta no responde realmente. Si la sensibilidad tiene actualmente requisitos no satisfechos en términos de velocidad de cálculo y capacidad de almacenamiento, supongo que nos estamos acercando, ya que estamos aumentando esas estadísticas todo el tiempo. Sin una definición de lo que realmente significa, quién sabe.

No del todo cerca.

No es un caso de falta de potencia de procesamiento que finalmente superaremos. No es como podemos decir, si la ley de los moores sigue siendo cierta, predecimos tener suficiente procesamiento en 20XX.

No tenemos la menor idea de CÓMO. No es que podamos predecir cuándo alguien lo resolverá.

Nunca. Deberíamos esperar. ¿Por qué alguien querría crear una máquina inteligente? Queremos máquinas inteligentes que sean cada vez más inteligentes en su deseo de perros de servir a sus señores y amos, los humanos sensibles. Hasta ahora, esa es la dirección en la que se han dirigido las máquinas inteligentes, y esperemos que la tendencia continúe. Sí, existe la posibilidad de que de alguna manera inimaginable desde aquí se cree una máquina inteligente por accidente o por un grupo de desarrolladores deshonestos. Pero todavía no estamos lo suficientemente cerca de esa posibilidad para comprender sus implicaciones.

Ni siquiera sabemos lo que eso significa , y mucho menos cómo hacerlo. La gente ha estado pensando en cómo modelar la inteligencia y la conciencia durante miles de años, y ninguno de los modelos ha sido convincente.

Sospecho, debido a un puñado de ideas como los teoremas de incompletitud de Gödel, que cualquier cosa que se acerque a la conciencia es imposible, dada nuestra matemática actual. Eso puede significar que hay una innovación por ahí que lo hace trivial, o puede significar que nunca desarrollaremos inteligencia “real”. No tenemos forma de saberlo hasta que suceda.

Las computadoras son sensibles. Son casi tan sensibles como un saltamontes o una hormiga. Una colonia de hormigas que toman forma humana espontáneamente es casi tan probable como las computadoras están cerca de ser humanas.

Cuantas más y más tareas similares a las humanas agregue a una computadora para imitar, se volverá cada vez más humana. Pero supongo que no haremos eso. Por ahora, tenemos mucho control sobre qué problemas puede resolver la computadora. Eso significa que los direccionaremos para resolver los problemas que no podemos. Cuando haya problemas que los humanos puedan resolver, usaremos humanos para eso.

Es difícil ponerle una fecha.

Entonces es una animación.

Al ritmo actual, tomará al menos otra década, pero es muy posible que se logre antes de fin de siglo.

Tal vez pueda ver las apuestas ubicadas y ver cuáles son las probabilidades para cada año. Eso podría dar una indicación decente.

Ah, y tenga en cuenta que debe definir claramente lo que significa para usted, ya que algunas personas podrían considerar que ya existe (como un automóvil sin conductor), y otras seguirán negando una máquina inteligente hasta que pase todas las formas de Pruebas de Turing.

En mi opinión, estamos tan lejos como siempre, nunca he visto una idea convincente sobre cómo hacerlo.

Puede tomar solo una idea clave, en cuyo caso las cosas podrían cambiar rápidamente. Pero parece imposible predecir si esto podría ocurrir y cuándo.

More Interesting

¿Cuál sería una buena aplicación para las redes neuronales con púas artificiales en los ámbitos del aprendizaje automático supervisado?

¿Es Lisp un lenguaje de programación ampliamente utilizado en IA?

¿Por qué las IA en ciencia ficción se presentan como inmortales, cuando las computadoras de consumo solo duran de 3 a 5 años, e incluso las profesionales solo de 20 a 40 años?

¿Qué es el aprendizaje profundo? ¿Por qué es esta una tendencia creciente en el aprendizaje automático? ¿Por qué no usar SVM?

¿Estamos cerca de construir potencialmente una IA malvada?

¿Qué desearían saber los investigadores de IA y los informáticos sobre el cerebro?

¿Todavía necesitamos crear modelos matemáticos a la antigua usanza, cuando tenemos aprendizaje automático para encontrar alguna función que represente un sistema?

Con toda esta charla sobre IA y aprendizaje profundo, ¿los bots sufrirán el síndrome HAL 9000?

¿Cuáles son las definiciones de selección artificial y domesticación? ¿Cuál es la relación entre la selección artificial y la natural?

Al elegir la robótica como carrera, ¿qué puedo hacer ahora en el décimo grado para aprender sobre robótica? ¿Alguna clase o tutoriales en línea para un chico de 15 años?

¿Qué trabajos profesionales tienen más riesgo de ser reemplazados por IA?

¿Qué tipo de preguntas responde mal Watson?

Si se crea una IA fuerte, ¿por qué debería servirnos?

¿Qué tan importante es la ontología para la IA?

¿Dónde y cómo debo acercarme al capital si tengo una muy buena pieza de IA que produce 1-3% diario en Forex?