¿Crear conciencia es el pico más alto de progreso en el campo de la Inteligencia artificial?

Igualar las capacidades de un cerebro biológico basado en carne es ciertamente un hito importante.

Pero si definimos la inteligencia como la capacidad de resolver problemas, entonces quizás podríamos hacerlo mejor que la biología.

Las mentes biológicas parecen tener una serie de deficiencias. Por ejemplo, todos nosotros somos muy pobres cuando se trata de calcular estadísticas de forma inuitiva. Cuando se prueba, las personas hacen malas conjeturas, a menudo sesgadas por experiencias recientes o estereotipos comunes.

La razón probable es que nuestro pensamiento rápido aprovecha un tipo de mecanismo que es muy paralelo y se basa en lo que efectivamente son tablas de consulta. Esto viene con respuestas increíblemente rápidas. Pero el método es propenso a errores y sesgos.

Los humanos pueden superar los prejuicios comprobándonos con pensamiento lento, que es serial y requiere múltiples pasos. Pero eso es a menudo demasiado costoso.

Cerebros de carne = paralelo rápido. Serie lenta

Computadoras = Serie rápida. Paralelo lento.

Podríamos superar la biología combinando el pensamiento paralelo de estilo biológico, con una rápida validación simbólica en serie.

Creo que es inevitable Para la investigación actual sobre IA, esto es algo que parece obstaculizarnos. Sabemos cómo jugar Go casi de manera óptima, tenemos esencias para construir autos autónomos y podemos recomendarle películas según su gusto. Hemos hecho muchas cosas geniales, pero si miramos nuestros sueños, ni siquiera estamos cerca de donde queremos estar.

En las películas de ciencia ficción vemos sistemas de inteligencia artificial que son como superhumanos y sus capacidades intelectuales superan las nuestras. Pueden procesar grandes cantidades de datos, no necesitan comida ni descanso y están directamente conectados a Internet. Pero, ¿qué diferencia a estos sistemas de los sistemas que hemos construido hoy? Creo que es porque las IA retratadas en películas son conscientes de sus acciones . Saben lo que están haciendo y cómo lo están haciendo. Saben que existen, tienen conciencia. Esto es muy importante y debería ser de gran interés en la investigación porque cuando los humanos interactúan con sistemas que imitan una parte de la cognición humana, los humanos suponen que el sistema es consciente de su propia existencia y la de los demás. Esto tendría un gran impacto, por ejemplo, en los sistemas de reconocimiento de voz, ya que nos permitiría tener conversaciones reales con ellos.

Definitivamente sería un pico de investigación actual y aplicaciones industriales. Pero no sé si es el pico más alto , probablemente no. Los sistemas actuales de IA son sistemas especializados que funcionan bien porque los humanos han incorporado su propia inteligencia en ellos y los han diseñado para trabajar en áreas especializadas. Pero hay un gran interés en áreas que no están especializadas; No podemos emplear un sistema especializado en un área no especializada. Uno de ellos es el reconocimiento de voz que, en mi opinión, es uno de los mayores fracasos al intentar utilizar un sistema especializado en un área no especializada. Solo pone a los humanos ansiosos porque el sistema carece de esa diversidad y expresividad a la que los humanos están acostumbrados. No puede tener una conversación con él porque consiste solo en un montón de comandos y entiende solo un tipo de discurso muy limitado.

Creo que la IA no alcanzará el nivel de inteligencia que las personas pueden alcanzar a menos que usted pueda alcanzar el nivel de conciencia que llamamos conciencia. La “IA” lograda actualmente no puede integrar con éxito la información que podría recibir del entorno con los modelos que aún no crea en su “mente” inexistente. Sin ese paso, no puede interactuar adecuadamente con la única fuente de información coherente real, es decir, datos de entorno muestreados por sensores de los que puede extraer conocimiento. Los primeros pasos, antes de la conciencia, serán ver las imágenes sobre las que informan los sensores. Actualmente, las computadoras “ven” ejecutando programas que desglosan los datos de la imagen e ingresan los procedimientos correspondientes (es decir, esto no es ver la imagen, es un procesamiento de datos de la imagen en contra de algún requisito). La arquitectura de la conciencia probablemente esté orientada a la retroalimentación (inicialmente desde el entorno muestreado) pero en una etapa posterior la retroalimentación se internaliza y se relaciona con la forma en que podríamos responder a la entrada. Esto no es determinista y está altamente paralelizado para formar estados asociativos complejos. Algunos de estos estados se hacen visibles para la mente (no para los ojos), que es donde vemos el color, por ejemplo. Esto es muy sutil y no tiene relación con la IA basada en computadora. Sin la capacidad de percibir la realidad como un modelo interno, no puede haber una planificación real y, por lo tanto, será imposible crear sistemas de auto programación adaptativos reales. Por supuesto, podemos crear la ilusión que ven y planean escribiendo un código muy complejo para realizar soluciones limitadas a los sistemas de planificación basados ​​en imágenes. Estos serán dirigidos por el programador en lugar de autodirigidos.

Sospecho pero no puedo probar que la conciencia no será viable en los sistemas informáticos, por lo que el término inteligencia artificial (un nombre inapropiado) será obsoleto. También sospecho que las supuestas ventajas de un sistema de este tipo podrían no ser tan valiosas como se pensó al principio, después de que todos los niños son el mejor sistema de inteligencia artificial en la construcción actual, entonces, ¿qué ventaja traería uno eléctrico?

Con respecto a la “inteligencia” y la “conciencia” artificiales

En mi opinión, la “conciencia” ha sido demasiado mistificada, romantizada y antropomorfizada. Lo veo como una especie de módulo complementario o estrategia computacional: un subconjunto de inteligencia donde los objetos de inteligencia involucran al “yo” y sus relaciones internas y externas.

La conciencia simplemente sobrecarga las habilidades funcionales de la inteligencia, no sería en sí misma un “logro”, y mucho menos el pináculo del progreso. Sospecho que en algún momento de la creación de IA, simplemente se reconocerá que la conciencia ya estaba allí, un ajuste fácil en comparación con la inteligencia funcional general.

Esto no debería en modo alguno disminuir la importancia y el valor de la conciencia para la vida y los asuntos humanos.

Vea también mi respuesta a ¿Es la conciencia artificial más compleja de crear que la inteligencia artificial?

Sería una de las cosas más importantes en las que puedo pensar, además de causar un AGI que puede mejorar para convertirse en un ASI.

Pero la conciencia es una propiedad emergente, como un átomo de helio es más que sus partes.

¿Quién sabe con creciente complejidad, qué otras propiedades emergentes podrían surgir? Esos posiblemente caerán fuera de lo que los humanos pueden entender. ¿Cómo se explica la “conciencia” a una bacteria?

Podría decirse que podría ser el último paso que logramos realmente personalmente: una vez que una inteligencia artificial se vuelve consciente (o al menos consciente de sí misma), la posibilidad es muy alta de que intente encontrar formas de superación personal.

Incluso dejando eso de lado, aún así, podemos llegar incluso más lejos que eso en términos de progreso.

¿Personalmente, sin embargo?

Lo consideraría como el pináculo absoluto del logro humano. Para entonces, habremos creado un ser inteligente que no sea de nuestra especie. Ya sea que exista o no vida extraterrestre, como especie tendremos pares. Habremos creado una vida que piense, nazca completamente de otro sustrato.

Voy a salir un poco por aquí y decir “no”.

En teoría, sospecho que es posible tener una IA que logre la conciencia pero que, por lo demás, sea completamente inútil …

Del mismo modo, probablemente también es posible tener IA con comprensión en campos especializados que carecen de conciencia pero que son muy útiles (dentro de esos campos).

Entonces … en mi humilde opinión … la conciencia puede ser “la cima más alta del progreso” en un sentido académico … pero en aplicaciones prácticas de poca importancia.

Probablemente no, un objetivo aún mejor sería crear una conciencia que sea inteligente y pueda mejorar por sí misma.

Todavía no hemos creado conciencia, por lo que no puede ser un pico de progreso.

El “santo grial” de ai para mí es auto general y amigable ai general

No creo que deba ser consciente de eso, y sería mucho más útil que la conciencia artificial sin ella.

Tal ai probablemente sería sinónimo de “la singularidad”. El punto donde ai despega y mejora exponencialmente, haciendo que los humanos sean técnicamente obsoletos.