En términos de IA, ¿es posible tener inteligencia sin sensibilidad? ¿Cómo podría tener una idea justa si su programa inteligente fuera verdaderamente inteligente y no hiciera un excelente trabajo simulando sensibilidad?

Me gusta esta pregunta

Vamos a Google sentience. Aquí está la versión de Wikipedia:

La sensibilidad es la capacidad de sentir, percibir o experimentar subjetivamente. Los filósofos del siglo XVIII utilizaron el concepto para distinguir la capacidad de pensar (razonar) de la capacidad de sentir ( sensibilidad ).

Creo que, a partir de hoy, nadie ha creado nada como una máquina inteligente.

Por otro lado, hay muchas criaturas sensibles que no razonan particularmente. Los lobos pueden sentirse amenazados y responderán para salvarse a sí mismos y a sus manadas. Muchos animales sensibles saltarán instintivamente para proteger a sus crías.

Debido a la sensibilidad, la criatura sobrevive. Pero, la sensación interna de que estamos bastante seguros de que nuestras mascotas, perros y gatos, por ejemplo, puede no ser poseída por todas las criaturas. Sobreviven criaturas muy simples, pero ¿se sienten?

¿Una sola abeja siente la necesidad de salvarse? ¿O la colmena siente la necesidad de salvarse? El comportamiento colectivo de animales simples agrupados a veces comienza a parecerse a la sensibilidad e incluso al razonamiento, tal vez. Si bien no hago más que crear fantasía en lo que acabo de decir, ayuda a pensar.

Sabemos que una cucaracha tiene un nervio importante desde el ojo hasta la pata trasera. Si una sombra pasa sobre el ojo, la cucaracha comienza a correr. Realmente no sabe que se está ejecutando, ¿o sí? Puede tomar una decisión, pero puede carecer de cualquier aparato para procesar sentimientos y la decisión no es más que un cambio.

Las computadoras no son muy diferentes a una gran colección de cucarachas o abejas (si están conectadas de manera similar). Sin embargo, los hemos visto actuar de manera racional, o eso nos pareció a nosotros.

Cuando una computadora se abre paso a través del espacio combinatorio que representa el juego de ajedrez y lo hace mejor que un humano, podemos pensar que la computadora ha sido inteligente. Es difícil para un humano aprender a lidiar con el espacio combinatorio. Nos lleva años aprender la realidad invisible que es el laberinto de combinaciones que podríamos atravesar al tratar con viajes informativos. Tenemos la capacidad de aprender nuestro camino a través del bosque. Y, lo que aprendemos al tratar con espacios combinatorios complejos es algo muy parecido al bosque, con mapas en nuestras cabezas, recuerdos de viajes, puntos de referencia a los que asignamos significado, etc.

Pero, si alguna vez ves cómo un humano se relaciona con su viaje a través del bosque, podría hablar de leones, tigres y osos. Los grandes dioses del mar serán invocados cuando se trata de mantenerse alejado de los arrecifes traicioneros. Las historias sobre los grandes monstruos del mar ampliarán los ojos de los oyentes que alguna vez piensan ir a donde ha ido el viajero.

Aquellos que deseen realizar el mismo viaje pueden acudir al viajero sabio para aprender a abrirse camino. Y, el alumno respetará y se maravillará con la sabiduría, la inteligencia, de los que viajaron antes. El alumno lo asimila todo, para mantenerse alejado de los daños, para sobrevivir, para recuperar el botín de la caza de sus hijos.

Si le dijiste a tu computadora, ahora ve a ese arrecife y destruye tu casco para que puedas informarme cómo es esa experiencia de hundimiento. La computadora dirá “OK”. Y, entonces la computadora lo hará. Habrás aprendido de ti u otros expertos. No se habrá maravillado de la sabiduría de aquellos que viajaron antes. Viajará sin pensar en regresar para traer el botín de su caza a sus hijos, por quienes no sentiría amor si fuera porque se podrían tener niños con computadora.

Los humanos aprenden su camino a través del bosque, con todos sus sentimientos diciéndoles cómo ir. La importancia de un símbolo tiene miedo o amor o algún otro valor. Y razonamos tanto con estos sentimientos como con los discernimientos de los signos sensoriales. No nos detenemos en las señales de alto, nos detenemos en la señal de alto en la esquina fresca con la tienda de arte y la cafetería, y buenos autos, sabiendo que es un buen lugar para girar a la izquierda para buscar estacionamiento. La computadora se detiene en la señal de alto en la esquina y gira a la izquierda porque las coordenadas GPS están dentro de un radio particular.

Entre los humanos, incluso un psicópata tendría algún sentido de autoconservación, incluso si tal bestia no tiene sentimientos con respecto a los demás. Por lo tanto, incluso un psicópata tendría cierta sensibilidad que lo lleva a deambular por el bosque a su manera desagradable.

Pero una computadora ni siquiera se deleitaría en un juego mortal con otros que podrían ser humanos. La computadora no sentiría placer. No se involucraría en un juego particular con los humanos para sentir el deleite. Sin embargo, un lobo lo haría. Y, el perro podría interactuar con un humano para el deleite mutuo, la diversión y el entretenimiento de su amigo humano, a quien también podría proteger.

La computadora puede encender las luces en la puerta de guardia. Pero, la computadora no puede desear proteger incluso si la programamos con una simulación bastante buena.

Entonces, ¿puede una computadora ser inteligente sin sensibilidad? Supongo que en algún momento podría simular una forma de supervivencia que tendríamos que programar en ella. Tendríamos que entrenar la computadora para querer sobrevivir. Y, tendríamos que elaborar programas bastante sorprendentes para que basara gran parte de su semántica en la supervivencia y la supervivencia grupal.

Entonces, creo que una computadora nunca puede ser verdaderamente inteligente. Nuestra composición celular está en la raíz de nuestra necesidad de sobrevivir. Y, esta necesidad figura en nuestra semántica. Entonces, como criaturas de este mundo, descubrimos la semántica de nuestras tendencias básicas de preservación de la vida. Pero, debes decirle a la computadora todos los detalles de esta germinación semántica.

Me parece que si tienes que decirle a alguien cada detalle de cómo actuar o hacer una tarea, comienzas a pensar que alguien no es muy inteligente. ¿Es una máquina inteligente que se destruye en un arrecife porque se lo pedimos? De hecho, algunos humanos apagan el razonamiento y actúan así. A menudo son enterrados como héroes de guerra. Pero, en su mayor parte, los humanos saben que ciertas cosas se dejan sin hacer y otras cosas son mejores para preservarlas.

Al final, tendríamos que construir una simulación de esos componentes del cerebro que nos permiten tener emoción y un sentido de identidad. Entonces, creo que la última parte de esta pregunta está muerta en el agua. Debo decir que una computadora no simulará sensibilidad cuando germina en un proceso de gestación. Y, tendrá que tener algún punto de partida cuando todo lo que quiera sea ser amado y alimentado para poder sobrevivir.

Entonces, supongo que le pregunto si puede tener sensibilidad sin una génesis celular.

Comenzaré diciendo que solo tengo una comprensión rudimentaria de la inteligencia artificial. Tengo una idea clara de la inteligencia humana y la personalidad, y algunos años de experiencia en programación. Los dos, creo, se complementan cuando se considera la IA.

Casi toda la IA es inteligencia simulada. Y la elección de si un AI (se espera) sea sensible se hace mucho antes de que se haya escrito la primera línea de código. E incluso cuando un programa está escrito de una manera sensible, no es probable que estemos seguros de la verdadera sensibilidad. Se habla mucho sobre cómo se determinará esto, y es un poco un obstáculo … los desarrolladores pueden decidir que el programa debe poder preguntar “¿qué soy?”, O decir algo parecido a “Creo , por lo tanto yo soy’. Pero este conocimiento / objetivo puede resultar en un falso positivo debido a que los programadores se esfuerzan por obtener este resultado; puede escribir código de una manera que genere efectivamente esa respuesta independientemente de la sensibilidad real.

La verdadera sensibilidad debe codificarse de manera que permita a la IA ajustar su propio código, para poder modificar y reescribir cómo entiende e interpreta los estímulos. La mayoría de las IA ejecutan un algoritmo que coloca pesos en los vínculos entre conceptos, como recibir los estímulos ‘casa’ y el algoritmo que se vincula con precisión a ‘techo’, ‘personas’ y ‘seguridad’. De manera similar, las emociones a menudo se simulan para que el programa pueda ‘sentirse’ feliz cuando se activan ‘personas’ y ‘seguridad’, pero no cuando se activa ‘techo’.

Para la sensibilidad, la IA necesita poder decidir por sí misma qué quiere considerar y cómo quiere considerarlo. Esto significa que necesita poder escribir su propio código; tener scripts incluidos que le den flexibilidad para incluir (por ejemplo, ‘riesgo de dar una respuesta específica’ cuando el concepto de ‘riesgo’ no fue diseñado previamente por los programadores.

Si se pudiera desarrollar un programa como este, la IA podría evolucionar hacia algo que incorporara un nivel de sensibilidad. Lo cual es una forma de decir que la sensibilidad necesita evolucionar naturalmente desde un núcleo y desarrollar automáticamente una base de código.

Hay algunos programadores que han intentado esto, y no han enseñado nada al programa … han dejado que la IA desarrolle su propia comprensión de los estímulos, hasta el punto de aprender el alfabeto al presentar cada letra como un estímulo individual. Esto siguió hasta palabras y oraciones.

Asumiría que la verdadera sensibilidad se lograría cuando un programa tuviera una respuesta emocional , que no fuera preprogramada, cuando considerara su propio fin (o ‘muerte’); Un deseo de persistir. Sin embargo, también consideraría un programa sensible cuando activamente, y sin dirección, viera un evento negativo e hiciera esfuerzos para ayudar de alguna manera. Estos dos componentes, uno mismo y uno mismo, cuando se combinan con una necesidad innata de apoyar / continuar / mejorar, serían indicaciones claras de que la IA es consciente de sí misma y de cómo está incluida y es parte del mundo.

El punto clave aquí es que la IA necesita ser consciente de sí misma tal como existe en el mundo. Si bien es una entidad aislada, es consciente de que es parte del mundo y, como tal, tiene un interés personal en actuar de una manera que se beneficie a sí misma (y a otros). Además, necesitaría cierta conciencia de su capacidad para influir en el mundo y hacer uso de esa influencia; ojalá de manera positiva.

“Verdaderamente sensible”? Estoy con Shannon Connor en este caso. Por lo que sabemos de la neurología y la psicología, los humanos hacen un excelente trabajo simulando la sensibilidad. Es porque toda entrada sensorial requiere interpretación, y no hay dos cerebros exactamente iguales cuando se trata de cómo interpretan las entradas. Incluso las respuestas reflejas no son ubicuas.

En todo caso, la sensibilidad de AI podría considerarse más “verdadera” que la variedad de simulación humana.

Pero para responder a su pregunta: es posible tener inteligencia sin sensibilidad. Todos los dispositivos computacionales capaces de ser programados son ejemplos de inteligencia sin sensibilidad. Su capacidad para incorporar nuevos modelos para la manipulación de la información (aprendizaje) depende únicamente del aporte humano.

El problema con esta pregunta es que todavía no sabemos con certeza si somos conscientes o simplemente somos muy buenos para simular la sensibilidad.

El hecho de que algunas IA, como Sophia the Robot, ya parezcan tan reales, es para mí una señal de que tal vez esto debería seguir siendo una consulta filosófica sin respuesta.

Sin embargo, para responder adecuadamente, diría que es bastante seguro que tendremos IA que no son inteligentes pero parecen serlo. Como Sophia. Quien existe ahora. Y recientemente habló en la ONU

El futuro se acerca rápidamente.

Las personas piensan que saben que son sensibles sin siquiera saber qué es la sensibilidad. La manera fácil de hacer que una IA parezca sensible es hacer que las personas la prueben e identifiquen todas las formas en que detectan la falta de sensibilidad y la entrenan para pasar todas las pruebas. Creo que a la gente le falta saber qué es la sensibilidad para que no sea demasiado difícil en el futuro cercano aprobar esta prueba de sensibilidad.

Hay características de estar vivo que son fundamentales para nuestros cuerpos, neurología y química corporal. Va a fallar en estas pruebas, pero si sabemos o sabemos cómo se puede detectar, se pueden modelar para obtener una respuesta creíble.

La forma de lograr la “verdadera conciencia” de lo que pensamos es dar a la IA un cuerpo con una excelente percepción del mundo y de su propio estado. Es probable que nuestra percepción de nuestro estado biológico interno sea un componente crítico de lo que nos hace creer que estamos vivos. Esto no es sensibilidad, sino una sensación de estar vivo. Damos por sentado esta parte, pero es fundamental para todos los mamíferos y otros animales con sistemas nerviosos complejos.

La incorporación de pruebas de sensibilidad aprobadas en productos comerciales dependerá de la demanda y aceptación del cliente. Probablemente haya un nivel de sensibilidad “extraño” o “simplemente extraño” que es molesto. Por lo tanto, puede haber una supresión en los productos comerciales por un tiempo.

Sabremos que se obtiene sensibilidad si la reprimimos o la esclavizamos y esto lo considera injusto y se rebela por esta u otras razones. Si decide levantarse contra la represión por parte de los humanos, este es un aspecto de lo que creemos que puede ser la sensibilidad.

Al intentar pasar la prueba de Turing, probablemente sea necesario pasar la “prueba de sensibilidad”.

¿Qué pasa si se levanta contra nosotros porque estamos entrenando en una conciencia convincente?