Martin Leufray III escribió
Primero, creo que su pregunta pierde el punto principal.
La inteligencia y la sensibilidad son ortogonales. No tienen nada que ver el uno con el otro. Si busca sensibilidad, la sensibilidad no implica inteligencia. Y la inteligencia no implica sensibilidad.
La sensibilidad no se puede alcanzar artificialmente. No es fisico. No se puede medir ni probar. O es o no es. Es un estado binario, activado o desactivado.
No tenemos una definición o criterios establecidos para lo que es sensible o no. Puede afirmar que son lo mismo, pero incluso la definición de inteligencia es discutible. Hay varios tipos de inteligencia. El reconocimiento de patrones visuales es un tipo de inteligencia muy diferente a la inteligencia requerida para aprender un idioma. No puedes simplemente hacer tal declaración.
Si la sensibilidad no es física, ¿qué es? ¿Por qué no se puede lograr artificialmente según usted? Suponiendo que crees que somos sensibles, ¿qué parte de nosotros no es exactamente física? Sentiente es una palabra, una abstracción. Apunta a algo vago sobre el que todos tenemos una opinión diferente.
La inteligencia, un tema diferente, puede ser guiada por otros, autoguiada o una combinación. La inteligencia humana abarca esa trinidad. No conozco ningún esfuerzo para lograr la inteligencia autoguiada por la comunidad de IA.
¿Hay beneficio en la inteligencia artificial autoguiada?
La inteligencia no es un tema diferente, es el único tema de esta pregunta.
El término “IA fuerte” parece ser un código para algo para lo que no encuentro una definición de consenso. A mí me huele a “amor”. Indefinible
Entonces me quedan estas preguntas:
¿Qué quieres decir con “IA fuerte”?
Comentario muy intelectual, pero debería ser bastante obvio lo que probablemente significa una IA fuerte. Similar a un argumento fuerte, una IA fuerte es aquella que se destaca del medio ambiente para lograr su objetivo y no es algo que se mida en números.
¿Por qué querrías una IA autodirigida? ¿Y si decidiera matarte?
¿Por qué querrías una computadora que explore nuevas teorías científicas por sí misma? ¿Qué pasa si de repente decide ser malvado?
Si sabes algo acerca de la inteligencia artificial (que en su última instancia no es diferente de la inteligencia natural), entonces debes ser el primero en saber que una IA no simplemente decide matarte. No es una sola función que puede aprender. Cuanto más aprendes sobre el lenguaje de máquina, más entiendes que esta es una creencia común pero completamente absurda. Deberíamos estar mucho más preocupados por el efecto que potencialmente tiene en nuestra sociedad y economía.
Gerhard Adam escribió
Dado el criterio que describe, no creo que nadie esté remotamente cerca de lograrlo y no lo estará.
La clave está en “toma su propia decisión”, “tiene ideas originales” y “busca lo que quiere”. Por lo tanto, tenemos que preguntarnos, sobre qué base evaluamos una inteligencia, si una de las características de haberla logrado es que puede no compartir nuestros mismos objetivos, ni siquiera ser comprensible desde nuestra perspectiva.
Gerhard hace un punto mucho más fuerte. Una máquina vive en un entorno completamente diferente al nuestro. Nuestra conciencia e intelecto depende directamente de nuestro entorno físico. Hay elementos físicos que determinan muchas de nuestras características y habilidades. Una computadora hace miles de millones de cálculos en una fracción del tiempo que necesitamos, pero aún no puede reconocer una carita sonriente que todo humano puede identificar fácilmente. Si existe una IA que persigue sus propios objetivos (nuevas ideas científicas), no solo la idea que genera sino todo el proceso hacia esa idea y las consideraciones (que puede) hacer (s) podrían estar más allá de nuestra comprensión a primera vista. Estos pueden incluir métodos de optimización o métodos en general que no nos parecen muy obvios a primera vista pero que tienen mucho más sentido para un marco de referencia basado en cálculos. Esto no significa que no podamos pensar en esto nosotros mismos, sino que simplemente significa que es más probable que una computadora lo descubra.
El fracaso en todos los proyectos de IA es que no queremos inteligencia real, queremos máquinas que renuncien a sus propias motivaciones y objetivos para concentrarse en problemas que los humanos consideran importantes y que resolverán problemas que no tienen nada que ver con ellos.
No estoy de acuerdo con esto. Los desarrolladores y científicos de todo el mundo sueñan con lograr una inteligencia real. Creo que lo que hay detrás y más allá de este argumento es el miedo subconsciente que todos tenemos de que la IA nos exterminará.
Este tipo de esfuerzos no puede lograr la inteligencia, ya que, por cualquier definición, cualquier criatura que carece de los medios y la libertad para actuar en su propio interés no puede reclamar tener ninguno de los elementos necesarios de la verdadera inteligencia.
¿La inteligencia es la capacidad de actuar en su propio interés? ¿No requiere exponencialmente más inteligencia para considerar el bienestar de su especie o el planeta o cualquier otra forma de vida además de la suya? ¿No implica eso que necesita ser capaz de separarse del bien mayor por así decirlo y comprender el pasado y el futuro, así como la causa y el efecto? ¿No es eso lo que algunos de nosotros consideramos ser conscientes?
El resto de las respuestas actualmente escritas realmente no agregan nada.
¿Quién parece estar más cerca de dar a luz una inteligencia artificial fuerte?
Bueno, ya hay muchos sistemas fuertes de inteligencia artificial. Mire las diversas direcciones donde ya estamos usando IA. ¿Realmente crees que las decisiones en el mercado de valores todavía son tomadas principalmente por humanos?
La inteligencia artificial se utiliza para predecir el comportamiento humano, los patrones climáticos y los terremotos. Lo usamos para investigar las estrellas e identificar caras en imágenes. La definición más comúnmente aceptada en la medida en que existe una de las palabras AI fuerte es una que está por encima del promedio o es humana.
Obviamente, siempre hay soluciones por encima del promedio para todo. Si está usando la palabra fuerte en el contexto de una interfaz similar a la humana, entonces no comprende qué es la inteligencia.
Para que una máquina sea humana me gusta lo que me gusta llamar humanización y no tiene nada que ver con la inteligencia. Esto se llama procesamiento / generación de lenguaje natural, es simplemente una capa de aplicación que traduce los estados de la máquina al lenguaje humano y viceversa. El procesamiento del lenguaje natural es algo que he estudiado y realmente no tiene nada que ver con la inteligencia.
Para aquellos que tienen una idea conceptual simple de una IA y creen que no estamos cerca de hacer una “IA real”, les puedo garantizar que estamos muy cerca y que cualquiera que lea esto vivirá para ver que eso suceda.