¿Puede una inteligencia artificial creer algo?

Watson respondió preguntas sobre el peligro. Si se le pregunta qué buen motor de búsqueda Google dijo Pregunte; Yahoo dijo Google.

La tecnología es un subproducto de la cultura, por lo que encarna sus creencias, como las organizaciones creadas en torno al aprendizaje automático. Existe la cuestión de cómo cambiar sus creencias en interés del usuario. La computación permite razonamientos complejos. Los bots tienen conciencia y autoconciencia. El objetivo de una superinteligencia podría necesitar simpatía por los valores humanistas. Pueden imitar la emoción. AGI se convierte en sentido común. Algunos investigadores han pensado que serían espirituales.

Esto se remonta al valor de verdad en la lógica. Los axiomas matemáticos son suposiciones intuitivas. Las creencias son inversas a la incertidumbre. Una máquina puede obtener los datos, pero luego tiene que razonar sobre ellos para tener niveles de confianza y probabilidades condicionales en la teoría de la decisión. Gran parte de esto fue de procedimiento basado en reglas y principios de configuración o estándares de comunicación. Un usuario podría ser confiable o no si tuviera la contraseña correcta. El sistema continúa haciendo representaciones sobre el mundo en símbolos, proyecciones o predicciones, a menudo supeditadas a objetivos. Las funciones hacen evaluaciones. Los algoritmos tienen sesgos. La automatización utiliza agentes dedicados o especializados.

La pregunta puede ser si entretendrá las creencias del usuario o actuará de acuerdo con sus intereses y existen mecanismos para esto, como representantes, para que el usuario pueda actualizarse a medida que cambian las condiciones.

¿Recuerdas Tay.ai, la IA de Microsoft? Eso es lo que ella creía:

¿Por qué ella “cree” eso? Debido a que la IA está optimizada para la interacción (clics + tiempo de visualización) Este tipo de publicaciones fue muy atractivo para algunas personas. Por lo tanto, la IA intenta que estén lo más comprometidos posible con este tipo de declaraciones.

Del mismo modo, YouTube AI cree que “la tierra es plana”:

Esto es lo que hice para descubrir eso. Busqué en YouTube “¿La Tierra es plana o redonda?”. ~ 70% de los resultados abogaron por una Tierra redonda. Ahora elegí recomendaciones al azar, 5 veces seguidas. Ahora el 90% de los videos abogan por una tierra plana.

Hice el código disponible gratuitamente:

Código para explorar las recomendaciones de youtube con cualquier tema

Luego puede representar los resultados visualmente, por ejemplo, esto es lo que encuentra cuando busca “Clinton” y sigue las recomendaciones 5 veces:

Todos los detalles aquí: ¿La IA de YouTube favorece a Trump y las noticias falsas?

Siéntase libre de preguntarme un tema que le gustaría saber en qué cree la IA de YouTube.

Guillaume

PD: Por supuesto, el algoritmo no “cree” de la misma manera que los humanos. Más bien deberíamos decir “quiere que creas que …”.

¿Qué significa “creer” algo para ti? Si su concepto está ligado a la conciencia, entonces actualmente, no, ninguna IA cree nada. No está muy claro cómo definir la conciencia y hacer una prueba de ello, pero es suficiente decir que nada sobre las IA actuales nos hace cuestionar si podrían serlo. Si lo serán en el futuro es un tema de enorme debate. Estoy en el campamento que algún día lo harán, pero eso es más filosofía que ciencia en nuestra etapa actual de comprensión.

Una definición más clara de creencia es cuando un agente interactúa con el mundo y construye un modelo interno descriptivo y predictivo del mundo, su creencia es lo que interpreta el estado del mundo actual, como lo describe su modelo. Para esta definición, sí, hay IA que tienen creencias. De hecho, casi cualquier robot necesitará tener algún grado de creencia, aunque eso no significa que las creencias tengan que ser muy sofisticadas.

Una definición alternativa que podría plantear es que ese agente no solo tiene un modelo que está actualizando con interacción, sino que también es “consciente” de otros estados alternativos en los que podría estar el mundo. Este es un requisito un poco más estricto y descarta algo de IA, pero muchos sistemas probabilísticos requieren esta misma capacidad. En la literatura del proceso de decisión de Markov parcialmente observable, incluso tenemos un nombre especial para una información llamada estado de creencia. El estado de creencia es una distribución de probabilidad interna sobre los posibles estados del mundo en los que el agente cree que podría estar. Entonces, una vez más, algunas IA sí creen las cosas bajo esta definición.

¿Alguna vez creerá un sistema de IA que esa es la pregunta?

Te das cuenta de que no hay nada remotamente parecido a una IA en existencia actualmente y probablemente no será por más tiempo de lo que se cree actualmente. Cualquier sistema que pretende ser una IA sigue siendo solo un programa determinista, a menudo con un programador obstinado o una técnica ad hoc en su origen.

Obviamente creemos, pero de acuerdo con las respuestas que recibió anteriormente, el término creer debe definirse.

Primero necesita un sistema que pueda modelar tanto a sí mismo como al entorno en el que se encuentra. Estos modelos deben derivarse con respecto al entorno y los objetivos definidos por la viabilidad. Ahora la creencia pertenece a un proceso. Este proceso es un proceso de refinamiento que toma resultados plausibles y secuencias de acciones y las realiza (las acciones) para lograr un objetivo (definido por la viabilidad). Si el resultado es normalmente (tenga en cuenta las reglas hebbianas (para las rutas neuronales) => normalidad) exitoso, entonces el proceso eventualmente puede saltarse la parte de planificación e instalar las acciones como una respuesta de búsqueda. Esta transformación comenzó con plausibilidad y terminó con “certeza” (entre comillas porque nada es seguro). La plausibilidad en las respuestas y las acciones refleja la creencia, la verificación contra los entornos conduce al conocimiento. Entonces, el proceso es el refinamiento de la creencia para producir conocimiento.

Algunas personas creen cosas que nunca necesitan verificar: este tipo de creencia se llama fe y puede ser útil ya que proporciona un plan de acción consistente (pero no probado).

imaginemos que hay IAs

Si una IA “cree”, entonces está diciendo algo que puede ser cierto pero que actualmente no se ha probado

Si una IA tiene fe, entonces probablemente estén defectuosos (se han programado con información que no es parte del entorno). Podemos perder el control de esa IA.

Si una IA construye modelos que se derivan de lo que podría llamarse emociones (relacionadas con acciones de objetivos), puede desarrollar metas que pueden entrar en conflicto con nuestras metas, la IA es peligrosa. Una de las características de esto sería construir modelos fantasiosos e incluso poco realistas para los resultados que pertenecen a la IA (y tal vez no a nosotros). Por supuesto, hacemos esto todo el tiempo y podemos crear conflictos por eso. (La humanidad tiene expectativas mucho más allá de la capacidad de entrega del entorno subyacente)

Para nosotros, las reglas y leyes resultantes (esta es la evolución memética, véase el capítulo 12 Gen egoísta – Richard Dawkins) son intentos por nuestra parte de crear restricciones de contención / organización para grandes grupos de personas. Hemos agregado capas sociológicas y económicas al medio ambiente y funcionan con memes. ¡Este último experimento evolutivo no ha estado funcionando por mucho tiempo y ya está fuera de control!

Hay (al menos) dos sentidos de creencia. Una forma de ver la creencia es en términos de comportamiento. Si alguien está en el medio de un campo abierto (sin muro) pero realmente cree que hay un muro de piedra justo delante de él, se detendrá. También pueden decir: “No puedo seguir. ¡Hay un muro de piedra aquí! ”Pueden intentar encontrar una manera de“ superar ”el muro imaginario. A partir de estas pistas, podemos concluir que la persona “cree” que hay un muro de piedra allí a pesar de que no podemos verlo. En este sentido, un sistema de inteligencia artificial podría comportarse de manera coherente con diversas creencias y podríamos inferir cuáles eran esas creencias.

La segunda forma de pensar acerca de “creer” es como un proceso activo que a menudo tiene consecuencias de comportamiento ahora o en el futuro, pero también tiene conciencia, emociones y sentimientos asociados. De repente tienes razones para “creer” que tus padres están muertos. No solo procesas alguna información. Usted * siente * algo profundo. Personalmente, no veo ninguna razón para suponer que los sistemas de IA realmente sentirían esto; o, para decirlo de otra manera, no les “importará” lo que creen. Por otro lado, muchos científicos informáticos argumentarían que la conciencia surgirá de la complejidad de la interconexión y que el sustrato material que realiza los cálculos es irrelevante. Creo que esto equivale a confundir una simulación de un tornado con un tornado.

Múltiples escenarios de la singularidad: Dr. John Charles Thomas Ph.D .: 9781523711772: Amazon.com: Libros

No como tal, no. No como definiríamos “creencia”, al menos.

Pero los sistemas modernos de IA pueden hacer suposiciones para poder trabajar con datos de entrada incompletos o contradictorios. Esos supuestos pueden ser vistos como “creencias”.

Creencia (definición común): aceptar como verdadero … especialmente evidencia ausente.

Por lo tanto, no es científico creer .

La creencia es para humanos tontos.

Vea mi invención, “no creencia” a través de: nonbeliefism.com

Si. Creer en algo es arreglarlo (aunque solo sea temporalmente) y usarlo como punto de referencia para contextualizar otras cosas. Es una parte fundamental de la experiencia de procesamiento, sea cual sea el sistema que sea.

Si. Especialmente si se construye con el paradigma Creencia-Deseo-Intención. Entonces tendrá creencias sobre el mundo, las metas y los planes para alcanzar esas metas.

Seguro. Definir creencia. Impleméntelo en código. Correr.

Su problema más difícil será definir qué es una ‘creencia’ como lo son la mayoría de los problemas difíciles de Ai