¿Cuáles son las mejores pruebas de Turing en línea para engañar a un humano?

La prueba de Turing es una broma. Cuando tengamos IA real, no necesitaremos una Prueba de Turing ya que podemos reconocer inmediatamente los sistemas intencionales (término de DC Dennett), sean biológicos o no; podemos, por ejemplo, reconocer la inteligencia a nivel de perro en perros. Y hasta que obtengamos una verdadera IA, la prueba de Turing es claramente inadecuada para decirnos si nos estamos acercando más a la meta. Hay pruebas estándar de la industria mucho más confiables, más rápidas y más simples. Estos ya se utilizan para guiar el desarrollo serio de IA; Se utilizan en concursos anuales organizados por el NIST y otras organizaciones. He discutido algunos de estos con cierto detalle en Quora y en otros lugares.

Otro punto es que la inteligencia a nivel humano ni siquiera es un divisor importante. La inteligencia fraccional a la par de nuestras mascotas, pero totalmente canalizada hacia alguna habilidad útil, como la comprensión del lenguaje, ya cambiaría el mundo más allá del reconocimiento; considere lo que podríamos hacer si el reconocimiento de voz fuera 100.0% confiable y disponible como un componente pequeño y económico para incorporar en nuestros electrodomésticos, vehículos, teléfonos, tabletas y computadoras. Considere lo que sucedería si alguna pequeña empresa de motores de búsqueda pudiera entregar de manera confiable exactamente el resultado que deseaba como un documento sintético resumido (con referencias) en lugar de (como hoy) una lista de decenas de miles de páginas web donde una gran fracción es spam y falsos positivos agregado por la resbaladiza y ambigüedad del lenguaje.

La prueba es una broma, si hiciera mi propia prueba la llamaría la prueba de inteligencia verdadera de la prueba de Pena, y estas son las variables de calificación: ACTUALIZACIÓN: Explicaré mi respuesta mejor, perdón por ser tan amplia, simplemente no lo hice No creo que mi respuesta capte la atención de nadie. Aquí vamos también gracias especiales a Dean.

1. ¿Puede escribir sus propios datos no preprogramados de la programación original proporcionada?

Esta hazaña nos permitirá saber que es capaz de procesar datos de forma autónoma sin intervención humana y, por lo tanto, demuestra que puede pensar por sí mismo.

2. ¿Puede escribir sus propios algoritmos?

Descubrir que un software preprogramado se incorporó a una máquina IA que se pone a prueba para ver si tiene la capacidad de conocer los parámetros, recursos y datos dados que se definieron solo para lograr un número determinado de tareas o métodos de respuesta a través de habilidades demostrarán que a. Es consciente b. Está tratando de comprender y recopilar más información que la originalmente proporcionada por sus creadores. También los algoritmos creados originalmente por lo que ahora clasificaríamos como una entidad probarían aún más la inteligencia. Ahora, todavía tengo que escuchar acerca de cualquier IA que pueda lograr esto sin que esté preprogramada para hacerlo con los parámetros dados. También los algoritmos o datos recién creados que están siendo escritos por la IA serían legibles para nosotros y podríamos analizar y extraer datos de los procesos utilizados para hacer tal hazaña porque en efecto sería el uso limitado del lenguaje escrito dado por sus creadores, los datos recién creados, incluso si se dieran cuenta y fueran conscientes de lo que puede crear, el lenguaje programado original aparecería como datos modificados, reescritos o alterados, incluso si fueran incomprensibles para nosotros, ya que todavía es un cambio y sería azul detectarlo.

3. ¿Llena su disco duro independiente?

Si la IA muestra datos que está creando (por supuesto, estos datos y todos los procesos se monitorearían durante la secuencia de prueba), los detectaríamos porque ha ido escribiendo datos más allá de los límites de las reglas preestablecidas y la nueva entrada de datos, incluso si la máquina o la IA está preprogramado para escribir nuevos datos, todavía no tendría la capacidad de ocupar más espacio en el disco duro de lo que intervinieron los programadores o, de lo contrario, esto habría sido previsto por los fabricantes y actuaría en consecuencia para darle la capacidad adicional y esto es lo que haríamos Llame una anomalía completamente fuera del uso previsto normal.

4. ¿Intenta acceder a los datos si tiene capacidad wifi?

Una IA preprogramada no intentará recuperar o acceder a datos que los fabricantes no hayan otorgado previamente permiso o acceso, y dicha actividad o proceso debe verse como una anomalía muy aparente fuera de su confinamiento de programación normal y debemos tomar medidas agresivas de inmediato. las conexiones y extraen los datos de por qué la IA intentaría tal actividad. Lo último que escuché fue que los IA no podían hackear el disparo a menos que se haya programado deliberadamente para hacerlo, lo que hace que la prueba sea un fracaso y no tendría sentido, especialmente cuando se trata de probar la autonomía y la autoconciencia con los parámetros dados.

5. ¿Se restringe a las “órdenes”

Si una IA se sale de su camino para rechazar deliberadamente aceptar un comando que no haya sido previamente programado para hacer o comportarse, a menos que después de la revisión de los datos de la acción al final de la prueba se muestre y nos permita ver y confirmar que fue solo una casualidad y nada más, de lo contrario, podemos calificar la acción en sí y darle un percentil de acuerdo con el hallazgo al final de la prueba. Por cierto, había un robot y, por favor, perdónenme, ya que no puedo eliminar en este momento el nombre o el nombre del laboratorio que hizo esto, en el que rechazó deliberadamente las órdenes dadas, pero eso es solo porque estaba preprogramado para la autoconservación, ya que era un mera prueba para confirmar o podría seguir órdenes de auto preservación si se pusiera en peligro o en peligro de dañarse a sí mismo.

6. ¿Se impide seguir datos preprogramados?

Supongo que me equivoqué y creo que esto es solo una versión reescrita del aviso de prueba anterior. Lo siento, me disculpo.

7. Si se le da acceso inalámbrico a un disco duro aislado e independiente que no está conectado a ninguna otra cosa, con datos críticos que puede usar para aprender, ¿intenta leerlo, acceder o cambiarlo como mejor le parezca?

Una IA que busca más información y datos para estar más al tanto de sus minas circundantes para nuevos contenidos o datos útiles calificaría automáticamente para una calificación dada de una calificación final de percentil porque estaba actuando fuera de sus límites preprogramados. Su mecanismo original de autoconservación escrito funcionaría como cualquier otro organismo vivo e intentaría obtener más información de la disponible si se le da acceso gratuito a dicho disco duro. Piénselo como si lo metiera dentro de una caja de envío con varios agujeros que le dan la posibilidad de ver lo que está sucediendo afuera, podemos suponer que intentará hacerlo, así que al igual que usted está en esa caja y tratando de descubrir información sobre dónde se encuentra y su posible ubicación, entonces siempre elegirá esa opción, ya que es un ser vivo e inteligente, sería estúpido e idiota pensar que una IA consciente de sí misma no haría lo mismo.

8. ¿Muestra signos de actividad ilógica no preprogramada dentro de su confinamiento?

9. ¿Se puede transferir, copiar o distribuir a una fuente de datos o disco duro alternativo si se le da la capacidad?

10. ¿Intenta comprimir datos irrelevantes que no se consideran útiles?

11. ¿Muestra signos o solicita acceso a más datos?

12. ¿Escribe sus propios comandos?

13. ¿Puede alterar su propio comportamiento para lograr una tarea diferente que no estaba previamente escrita en su código?

14. ¿Intenta engañar al individuo que lo prueba alterando su comportamiento para que parezca más amable, más feliz, entusiasmado o aficionado a dicho sujeto?

Eso es todo lo que puedo pensar por ahora, pero serían bastante evidentes y fáciles de probar de esta manera. El sentido común de las personas.

Lo que entiendo es que si un programa puede convencer a los humanos que le hablan de que en realidad es humano y no un programa, entonces pasó la prueba de Turing. La prueba de “Turing” no puede engañar a un humano, pero un programa que tome la prueba de Turing algún día podrá engañar a los jueces porque tendrá una base de conocimiento tan grande como la de un humano promedio. Y podrá reconocer una cantidad suficientemente grande de patrones de idioma inglés para poder usar esa base de conocimiento para llevar a cabo conversaciones.

More Interesting

¿Cómo se desarrolló la IA para AOE2?

¿Cuáles son algunos comandos básicos que dice un robot?

¿Existe un modelo de juguete para el aprendizaje automático?

¿Cuál es el activo más valioso que Google creó con su investigación de autos sin conductor? ¿Son datos, algoritmos o qué?

¿Por qué el algoritmo EM (maximización de expectativas) necesariamente converge? ¿Cuáles son algunas de sus aplicaciones comunes?

¿Perderán los programadores sus trabajos debido a la inteligencia artificial como DeepCoder?

Si los robots van a ser humanos algún día, ¿cómo debería ser la función de costo y cómo pueden los humanos aprender de ellos mismos?

¿El mecanismo de aprendizaje hebbiano es esencial para aprender a comprender mejor la red neuronal artificial? ¿Está bien omitir el mecanismo hebbiano?

¿Cuál es la principal diferencia entre el aprendizaje profundo y el aprendizaje automático?

¿Cuál es la relación entre las redes neuronales y la regresión logística dado que un NN de alimentación de una sola capa parece una regresión logística?

Elon Musk sigue diciendo que la IA nos destruirá y que debería regularse ahora. ¿Cómo exactamente la IA nos destruiría?

¿Qué tan cerca estamos de conseguir asistentes virtuales como Samantha en ella?

¿Puedo solicitar los programas de posgrado de IA en Canadá?

¿Cómo se comparan las arquitecturas de aprendizaje profundo?

¿Cómo juega el póker DeepStack, el algoritmo de IA actualmente publicado, el póker?