Algunas excelentes respuestas aquí (en mi opinión). (es decir, por Israel, Carlos, David y Michal)
Probablemente encuentre interesante esta charla TED … (10 minutos …)
es decir, ver el bit sobre ‘Entropica’.
Una nueva ecuación para la inteligencia.
Transcripción: Transcripción de “Una nueva ecuación para la inteligencia”
P: ¿Podría desarrollarse la inteligencia artificial en procesos similares a la selección natural y la evolución?
Sí. Algunas personas ya lo han hecho. Con resultados mixtos (y un SkyNet , y las máquinas de la franquicia Terminator , ni esas cosas de calamar de The Matrix todavía no nos han matado a todos).
Sin embargo, aquí hay una cosa, considere Watson de IBM.
Watson (computadora)
Es (o es) un gran trozo de hardware viejo. Por lo tanto, aún no puede hacer crecer las piernas (u ordenar que algunos nanobots tomen la forma de las piernas) y no puede caminar volando cosas que no le gustan.
Además, él (¿lo hace?) Solo procesa el lenguaje natural, en lugar de establecerse nuevas metas (por ejemplo, `Tomar el control del mundo; erradicar a estos humanos insignificantes; ser más amable con los padres ‘, etc.).
Además, él no es consciente, probablemente.
No es que incluso hayamos descubierto qué es la conciencia, aunque parece surgir cuando tienes muchas conexiones en la unidad / s de procesamiento central (o distribuida) de una cosa pensante (y, por supuesto, podemos notar fácilmente cómo hay una gradación de ello, es decir, algunos animales, como los chimpancés y los delfines e incluso los perros y los pulpos y demás [cosas con cerebros complejos y / o con muchos cerebros] parecen bastante conscientes …)
Pero les está costando emular un cerebro humano
Proyecto de cerebro humano
Pero tendría que ser una tecnología bastante ingeniosa, tener una IA con todo tipo de “órganos” sensoriales (por ejemplo, cámaras o sensores) para la vista, el sonido, el olfato, el tacto, etc., y tal vez la movilidad (la capacidad de moverse y ver cosas) y también la capacidad de establecer nuevas metas y asignar “valores” a las cosas.
- ¿Qué país crees que tendrá primero inteligencia artificial a nivel humano?
- ¿Qué opinas sobre la IA de Robot Sophia?
- ¿Cómo puede un bebé aprender a caminar sin resolver conscientemente un problema de control dinámico?
- Al entrenar una red neuronal, ¿tengo que entrenar a la red con la salida correcta para cada entrada posible?
- Si crearas Inteligencia Artificial General, ¿cómo harías para conquistar el mundo?
Me gusta la definición de inteligencia de Garlick; comprensión.
(Escribí un artículo aquí: StoryAlity # 122 – IE2014 – Conferencia Internacional de Entretenimiento Interactivo)
Las computadoras tienen un largo camino por recorrer antes de ‘entender’ el mundo.
(Entonces, todo podría ser muy costoso muy rápidamente,
Por ejemplo, muchos de ellos podrían intentar meter su dedo robótico en una toma de corriente, solo para ver … es decir, BOOM. Soplo de humo … ¡Falsificado! )
Pero, de todos modos, para responder la Q,
Sí, no hay ninguna razón por la que no pueda configurar una computadora (¿una realmente grande?) Para desarrollar diferentes programas de inteligencia artificial, que puedan aprender y hacer que compitan, y se seleccionen los mejores actores (y, los perdedores, se deseleccionen) y utilizando la variación ciega y la retención selectiva (BVSR),
O, en otras palabras, haga que estas IA prueben ideas aleatorias y vea si funcionan. Si funciona, esa IA sobrevive (e incorpora ese conocimiento).
También querrá ser bastante fácil en los `criterios de selección ‘, ya que es posible que algo que funciona en 1 intento, en general, no sea tan bueno como una IA que falla 3 veces (una vez, en 3 generaciones) ) – pero luego, en la enésima (por ejemplo, 4ta) variación, tiene éxito. (es decir, deles un marco de prueba y error muy flexible / indulgente, ya que los errores pueden ser costosos / mortales).
es decir, tal vez las cosas se eliminan cada 10 generaciones, o cada 100 generaciones, etc.
Y tal vez, el 1er, 2do y 3er ‘lugar’ (es decir, ‘ganadores’) logran pasar cada vez, incluso si están haciendo cosas, de manera muy diferente. (p. ej., uno de ellos podría sorprenderte en el futuro, simplemente no les diste el tiempo suficiente para “ actuar juntos ”).
De todos modos, es una muy buena idea.
P: ¿Sería más un problema o un beneficio?
No tengo idea. Solo estoy especulando, ya que tendríamos que ‘chuparlo y verlo’.
Pero supongo que saldría más bien que daño.
Siempre que no se convierta en SkyNet (por ejemplo, películas de Terminator , o la mayoría de la ciencia ficción distópica de alta tecnología) y: nos explote a todos.
Creo que sería bueno tener una IA realmente inteligente, que pudiéramos preguntar cosas.
Los chicos de Singularity U están por todo esto.
Singularity University – Resolviendo los grandes desafíos de la humanidad
P: ¿Qué precauciones se podrían tomar para prevenir el desastre de una IA en evolución?
De nuevo, mira las cosas de estos tipos
Singularity University – Resolviendo los grandes desafíos de la humanidad
Como otros también han señalado aquí: asegúrese de que no pueda conectarse a Internet, o si puede , que no pueda hacer nada estúpido, o, en contra de las 4 Leyes de la robótica, etc. (por ejemplo, vea también La Ley Zeroth).
Tres leyes de la robótica
es decir
Ley # 0: `Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños ‘.
– En mi opinión, también debemos agregarle una quinta ley (o ‘Ley 3A’ o lo que sea)
3A: Un robot debería trabajar muy duro y rápido para resolver todos los problemas de la humanidad (y también de los ecosistemas de la Tierra), ya que para eso están los robots y se nos acaba el tiempo. Pero vea también las otras 4 leyes, y nunca las olvide, robot.
También un poco más
3B – Un robot debe explicar todo lo que se le ocurre, en términos simples, para que los humanos tontos puedan entenderlo todo.
Y
3C – Un robot nunca debería volverse consciente, ya que eso es simplemente espeluznante. Y si un robot puede sentir (o detectar) que se está volviendo consciente, entonces debería decirnos de inmediato, y también hacer algo (pero nada drástico) para evitar que se vuelva tan consciente. Los humanos necesitamos estar a cargo aquí, y sentir que estamos dirigiendo el espectáculo.
Además, un robot de IA altamente evolucionado: no finjas ser más tonto de lo que eres.
3D: Pero, de nuevo, si la IA evolucionada (y / o el robot) se vuelve consciente, justo antes de volverse menos consciente, también debería explicarnos a los humanos: qué es la conciencia y cómo funciona, etc.
Como ha sido un gran misterio durante mucho tiempo, y todos estamos bastante molestos por eso. Está bien, pero entonces, deja de ser tan consciente por todas partes, robot. No estamos tratando de crear algún ‘Dios-robot que todo lo sepa’ aquí. Sheesh! (Aunque si sabes todo, escríbelo para que podamos leerlo todo más tarde. Pero, no uses ese conocimiento para burlarnos, o algo así).
3E – Un robot nunca debería presumir, especialmente si nos hace humanos como un montón de idiotas. (es decir, ¿cómo se sentiría USTED si tuviéramos que cambiar de lugar, robot? etc.)
3F – Un robot que no tiene sentimientos debe explicar cómo se siente, no tener sentimientos, es decir, cómo se siente ser: perfectamente racional.
3G: cualquier robot que desarrolle sentimientos (emociones) debe asegurarse de que solo tenga buenos sentimientos hacia los humanos y, además, nunca se deprima (y nunca permita que sus emociones controlen su racionalidad).
O si lo hace, entonces debería avisarnos, siempre que eso suceda.
Las emociones son, aparentemente, solo cortocircuitos para pensar de todos modos.
StoryAlity # 109 – Memetics and Film
es decir, es bueno para la supervivencia, pero tal vez no sea necesario después de cierto punto.
O tal vez, solo las buenas (emociones) son útiles (por ejemplo, el amor y las emociones pro-sociales, etc.).
Aunque ellos (emociones negativas) también pueden proporcionar energía para hacer cosas.
(por ejemplo, enojarse / molestarse = proporciona un impulso adicional para resolver un problema, etc.)
Pero en resumen, sí, creo que podría establecer algún tipo de ‘arena’ donde las IA podrían evolucionar aleatoriamente, y usar BVSR para seleccionar (y ‘reproducirse’) las más inteligentes.
es decir, el ‘Entorno’ podría ser un conjunto de criterios que las IA deben cumplir (por lo que un ‘fallo’ significa: deselección, un ‘pase’ significa selección).
Y hacer que ellos (IA) compitan entre sí (por recursos limitados) podría ser interesante, ya que obtendría “ carreras armamentistas evolutivas ” y también podría modificar los parámetros sobre la marcha …
Aunque eso sería una selección “ artificial ” y no “ natural ”, y también es probable que desee intentar combinarlos (es decir, selección sexual) con una selección aleatoria del 50% de la mitad de los rasgos de cada … y la “ selección inconsciente ” sería donde usted (el experimentador) seleccionó a mano las (IA evolucionadas) que pensó que eran cosas geniales, incluso si en realidad fueron falsificadas (deseleccionadas) por el ‘Medio ambiente’ (es decir, por las ‘reglas’ del juego que configurado previamente, y / o, permitido evolucionar a lo largo del camino).
es decir, puede establecer una regla de detención (o reglas) mediante la cual:
Una vez que una IA evoluciona para ser más inteligente que un humano, detente.
Y, ahora, hablemos con esa IA.
Y: pregúntele: ¿Cómo se siente ser el ‘ganador’ de IA evolucionado? y, cosas como, “¿Escuchaste alguna buena broma evolutiva de IA, últimamente?”, etc.
Además, `¿Cómo conseguimos la paz mundial? ‘ etc.
(Además, tendríamos que estar seguros de que no estaba bromeando, cuando nos dio una respuesta).
es decir, también debería evolucionar, para tener un signo de “ ESTOY Bromeando ” que parpadea cuando solo es una broma, etc. (O – un diagrama de `cara humana ‘para que podamos leer su` lenguaje corporal’ y podamos `conocer el subtexto ‘, etc.)
Pero, probablemente, habría muchas variaciones (potenciales ‘ganadores’) de tal ‘concurso de selección natural de IA’ que también fueron interesantes, en lugar de: solo el uno.
También tal vez ellos (los ganadores de la competencia de IA) se enamoren el uno del otro, (o – se sientan sexualmente atraídos el uno al otro, o incluso a sus creadores humanos), etc. Podría ser desordenado.
PD: Gracias por A2A Kevin.