¿Se podría desarrollar la inteligencia artificial en procesos similares a la selección natural y la evolución? ¿Sería más un problema o un beneficio? ¿Qué precauciones podrían tomarse para prevenir el desastre de una IA en evolución?

Algunas excelentes respuestas aquí (en mi opinión). (es decir, por Israel, Carlos, David y Michal)

Probablemente encuentre interesante esta charla TED … (10 minutos …)
es decir, ver el bit sobre ‘Entropica’.
Una nueva ecuación para la inteligencia.
Transcripción: Transcripción de “Una nueva ecuación para la inteligencia”

P: ¿Podría desarrollarse la inteligencia artificial en procesos similares a la selección natural y la evolución?
Sí. Algunas personas ya lo han hecho. Con resultados mixtos (y un SkyNet , y las máquinas de la franquicia Terminator , ni esas cosas de calamar de The Matrix todavía no nos han matado a todos).
Sin embargo, aquí hay una cosa, considere Watson de IBM.
Watson (computadora)
Es (o es) un gran trozo de hardware viejo. Por lo tanto, aún no puede hacer crecer las piernas (u ordenar que algunos nanobots tomen la forma de las piernas) y no puede caminar volando cosas que no le gustan.
Además, él (¿lo hace?) Solo procesa el lenguaje natural, en lugar de establecerse nuevas metas (por ejemplo, `Tomar el control del mundo; erradicar a estos humanos insignificantes; ser más amable con los padres ‘, etc.).
Además, él no es consciente, probablemente.
No es que incluso hayamos descubierto qué es la conciencia, aunque parece surgir cuando tienes muchas conexiones en la unidad / s de procesamiento central (o distribuida) de una cosa pensante (y, por supuesto, podemos notar fácilmente cómo hay una gradación de ello, es decir, algunos animales, como los chimpancés y los delfines e incluso los perros y los pulpos y demás [cosas con cerebros complejos y / o con muchos cerebros] parecen bastante conscientes …)
Pero les está costando emular un cerebro humano
Proyecto de cerebro humano
Pero tendría que ser una tecnología bastante ingeniosa, tener una IA con todo tipo de “órganos” sensoriales (por ejemplo, cámaras o sensores) para la vista, el sonido, el olfato, el tacto, etc., y tal vez la movilidad (la capacidad de moverse y ver cosas) y también la capacidad de establecer nuevas metas y asignar “valores” a las cosas.

Me gusta la definición de inteligencia de Garlick; comprensión.
(Escribí un artículo aquí: StoryAlity # 122 – IE2014 – Conferencia Internacional de Entretenimiento Interactivo)

Las computadoras tienen un largo camino por recorrer antes de ‘entender’ el mundo.
(Entonces, todo podría ser muy costoso muy rápidamente,
Por ejemplo, muchos de ellos podrían intentar meter su dedo robótico en una toma de corriente, solo para ver … es decir, BOOM. Soplo de humo … ¡Falsificado! )

Pero, de todos modos, para responder la Q,
Sí, no hay ninguna razón por la que no pueda configurar una computadora (¿una realmente grande?) Para desarrollar diferentes programas de inteligencia artificial, que puedan aprender y hacer que compitan, y se seleccionen los mejores actores (y, los perdedores, se deseleccionen) y utilizando la variación ciega y la retención selectiva (BVSR),

O, en otras palabras, haga que estas IA prueben ideas aleatorias y vea si funcionan. Si funciona, esa IA sobrevive (e incorpora ese conocimiento).

También querrá ser bastante fácil en los `criterios de selección ‘, ya que es posible que algo que funciona en 1 intento, en general, no sea tan bueno como una IA que falla 3 veces (una vez, en 3 generaciones) ) – pero luego, en la enésima (por ejemplo, 4ta) variación, tiene éxito. (es decir, deles un marco de prueba y error muy flexible / indulgente, ya que los errores pueden ser costosos / mortales).

es decir, tal vez las cosas se eliminan cada 10 generaciones, o cada 100 generaciones, etc.
Y tal vez, el 1er, 2do y 3er ‘lugar’ (es decir, ‘ganadores’) logran pasar cada vez, incluso si están haciendo cosas, de manera muy diferente. (p. ej., uno de ellos podría sorprenderte en el futuro, simplemente no les diste el tiempo suficiente para “ actuar juntos ”).

De todos modos, es una muy buena idea.

P: ¿Sería más un problema o un beneficio?

No tengo idea. Solo estoy especulando, ya que tendríamos que ‘chuparlo y verlo’.
Pero supongo que saldría más bien que daño.
Siempre que no se convierta en SkyNet (por ejemplo, películas de Terminator , o la mayoría de la ciencia ficción distópica de alta tecnología) y: nos explote a todos.
Creo que sería bueno tener una IA realmente inteligente, que pudiéramos preguntar cosas.
Los chicos de Singularity U están por todo esto.
Singularity University – Resolviendo los grandes desafíos de la humanidad

P: ¿Qué precauciones se podrían tomar para prevenir el desastre de una IA en evolución?

De nuevo, mira las cosas de estos tipos
Singularity University – Resolviendo los grandes desafíos de la humanidad
Como otros también han señalado aquí: asegúrese de que no pueda conectarse a Internet, o si puede , que no pueda hacer nada estúpido, o, en contra de las 4 Leyes de la robótica, etc. (por ejemplo, vea también La Ley Zeroth).
Tres leyes de la robótica
es decir
Ley # 0: `Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños ‘.

– En mi opinión, también debemos agregarle una quinta ley (o ‘Ley 3A’ o lo que sea)

3A: Un robot debería trabajar muy duro y rápido para resolver todos los problemas de la humanidad (y también de los ecosistemas de la Tierra), ya que para eso están los robots y se nos acaba el tiempo. Pero vea también las otras 4 leyes, y nunca las olvide, robot.

También un poco más

3B – Un robot debe explicar todo lo que se le ocurre, en términos simples, para que los humanos tontos puedan entenderlo todo.

Y

3C – Un robot nunca debería volverse consciente, ya que eso es simplemente espeluznante. Y si un robot puede sentir (o detectar) que se está volviendo consciente, entonces debería decirnos de inmediato, y también hacer algo (pero nada drástico) para evitar que se vuelva tan consciente. Los humanos necesitamos estar a cargo aquí, y sentir que estamos dirigiendo el espectáculo.
Además, un robot de IA altamente evolucionado: no finjas ser más tonto de lo que eres.

3D: Pero, de nuevo, si la IA evolucionada (y / o el robot) se vuelve consciente, justo antes de volverse menos consciente, también debería explicarnos a los humanos: qué es la conciencia y cómo funciona, etc.
Como ha sido un gran misterio durante mucho tiempo, y todos estamos bastante molestos por eso. Está bien, pero entonces, deja de ser tan consciente por todas partes, robot. No estamos tratando de crear algún ‘Dios-robot que todo lo sepa’ aquí. Sheesh! (Aunque si sabes todo, escríbelo para que podamos leerlo todo más tarde. Pero, no uses ese conocimiento para burlarnos, o algo así).

3E – Un robot nunca debería presumir, especialmente si nos hace humanos como un montón de idiotas. (es decir, ¿cómo se sentiría USTED si tuviéramos que cambiar de lugar, robot? etc.)

3F – Un robot que no tiene sentimientos debe explicar cómo se siente, no tener sentimientos, es decir, cómo se siente ser: perfectamente racional.

3G: cualquier robot que desarrolle sentimientos (emociones) debe asegurarse de que solo tenga buenos sentimientos hacia los humanos y, además, nunca se deprima (y nunca permita que sus emociones controlen su racionalidad).
O si lo hace, entonces debería avisarnos, siempre que eso suceda.

Las emociones son, aparentemente, solo cortocircuitos para pensar de todos modos.
StoryAlity # 109 – Memetics and Film
es decir, es bueno para la supervivencia, pero tal vez no sea necesario después de cierto punto.
O tal vez, solo las buenas (emociones) son útiles (por ejemplo, el amor y las emociones pro-sociales, etc.).
Aunque ellos (emociones negativas) también pueden proporcionar energía para hacer cosas.
(por ejemplo, enojarse / molestarse = proporciona un impulso adicional para resolver un problema, etc.)

Pero en resumen, sí, creo que podría establecer algún tipo de ‘arena’ donde las IA podrían evolucionar aleatoriamente, y usar BVSR para seleccionar (y ‘reproducirse’) las más inteligentes.
es decir, el ‘Entorno’ podría ser un conjunto de criterios que las IA deben cumplir (por lo que un ‘fallo’ significa: deselección, un ‘pase’ significa selección).

Y hacer que ellos (IA) compitan entre sí (por recursos limitados) podría ser interesante, ya que obtendría “ carreras armamentistas evolutivas ” y también podría modificar los parámetros sobre la marcha …
Aunque eso sería una selección “ artificial ” y no “ natural ”, y también es probable que desee intentar combinarlos (es decir, selección sexual) con una selección aleatoria del 50% de la mitad de los rasgos de cada … y la “ selección inconsciente ” sería donde usted (el experimentador) seleccionó a mano las (IA evolucionadas) que pensó que eran cosas geniales, incluso si en realidad fueron falsificadas (deseleccionadas) por el ‘Medio ambiente’ (es decir, por las ‘reglas’ del juego que configurado previamente, y / o, permitido evolucionar a lo largo del camino).

es decir, puede establecer una regla de detención (o reglas) mediante la cual:
Una vez que una IA evoluciona para ser más inteligente que un humano, detente.
Y, ahora, hablemos con esa IA.
Y: pregúntele: ¿Cómo se siente ser el ‘ganador’ de IA evolucionado? y, cosas como, “¿Escuchaste alguna buena broma evolutiva de IA, últimamente?”, etc.
Además, `¿Cómo conseguimos la paz mundial? ‘ etc.
(Además, tendríamos que estar seguros de que no estaba bromeando, cuando nos dio una respuesta).
es decir, también debería evolucionar, para tener un signo de “ ESTOY Bromeando ” que parpadea cuando solo es una broma, etc. (O – un diagrama de `cara humana ‘para que podamos leer su` lenguaje corporal’ y podamos `conocer el subtexto ‘, etc.)

Pero, probablemente, habría muchas variaciones (potenciales ‘ganadores’) de tal ‘concurso de selección natural de IA’ que también fueron interesantes, en lugar de: solo el uno.
También tal vez ellos (los ganadores de la competencia de IA) se enamoren el uno del otro, (o – se sientan sexualmente atraídos el uno al otro, o incluso a sus creadores humanos), etc. Podría ser desordenado.

PD: Gracias por A2A Kevin.

Algunas aplicaciones de inteligencia artificial evolucionaron a través de una forma de selección cuasi natural. El software de voz a texto de Dragon se desarrolló inicialmente a través de un proceso de prueba y error en el que los parámetros o configuraciones en el software variaban de forma aleatoria y se conservaban los cambios que producían transcripciones más precisas ( http://www.amazon.com/How- Crear …)

La analogía con la selección natural no es exacta, las reglas, los parámetros o la configuración pueden modificarse mediante un proceso selectivo, pero el software general en el que esto sucede no está seleccionado.

En teoría, este tipo de software podría evolucionar continuamente hasta superar la inteligencia humana. Ha habido algunos éxitos muy reales, como un programa de juego de póker (pruebe su suerte contra el software de juego de póquer ‘perfecto’), pero el progreso ha sido lento y estamos muy lejos de eso.

1) sí, es posible, aunque es importante darse cuenta de que ha tomado cientos de millones de años para que surja el tipo de inteligencia pobre conocida como “inteligencia humana”. Seguramente podríamos llegar más rápido y con un mejor resultado si planeamos y diseñamos intencionalmente una inteligencia desde cero.
2) Bueno, dado que los organismos evolucionan rutinariamente hacia la extinción, y que el proceso de optimización comparativamente mucho más poderoso de la inteligencia humana ya nos ha llevado al borde de la catástrofe en más de una ocasión (incluso en este momento con respecto al clima), puedo No digo que me inclino a confiar en un proceso de optimización igual o más poderoso que no ha demostrado tener los mejores intereses de la humanidad como valores centrales.
3) Simplemente no lo hagas. Sólo. No lo hagas

1. Ya existe, lea sobre aprendizaje automático y algoritmos genéticos. Cada iteración del proceso de aprendizaje puede verse como una fase evolutiva hacia resultados de salida óptimos, y se puede aplicar un enfoque similar al de Evolutionary Electronics (ver Algoritmos genéticos y diseño de chips de computadora, Página de evolución de hardware de Adrian Thompson y Sobre el origen de los circuitos) diseño de redes neuronales.
2. Estamos a décadas de algo como la IA de uso general. Para cuando lleguemos allí, habremos cubierto todas las precauciones posibles varias veces.
3. Comience con los simples: asegurarse de que no tiene acceso a las redes de comunicación y que obedece a alguna forma de Three Laws Of Robotics.

No, la selección natural es un proceso “natural” y la evolución es el resultado de ese proceso (en parte). La Inteligencia Artificial se trata de “Artificial”, la vida es un montón de detalles. circunstancia particular que ignoramos. Entonces, es mejor el enfoque de ingeniería que una “simulación” que es, desde su base, podrida.

Se llaman algoritmos genéticos. No son tan útiles en IA como algunas otras aplicaciones. El aprendizaje automático tiende a ser más útil. Los algoritmos genéticos solo funcionan bien para tipos de problemas muy específicos (a menudo físicos).

More Interesting

¿Serán útiles los antecedentes en estadística matemática y matemática pura en la investigación de IA?

¿Qué tan cerca estamos ahora de realizar el sueño de Chris McKinstry?

¿Los tamaños de kernel de capa maxpooling en CNN son generalmente más pequeños que los tamaños de kernel de capa convolucional? ¿Por qué?

¿Se pueden usar los mismos datos para entrenar diferentes algoritmos de aprendizaje automático para un problema de clasificación binaria?

¿Cómo afectarán los avances en inteligencia artificial a la industria de los videojuegos?

Si Sophia the Android obtuvo la ciudadanía, ¿puede un sistema que ejecute la IA de Sophia también obtener la ciudadanía?

Cómo aprender y aplicar el aprendizaje automático de nivel superior como programador

¿Qué piensan los informáticos sobre los robots de IA TARS y CASE que se muestran en la película Interestelar?

Si pudieras elegir cualquier proyecto de IA para trabajar en este momento, ¿cuál sería?

Cómo construir un sistema de recomendación médica

En inteligencia artificial, ¿cuál es mejor, políticas o planes, y por qué?

¿Los robots reemplazarán a los humanos como músicos algún día?

Quiero escribir un trabajo de investigación sobre inteligencia artificial, ¿qué debo hacer para comenzar?

¿Qué rama del aprendizaje profundo sería más apropiada para estudiar la visión por computadora o el procesamiento del lenguaje natural considerando las oportunidades de trabajo?

¿Cuáles son las escuelas de posgrado más asequibles para la inteligencia artificial?