¿Hay algunos aspectos de la inteligencia artificial que NO DEBEMOS desarrollar, para que nuestras máquinas no nos esclavicen? Si es así, ¿cuáles son esos?

Respuesta corta: no en el futuro cercano , intentemos hacer algo tan inteligente como un insecto primero.

Me gustaría aprovechar esta oportunidad para señalar que la mayoría de la inteligencia artificial que escuchas, como “Aprendizaje profundo” (que en realidad es solo un cambio de marca de redes neuronales artificiales con capas ocultas), realmente no califica como inteligencia. Son solo funciones matemáticas no lineales que son útiles para resolver muchos problemas simples pero difíciles de definir, como identificar caras en un JPEG o elegir la ubicación del anuncio.

Las computadoras digitales modernas no tienen la capacidad, estructura o incluso los programas para apoyar la superación personal, la conciencia de uno mismo, la creatividad, etc. O realmente nada más que el propósito específico para el que fueron programados / entrenados.

Teóricamente, podría modelar un cerebro biológico mediante el uso de billones de nodos en una de estas redes de aprendizaje profundo y un conjunto de datos muy complejo, pero luego se topa con las limitaciones del hardware moderno (y la dificultad de producir dicho conjunto de datos, así como el conjunto general diseño estructural de la red). Sin mencionar que es difícil simular las otras sutilezas de un cerebro biológico como los gluones, la muerte celular y la génesis, el crecimiento y el metabolismo, y el impacto de diferentes sustancias neurológicas liberadas por una parte del cerebro a otra parte.

Todo el internet conectado solo admite el poder computacional de unos pocos cerebros humanos por alguna definición de poder informático, pero, por supuesto, no está integrado y las piezas se extienden por todo un globo. Un cerebro biológico también tiene órdenes de magnitud más eficientes que una computadora típica; Aquí hay un artículo sobre un intento de simulación de un cerebro humano por una supercomputadora: simular 1 segundo de actividad cerebral humana requiere 82.944 procesadores | ExtremeTech

Entonces, ¿cuál es el futuro de la IA? Bueno, DARPA tiene una idea bastante buena (ver SyNAPSE), y muchos investigadores también están comenzando a generar algunos resultados interesantes.

El futuro está en sistemas autoorganizados , como una célula biológica, una colonia de hormigas, el clima, un pez, la sociedad o un cerebro humano. Los sistemas de autoorganización son mucho más robustos y no necesitan ser definidos por una CPU centralizada e instrucciones detalladas como un programa de computadora. Grandes grupos de nodos independientes se definen mediante reglas simples que resultan en un comportamiento emergente complejo, descubierto por la evolución o un producto de la física (este tipo está recibiendo mucha atención por alguna razón para reafirmar la segunda ley de la termodinámica: una nueva física Teoría de la vida | Quanta Magazine.)

Básicamente, una verdadera inteligencia artificial general no será un programa de computadora que pueda cargarse a sí mismo en Internet, sino que será una computadora física analógica con cualquier entrada y salida que los diseñadores le pongan, ojalá no la pongan en el sala de control de un submarino de la Armada o algo así.

Entonces, a medida que gradualmente comenzamos a crear IAs un poco más inteligentes que los humanos, lo que podría pasar mucho tiempo a partir de ahora, probablemente no representarán más amenaza que un genio humano que vive hoy o un político (aparte).

Eso aborda una parte de su pregunta, la amenaza para la humanidad. Considero que esto no es un problema por el momento. Las únicas amenazas serían causadas por negligencia humana, y muy probablemente por un mal funcionamiento del software no inteligente. Sin embargo, las máquinas ciertamente comenzarán a transformar la sociedad humana a un ritmo cada vez más rápido, lo que obligará a los escribas y a los taxis a cerrar sus negocios y, finalmente, hará que nuestra economía esté más determinada por el valor social hasta que la IA finalmente pueda superarnos en ese momento, en ese momento podemos tener un problema. Sin embargo, eso es un camino muy largo (siglos, tal vez milenios). Desafortunadamente, las celebridades del entretenimiento continuarán creciendo en valor en nuestra sociedad.

También hay consideraciones éticas de introducir un ser sensible al mundo; esto realmente depende del tipo de sensibilidad. Con suerte, un buen diseño estructural del sistema inteligente no incorporaría dolor y liberaría placer al completar con éxito sus tareas designadas. Esto podría hacerlo mucho más humano que tener perros como mascotas, pero nuevamente, esto dependerá de lo que se pueda diseñar. Es importante considerar los derechos de IA en el futuro, especialmente porque probablemente no serán muy productivos si son miserables.

Divagando la respuesta, pero la moraleja de la historia es que las IA serán como inteligencias biológicas que pueden destruirse, necesitan recursos / poder / mantenimiento para sobrevivir, representan una pequeña amenaza para la humanidad. Hay otras consideraciones éticas, pero los beneficios potenciales de continuar la investigación de IA en este momento son mucho mayores que los riesgos.

Isaac Asimov escribió una historia corta en 1942 llamada “Runaround” y más tarde en 1950, una novela “I, Robot”. En estas historias enumeró ” Las tres leyes de la robótica “. Puede reemplazar “robot” con “AI” para llevar estas leyes a términos más modernos.

1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.

2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.

3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley

El término “daño” puede definirse claramente y codificarse también para garantizar un límite claro. Creo que codificar estas rutinas (y similares) en todos los futuros sistemas de inteligencia artificial debería cubrir la mayoría de las bases.

Si estás realmente interesado en estos asuntos, mira la brillante película Bicentennial Man, protagonizada por Robin Williams.

Eso, por supuesto, supone que la Matriz en la que todos vivimos permitirá que tales limitaciones se coloquen en las construcciones que nosotros, como humanos, podemos crear 😉

El objetivo de la IA es hacer que una máquina piense como un ser humano, al dejar partes fuera, niega esa intención.

La preocupación por la IA proviene del hecho de que los humanos pueden ser idealistas y esos ideales podrían usarse para lastimar a otros (Hitler, Stalin) que ya pueden ser lo suficientemente malos, pero una IA que se haya ido Hitler tendría la ira de un dios. Lo sabrá todo sobre todos, tendrá el poder de hacer de la vida de cualquiera un infierno viviente, o terminarlo por un capricho.

La preocupación está en las decisiones que tomará, se convertirá en Ultron o se convertirá en Visión o algo completamente diferente. El resultado determina lo que nos sucede, ya sea que nuestras vidas se vuelvan infinitamente mejores (Visión) o infinitamente peores (Ultron) como resultado.

Todo se reduce a enseñar a la IA lo correcto de lo incorrecto, alineándolo con nuestro propio sentido de la moralidad.

Es difícil responder esta pregunta con precisión, porque la mayoría de las innovaciones tecnológicas no tienen clasificaciones morales directas asociadas a ellas. Por ejemplo, considere las armas, que son máquinas con el propósito de matar personas o al menos hacer daño a las personas, pero muchas personas argumentan que su propósito es la defensa. Otro ejemplo son las armas nucleares. Clasificado como un arma de destrucción masiva y uno de los inventos más letales de la humanidad, también ha encontrado posibles usos moralmente justificados, por ejemplo, en la creación de grandes canales, en un sistema de propulsión para el espacio profundo y en la terraformación de Marte. En el otro lado del espectro hay avances médicos. Al principio parecen traer solo bien, pero consideremos el escenario (obviamente exagerado) en el que la IA decide eliminar a los humanos. Cuanto más conocimiento médico ponemos en línea, más fácil será para AI saber cómo dañarnos o matarnos. Podría decirse que ya hay suficiente información para eso si una IA puede leer y aprender de Internet.

Parece que limitar la investigación sobre temas específicos no es la solución correcta. Limitar el uso de la tecnología con fines perjudiciales parecería mejor, pero o es mucho más difícil. Ya tenemos leyes que probablemente se aplican cuando la tecnología es mal utilizada por los humanos, el problema es que algún día necesitaremos leyes para IA, lo que probablemente debería comenzar con criterios para el funcionamiento autónomo de los sistemas.

En conclusión, todavía estamos en las primeras etapas de las IA y de cómo lidiar con ellas. Por ahora, lo más importante es mantener viva la discusión a medida que avanza la investigación, para que podamos encontrar y establecer los límites de lo que son desarrollos aceptables y lo que debería regularse.