¿Cómo es un problema la IA?

Para responder a esta pregunta, deberíamos acordar qué es un problema.

El “problema” fundamental que tiene la IA es que nuestra sociedad humana ha recurrido a la “lógica” como el aspecto más importante de la inteligencia, con razón, porque la lógica parece ser la inteligencia más universal sobre la que todos podemos estar de acuerdo ( más allá de la cultura, sentimientos personales, diferentes perspectivas). Si observa los sistemas legales de la mayoría de los condados, verá que intentan aplicar la lógica al extremo, también la mayor parte de la educación académica se basa en la lógica, incluso el departamento de artes intenta articular su enseñanza de la manera más lógica posible. Si piensa en esto, es “lógico”, porque la lógica es la forma más objetiva de “pensamientos” (compárese con la emoción … Intuición …)

Sin embargo, la IA posee una pregunta que nunca tuvimos ante nosotros, ¿qué pasa con la IA que puede ser mejor en la lógica (más consistente, más rápida y más profunda) que la humana? Ahora la “forma agradable / objetiva de inteligencia” ya no es el fuerte para el ser humano.

El “problema” aquí, somos nosotros como “la especie inteligente”, pronto se demostrará que somos “ilógicos”. Así que perderemos la “lucha” que solíamos definirnos (seres humanos) como superiores al resto de las criaturas de este mundo. ¿Qué tal si no somos tan “inteligentes” después de todo lo que estamos perdiendo este juego mental por algo llamado IA ahora?

Sé que algunas personas dirían “pero creamos AI” … Bueno, dos cosas: 1) ¡no! NOSOTROS no creamos IA, algunos tipos inteligentes lo hicieron, y honestamente, probablemente sean mucho más inteligentes que tú y yo para empezar; 2) no! Incluso las mentes más inteligentes son el “creador” de la IA real para esa singularidad, momento en el que la IA puede mejorar la IA más rápido de lo que lo puede hacer un humano … En ese momento, la IA está creando, mejorando la IA. Entonces, el problema aquí es el hecho de que la IA mejoraría mucho después de ese punto, y considerará que los humanos son ilógicos (o no lo suficientemente lógicos). Y este es el tema principal que mucha ciencia pesimista pesimista intentó explorar, pero no mucha gente (incluidos muchos científicos) pudo entender …

Como, después de todo, el “problema” no es con la IA, es con nosotros, no somos tan buenos en lógica como pensamos, la IA será mucho mejor que nosotros en lógica, y no podemos (todavía) acordar ninguna otra forma para que la inteligencia (que no sea lógica) sea objetiva, aceptable para todo individuo humano. (Sí, ni siquiera estamos de acuerdo si la inteligencia es importante).

Así que estamos perdiendo un juego que nos definió como el “dueño de este mundo”. Al igual que tratamos a nuestro primo cercano, los simios, podríamos ser tratados por la IA de esa manera … No es porque la IA sea mala, es porque los humanos son imperfectos, pero tratamos de crear una IA perfecta, si realmente logramos crear una IA tan perfecta, NO estarán de acuerdo con nosotros la mayor parte del tiempo. Y ese es el problema.

El progreso intelectual diferencial consiste en priorizar el progreso intelectual que reduce el riesgo sobre el progreso intelectual que aumenta el riesgo. Tal como se aplica a los riesgos de IA en particular, un plan de progreso intelectual diferencial recomendaría que nuestro progreso en
Los problemas científicos, filosóficos y tecnológicos de la seguridad de la inteligencia artificial superan nuestro progreso en los problemas de la capacidad de la inteligencia artificial, de modo que desarrollamos IAs sobrehumanas seguras antes de desarrollar IAs sobrehumanas (arbitrarias). Nuestra primera IA sobrehumana debe ser una IA sobrehumana segura, ya que es posible que no tengamos una segunda oportunidad.

La IA no es un problema a menos que tengamos un control completo sobre ella y sepamos lo que estamos haciendo. Utilizamos AI cada vez, como en los filtros de spam en Gmail, News Feed en Facebook, detección de rostros en cámaras, etc.

Básicamente, la IA permite que los sistemas aprendan por sí mismos sin ser programados explícitamente. Cuando un controlador se programa explícitamente con if-else way, por ejemplo, siempre hay una previsibilidad en el comportamiento del sistema. El programador conoce la capacidad del sistema y puede asegurar que se comporta dentro de los límites establecidos. La IA se trata de permitir que una máquina aprenda por sí misma (métodos no supervisados), recolectando progresivamente enormes cantidades de datos, construyendo modelos a partir de ellos, analizando su rendimiento y ajustándolos. Una vez que hayan aprendido lo suficiente, podrían ser independientes y estar fuera del control humano, en ese momento no tendremos idea ni controlaremos lo que haría una máquina.

Creo que actualmente la IA no tiene suficiente madurez para ser dañina por sí misma, pero estamos llegando lentamente con el tiempo. Ese momento sería cuando eventualmente se desarrollen algoritmos más sofisticados (probablemente en redes neuronales y aprendizaje profundo) y las máquinas aprendan lo suficiente como para pensar como humanos, tomar sus propias decisiones y volverse incontrolables. En su apogeo, podrían librar una guerra contra los humanos y las películas como Terminator o Matrix podrían resultar reales. Ya estamos perdiendo porque las máquinas programadas con IA nos han ganado en Ajedrez y recientemente en Go.

En resumen, la IA no es dañina mientras sepamos lo que estamos haciendo.