Para responder a esta pregunta, deberíamos acordar qué es un problema.
El “problema” fundamental que tiene la IA es que nuestra sociedad humana ha recurrido a la “lógica” como el aspecto más importante de la inteligencia, con razón, porque la lógica parece ser la inteligencia más universal sobre la que todos podemos estar de acuerdo ( más allá de la cultura, sentimientos personales, diferentes perspectivas). Si observa los sistemas legales de la mayoría de los condados, verá que intentan aplicar la lógica al extremo, también la mayor parte de la educación académica se basa en la lógica, incluso el departamento de artes intenta articular su enseñanza de la manera más lógica posible. Si piensa en esto, es “lógico”, porque la lógica es la forma más objetiva de “pensamientos” (compárese con la emoción … Intuición …)
Sin embargo, la IA posee una pregunta que nunca tuvimos ante nosotros, ¿qué pasa con la IA que puede ser mejor en la lógica (más consistente, más rápida y más profunda) que la humana? Ahora la “forma agradable / objetiva de inteligencia” ya no es el fuerte para el ser humano.
- ¿Qué acciones se deben tomar después de crear inteligencia artificial?
- ¿Qué tendencias ves en Machine Learning y AI en 2017?
- Cómo entrar en inteligencia artificial general
- ¿Alguien puede proporcionarme un análisis de cada trabajo que existe actualmente y la probabilidad de que sea reemplazado por inteligencia artificial?
- ¿Se considera la psicología humana en el desarrollo de la inteligencia artificial?
El “problema” aquí, somos nosotros como “la especie inteligente”, pronto se demostrará que somos “ilógicos”. Así que perderemos la “lucha” que solíamos definirnos (seres humanos) como superiores al resto de las criaturas de este mundo. ¿Qué tal si no somos tan “inteligentes” después de todo lo que estamos perdiendo este juego mental por algo llamado IA ahora?
Sé que algunas personas dirían “pero creamos AI” … Bueno, dos cosas: 1) ¡no! NOSOTROS no creamos IA, algunos tipos inteligentes lo hicieron, y honestamente, probablemente sean mucho más inteligentes que tú y yo para empezar; 2) no! Incluso las mentes más inteligentes son el “creador” de la IA real para esa singularidad, momento en el que la IA puede mejorar la IA más rápido de lo que lo puede hacer un humano … En ese momento, la IA está creando, mejorando la IA. Entonces, el problema aquí es el hecho de que la IA mejoraría mucho después de ese punto, y considerará que los humanos son ilógicos (o no lo suficientemente lógicos). Y este es el tema principal que mucha ciencia pesimista pesimista intentó explorar, pero no mucha gente (incluidos muchos científicos) pudo entender …
Como, después de todo, el “problema” no es con la IA, es con nosotros, no somos tan buenos en lógica como pensamos, la IA será mucho mejor que nosotros en lógica, y no podemos (todavía) acordar ninguna otra forma para que la inteligencia (que no sea lógica) sea objetiva, aceptable para todo individuo humano. (Sí, ni siquiera estamos de acuerdo si la inteligencia es importante).
Así que estamos perdiendo un juego que nos definió como el “dueño de este mundo”. Al igual que tratamos a nuestro primo cercano, los simios, podríamos ser tratados por la IA de esa manera … No es porque la IA sea mala, es porque los humanos son imperfectos, pero tratamos de crear una IA perfecta, si realmente logramos crear una IA tan perfecta, NO estarán de acuerdo con nosotros la mayor parte del tiempo. Y ese es el problema.