Humilde.
Primero, estamos hablando de “inteligencia objetiva” que, según Alan Turing, es algo lógico y racional, por lo tanto, puede expresarse en ecuaciones, que se procesarán objetivamente independientemente de las características únicas del individuo …
En otras palabras, una inteligencia objetiva significa un proceso que generará un resultado a partir de un conjunto de entrada, y para un conjunto dado de entrada, el resultado es consistente sin importar quién sea el procesador. En este sentido, la inteligencia artificial o súper inteligencia es posible, en realidad inevitable.
- ¿Por qué 'nadie' trabaja en hacer una IA consciente?
- ¿Cómo los sistemas generales de inteligencia artificial como los de Deepmind persisten 'recuerdos' a largo y corto plazo respectivamente?
- ¿En qué se diferencia OpenAI de otros institutos de investigación de IA en términos de enfoque y visión?
- ¿Cómo afectará la inteligencia artificial a la industria legal?
- ¿Las computadoras cuánticas allanarán el camino para la Inteligencia Artificial?
Ahora, ¿cómo debería sentirme al respecto?
Humilde, porque si una súper inteligencia puede alcanzar un resultado que es el mismo que yo, me felicito, y seré muy feliz. Si alcanza un resultado que sería diferente al mío, significa que mi procesamiento es defectuoso o que no soy objetivo (estúpido o sesgado)
Si soy estúpido, debería aprender mejor o usar IA (superinteligencia mejor). Así que me siento humilde, como cuando estaba en la secundaria cuando otros niños de la clase obtuvieron mejores resultados en los exámenes que yo, no es su problema, es mi problema, solo necesito aprender más.
Si soy parcial, ese también es mi problema. Porque si mi resultado se basa en mi opinión no objetiva, entonces no es algo en lo que los humanos puedan estar de acuerdo universalmente: cada individuo tendría su propio sesgo, y no hay nada que demuestre que el mío es mejor que el de otro ser humano. En este caso, ¿por qué estaría molesto por la IA? No habría estado de acuerdo con algún otro humano de todos modos. En realidad, debido a que la IA habría alcanzado un resultado de manera más objetiva que cualquier ser humano, creo que es más fácil para mí aceptar el resultado de la IA que otro ser humano que tendría un poder de procesamiento objetivo menos lógico.
Entonces, me sentiré humilde, si la IA llega a la conclusión de que no se debe permitir que exista el ser humano, (lo cual no veo una razón por la cual, porque si los seres vivos están permitidos, el humano es lógicamente un miembro de eso), yo Estaré muy molesto e intentaré mi mejor capacidad lógica para argumentar de otra manera. Pero, creo que hay una posibilidad de que la IA pueda convencerme de que aniquilarme es algo bueno … Después de todo, muchos cultos humanos o “revisiones autoproclamadas” han convencido con éxito a muchas personas de que morir es lo mejor que pueden hacer por sí mismos, no me veo más listo que otro ser humano, y si la IA es realmente y al llegar a tal conclusión (que no puedo imaginar ahora), podría ser mejor convencerme que esos cultos.
Estoy humilde, pero nuestra propia capacidad colectiva de superarnos a nosotros mismos.