¿Cuáles son las principales razones por las que todavía no existe una superinteligencia artificial?

Porque la súper inteligencia no aparece en el garaje de alguien o incluso en el sistema de laboratorio de computadoras de una compañía. Alguna inteligencia limitada, tal vez. Pero una súper inteligencia del mundo real requiere:

  1. Competencia: la súper inteligencia solo puede aumentar en competencia con otros sistemas de súper inteligencia. Esto significa que necesitamos tener muchos sistemas de superación personal que compitan entre sí. Sin esa competencia, la inteligencia pronto se estancará y nunca alcanzará un nivel súper inteligente. Esta es una de las razones por las cuales es poco probable que veamos una súper mente única que salga de la nada. El proceso llevará algún tiempo y será muy visible. Esto también explica por qué el escenario “SkyNet” de la serie Terminator es altamente improbable.
  2. Interacción del mundo real (similar). Necesita interactuar y lo más importante, manipular su entorno. Esto no es fácil de lograr a escala, al menos no con un entorno lo suficientemente complejo como el mundo real. Los niños tardan años en alcanzar el nivel “inteligente” y su “hardware” supera significativamente el poder de procesamiento de las computadoras actuales. Por ejemplo, Watson de IBM no hace eso. Un virus / gusano informático es más adecuado para dicha manipulación: tiene una presión evolutiva para adaptar e infectar más máquinas. Sin embargo, cuanto más “inteligente” se vuelve ese gusano, más obvio es que se está ejecutando en la máquina y, por lo tanto, más fácil de detectar por los sistemas antivirus. Lo mismo se aplica a la evolución humana también: a medida que nuestros cerebros se hicieron más grandes, necesitábamos consumir más recursos y, por lo tanto, exponernos a mayores riesgos mientras los alcanzábamos. No fue un proceso rápido y posiblemente comenzamos a buscar depredadores (caminando erguidos) y a usar herramientas (para convertirnos en un depredador más formidable) mucho antes de desarrollar cerebros grandes.
  3. Control: como señalaron otros, todos (programadores, gerentes, personal de soporte, CEO, inversores) queremos tener control sobre el software. Un sistema impredecible y demasiado inteligente es un comodín. En cierto punto, ni siquiera es obvio que hace lo que creemos que está “optimizado” para hacer.
  4. Puede haber límites de inteligencia. La singularidad dice que una IA muy inteligente diseñará una aún más inteligente, pero esto es realmente suicida y puede detenerse en cierto punto. O al menos frenar hasta detenerse. Lo mismo ocurre con las auto-mejoras. Digamos que crees en ReligionA (que podría ser no-religion, no importa). Luego, la sociedad decide colectivamente que ReligionB te hará una mejor persona y ayuda a la sociedad a avanzar. Nuevamente, ReligionB podría decir ‘no-religión’, la parte importante es que RegligionB no es lo mismo que ReligionA. ¿Cambiarías tus sistemas de creencias incluso sabiendo que serías una “mejor persona”? O otra opción moral: puede ser dos veces más inteligente, pero luego perderá la capacidad de comunicarse con sus seres queridos, ya que no podrán atrapar con su coeficiente intelectual / velocidad de pensamiento. Una IA que está en camino de convertirse en una súper inteligencia golpeará estas barreras.
  5. El estado de la ciencia: tanto la ciencia de los materiales (hardware) como la informática (software) aún no están listas para crear una inteligencia a nivel humano. Nos estamos acercando, pero se puede argumentar que este ha sido el caso durante al menos cien años. Soy optimista y creo que atacaremos la inteligencia casi humana en nuestras vidas. A partir de ahí, podemos “simular” la superinteligencia simplemente acelerando el tiempo de cálculo. Por ejemplo, obtienes un humano y lo emulas en un hardware que corre 1,000 veces más rápido que el cerebro humano. Ahora tiene una entidad que no es más inteligente que la humana, pero parece serlo, ya que tiene toda una vida de investigación por delante de cualquier ser humano.

¡Hola! Déjame intentar responder a esta Q!

De lo mejor de mi conocimiento:

  1. Limitaciones de programación: actualmente, los programadores programan sistemas de IA. Así, este elemento de programación significa que el humano tiene el control del sistema de IA. Por lo tanto, todavía no existe una superinteligencia.
  1. SIN EMBARGO, creo en el futuro tal vez. Actualmente, todos los modelos de ML e IA son de naturaleza matemática. Si, de hecho, desarrollamos algún tipo de sistema matemático dinámico “automático” (no estoy seguro si lo puse bien), entonces tal vez (solo tal vez), podríamos tener superinteligencia.
  2. Además, los humanos son “superinteligentes” ya que la Evolución (prueba y error) causó el desarrollo de nuestros cerebros (especialmente el área frontal). Si, de hecho, creamos un sistema de inteligencia artificial que puede “autoaprender” y realmente encuentra sus propios problemas y los resuelve sin intervención humana, ¡entonces inclínese ante la superinteligencia!
  • Brecha de conocimiento: los científicos aún no saben cómo funciona el cerebro, ni cómo funciona la inteligencia o la conciencia. Por lo tanto, con estos inconvenientes, un sistema simulado no se puede crear completamente. Todos los sistemas simulados de IA actuales son solo la imaginación de un humano y la comprensión creativa de un humano de lo que es la inteligencia. Por lo tanto, no refleja la inteligencia “verdadera”. Sin embargo, el Proyecto Human Connectome y otros proyectos de mapeo cerebral pueden cambiar este escenario.
  • En mi opinión, en los próximos 40–50 años, podría ser posible. Creo en la emergencia. Si un sistema recibe mucha información, ese sistema inevitablemente se volverá omnisciente. Lo sabe todo. Y para entonces, la IA puede aprender qué es realmente la inteligencia. Después de que los humanos entiendan completamente qué es la inteligencia de un cerebro y cómo funciona, y una vez que puedan replicarlo un poco, ¡creo que la IA omnisciente desarrollará su propio sistema, y ​​así nace realmente una superinteligencia!

    Entonces, ¿quién desarrollará tal máquina? ¡Solo puedo pensar en Google o Baidu que tienen acceso ilimitado a la información y están a la vanguardia de la IA!

    Pienso básicamente porque los programas solo están diseñados para tratar una gama limitada de cosas. Los programas están diseñados para resolver problemas especializados, y nadie los molesta ni sabe cómo unificarlos. Los programas no están universalmente adaptados o motivados para piratear.

    Entonces, si hay una superinteligencia de IA que da miedo, probablemente será motivada por criminales o militares.

    Algunos virus se han creado de esta manera.

    Algunas veces, el diseñador solo quiere hacer entretenimiento, en cuyo caso el programa carece de algunas de las propiedades de ‘correa rota’, necesitaría ser una IA peligrosa

    Hay algunas supercomputadoras que tal vez hacen cosas con cifrado compartido o resolución de problemas a nivel de sistemas que es relativamente peligroso, pero estos sistemas generalmente no son tan universales o completos como podría suponerse. Pueden usar herramientas comerciales o propietarias que están encriptadas y estrictamente controladas.

    El motor de Google es otra cosa relativamente aterradora. Es posible comprender cómo funciona todo Internet y luego manipular el mercado con información avanzada. Pero eso aún implica interactuar con muchos consumidores, lo que requiere una estrategia que una IA puede no tener.

    Luego están los sistemas expertos como el Watson de IBM. Eso podría ser más peligroso, porque podría tener un conocimiento integral de muchos temas. Por ejemplo, creo que hay un sitio web donde Watson compone artículos científicos artificiales. Sin embargo, Watson tiene como objetivo obtener ganancias para IBM. Si hay un problema, podría basarse en la codicia y la agenda de IBM, e IBM todavía parece querer beneficiar a los consumidores.

    Otro factor son las computadoras cuánticas y la lógica cuántica. Puede haber mucho más conocimiento que antes. ¿Quizás algo de este conocimiento podría hacer que los consumidores sean vulnerables?

    En resumen, los problemas parecen ser: la codicia, la facilidad de acceso a la información, el nivel de análisis, los robots militares y las aplicaciones con motivos criminales como virus o software de estafa.

    Así que gran parte del peligro aún proviene de los humanos.

    Con toda probabilidad, es posible que no sepamos qué buscar. Apostaría que si es tan súper inteligente, conocerá a los humanos lo suficientemente bien como para minimizar sus habilidades.

    More Interesting

    Si soy nuevo en programación y quiero aprender sobre programación de IA, ¿por dónde debo comenzar?

    ¿Publicar en talleres de conferencias se considera menos prestigioso que publicar en las actas de la misma conferencia?

    ¿Por qué el Servicio Meteorológico Nacional no usa inteligencia artificial para predecir el clima?

    Inteligencia artificial en juegos: ¿cuán complejas son las IA más básicas en los juegos?

    Soy estudiante de tercer año de CSE. ¿Cómo puedo construir mi propia tecnología de reconocimiento de gestos para proyectos?

    ¿Qué impacto tendrá la reciente adquisición de Genee por parte de Microsoft en las empresas competidoras de programación de reuniones como x.ai, Clara Labs, Julie Desk y Skedool?

    Inteligencia artificial: ¿Cuál fue el algoritmo utilizado para el antiguo SmarterChild de AIM?

    ¿Cuál es la contribución de Infosys Limited en OpenAI (empresa)?

    Si una inteligencia artificial se volviera físicamente independiente, ¿en qué hábitat elegiría quedarse en la Tierra?

    Cómo estar bien versado en el aprendizaje automático desde el nivel cero

    ¿Cuáles son los temas candentes en el aprendizaje automático en 2016?

    ¿Por qué hay muchos cursos falsos que pretenden enseñarte aprendizaje automático y aprendizaje profundo?

    ¿Cuánto tiempo tardará en emerger la IA como la de Ex Machina?

    ¿Dónde puedo encontrar los mejores centros de entrenamiento para IA (Inteligencia Artificial) en Bangalore, India?

    ¿Cuál es la diferencia entre las redes neuronales y el aprendizaje profundo?