¿Tienes miedo de la IA?

Sí, en la misma medida que tengo miedo de cualquier otra herramienta potencialmente poderosa. Esta visión puede no ser la norma de las opiniones de otros, pero creo firmemente que cualquier tecnología que tenga un potencial drástico para el bien también tiene un potencial drástico para el mal. Muchas respuestas a esta pregunta subestiman el potencial de los avances de la IA para sorprendernos.

Considera lo siguiente:

  1. En repetidas ocasiones, en los últimos 5 años, hemos alcanzado importantes hitos de IA antes de que el conjunto colectivo de expertos en el campo haya pronosticado dichos hitos. Esto es cierto para cada área de alta actividad de investigación de la IA (por ejemplo, visión por computadora, PNL, análisis de señales). Beating Go, un juego imposible de superar mediante una búsqueda exhaustiva y un juego que requiere una máquina para mostrar “intuición” en el juego, es un ejemplo popular. La inteligencia artificial acaba de alcanzar un hito que se suponía que estaría a 10 años
  2. Se está haciendo muy poca investigación (en relación con otras áreas de investigación de IA) sobre cómo crear máquinas con una ética “incorporada” a su función objetivo. Esto es probable porque a) es difícil incorporar la ética en una tecnología que es tan inmadura y cambia tan rápidamente yb) los beneficios de construir una IA ética no son tan obvios de inmediato como los beneficios de construir una IA realmente buena en otros aspectos. Si es el caso de que la IA necesita ser realmente madura antes de que comprendamos cómo incorporar la ética en ella, y si es el caso de que los avances de la IA sucederán a un ritmo exponencial en esta coyuntura en el tiempo (que parece ser lo que ocurre actualmente) la evidencia sugiere), ¿habrá tiempo para hacer que la IA sea ética o el genio ya estará fuera de la botella? Nadie lo sabe actualmente.

Aquí hay algunos números aleccionadores del resumen del trabajo de Nick Bolstorm Future Progress in Artificial Intelligence: A Survey of Expert Opinion:

“Así diseñamos un breve cuestionario y lo distribuimos a cuatro grupos de expertos en 2012/2013. La estimación media de los encuestados era una probabilidad de uno en dos de que la inteligencia artificial de alto nivel se desarrolle alrededor de 2040-2050, aumentando a una probabilidad de nueve en diez para 2075. Los expertos esperan que los sistemas pasen a la superinteligencia en menos de 30 años. después de eso. Ellos estiman que la probabilidad es de uno de cada tres de que este desarrollo resulte ser ‘malo’ o ‘extremadamente malo’ para la humanidad ”.

La IA tiene un potencial extremo para ayudar a la humanidad, pero debemos estar atentos para garantizar que se implemente de tal manera que sea lo más beneficioso posible para las futuras generaciones. El primer paso en esto es asegurarse de no subestimar algunos de sus posibles peligros.

Realmente no. Cada programa útil tiene tres partes. Entrada y algoritmo que producen alguna salida . Por lo general, escribe un algoritmo que convierte la entrada en salida. La IA que usamos hoy en día solo genera algún algoritmo para entradas y salidas etiquetadas específicas. Significa que está bastante lejos de la verdadera inteligencia. Escribí sobre eso con más detalles en mi blog: no le tengo miedo a la IA

Hay una pregunta similar, puede consultar a continuación:

¿Tienes miedo de la inteligencia artificial? – Seanote