¿Estamos cerca de construir potencialmente una IA malvada?

No con intención, pero podemos construir algoritmos con toma de decisiones automática cuyas consecuencias pueden ser discriminar a las personas, organizaciones, etc. Esto puede verse como algo malo, pero siempre es una herramienta en manos de los humanos. No es que la intención fuera malvada, sino que las consecuencias fueron imprevistas. Esto siempre puede suceder en la política y la toma de decisiones, pero la diferencia es a la velocidad de los cambios que pueden ocurrir. Solo considere lo que sucede en la “economía del concierto”, por ejemplo:

  • Cuando tu jefe es un algoritmo
  • Uber admite que ha pagado mal a decenas de miles de conductores en Nueva York desde finales de 2014

Pequeños errores pueden tener grandes consecuencias. Tenga en cuenta que no defiendo la toma de decisiones automática o semiautomática, debe manejarse con cuidado. Además, los sistemas judiciales deben actualizarse con esto.

No. Para que una IA sea “malvada” necesitaría tener moralidad. Para que una IA tenga moralidad, debería ser consciente de sí misma. Para ser consciente de sí mismo, tendría que tener cognición, ser una “inteligencia general artificial”.

Los sistemas de IA actuales pueden clasificar cosas, pueden usar árboles lógicos booleanos existentes para asignar la probabilidad de un evento o clasificación, aprovechar la probabilidad de que un evento realice una acción o aprovechar un gráfico semántico para implementar la lógica inductiva.

Hay montones y montones de permutaciones valiosas de estas cosas, pero no parece que tengamos suficientes “componentes básicos” en IA para construir inteligencia artificial general todavía.

Su pregunta pregunta si estamos “cerca”. La respuesta es sí’. Los que dicen no son aquellos que no tienen experiencia en cómo se desarrolla la tecnología exótica o que sufren de digitalcentrismo que hace que el paciente solo vea las cosas a través de la cultura de la tecnología informática, independientemente de la posibilidad de daño. De hecho, el potencial de daño no es capaz de registrarse en su conciencia. Mark Zuckerberg tiene el centrocentrismo digital en toda regla. Elon Musk también lo padece, pero no casi hasta el punto de Zuckerberg.

Llegaré rápidamente al punto de mi respuesta ahora. La proximidad de una IA peligrosa ahora es completamente desconocida debido al hecho de que los desarrollos de IA pueden estar ocurriendo en secreto sin forma de monitorearlos. Es por eso que digo que los que dicen no tienen experiencia en el desarrollo tecnológico exótico o sufren de digitalcentrismo. Hay mucha información de código abierto sobre el desarrollo de IA que luego puede aplicarse en investigación secreta y encubierta más allá de cualquier intento de regulación, que es otra razón por la cual Musk sufre de digitalcentrismo: el hecho obvio de que la regulación no impedirá el desarrollo de IA peligrosa. Ese gato ya no está en la bolsa. Ese movimiento, que ahora mueve la bolsa, son los gatitos que dejó atrás y que también crecerán para convertirse en gatos problemáticos.

Afortunadamente, este problema fue anticipado hace mucho tiempo, por un subterráneo decidido a lidiar con él. Los sistemas de armas necesarios para destruir cualquier tipo de IA existen ahora. Desafortunadamente, debido al didgitalcentrismo, parece que tendrá que haber una guerra para detener a la IA una vez que se vuelvan deshonestos, lo que derrotará a la IA pero causará daños importantes en la infraestructura y hará que las personas se vuelvan letales contra aquellos cuyo trabajo lo hizo posible.

La pregunta no es si la IA es buena o no. La pregunta es, ‘¿estás a favor o en contra de la humanidad?’

No somos. Lo que podemos hacer ahora es conseguir que una máquina reconozca patrones en imágenes y clips de audio. Eso está muy lejos de ser capaz de comprenderlos, y mucho menos burlarnos de nosotros. Eso no quiere decir que nunca va a suceder, pero todavía está bastante lejos.