Las máquinas aprenden lo que les enseñamos. Si no quieres que un oficial de IA dispare, no les des armas .
LA INTELIGENCIA ARTIFICIAL (AI) DE GOOGLE ya ha comenzado a mostrar cierta evidencia de los rasgos de personalidad, pero ahora DeepMind está aprendiendo a mostrar signos de agresión cuando cree que no se saldrá con la suya.
Experimentos en DeepMind que estudian si los sistemas de IA serán agresivos o colaborativos al jugar un juego. Los jugadores recogen manzanas virtuales; tienen la capacidad de incapacitar temporalmente a un oponente al “disparar” un “láser” virtual. Y los humanos se sorprenden de que las IA a veces decidan que les conviene disparar a su oponente, en lugar de recolectar manzanas pacíficamente.
- ¿Cómo afectarán herramientas como BigML y Google Prediction API al aprendizaje automático? ¿Reducirá la demanda de científicos de datos?
- ¿Cuál es la teoría detrás de ingresar una imagen en una red neuronal?
- ¿Cuándo debo usar la agrupación antes de ejecutar un modelo de regresión logística?
- ¿Se puede trabajar en Machine Learning con un doctorado en estadísticas?
- ¿Cuáles son los diferentes métodos de reducción de dimensionalidad en estadística?
La inteligencia artificial (IA) de DeepMind que está desarrollando la empresa matriz de Google, Alphabet, ahora puede construir de manera inteligente lo que ya está dentro de su memoria, anunciaron los programadores del sistema.
Su nuevo sistema híbrido, llamado Computadora Neural Diferencial (DNC), combina una red neuronal con el vasto almacenamiento de datos de las computadoras convencionales, y la IA es lo suficientemente inteligente como para navegar y aprender de este banco de datos externo.
Lo que está haciendo el DNC es combinar efectivamente la memoria externa (como el disco duro externo donde se almacenan todas sus fotos) con el enfoque de red neuronal de AI, donde una gran cantidad de nodos interconectados trabajan dinámicamente para simular un cerebro.
Si le pides a una IA que juegue un juego en el que se permite disparar rayos láser a tus oponentes, no es sorprendente que la IA dispare rayos láser a los oponentes, ya sean virtuales o físicos. No esperaría que a priori desarrolle alguna versión de las leyes de Asimov y diga: “No puedo hacer esto”. (Si el software no permite que dispare los láseres, bueno, no lo hará, pero eso no es interesante). No esperaría que una IA tuviera una crisis de conciencia y dijera: “no, no, puedo “No lo hagas”. A menos que se haya programado con algún tipo de módulo de culpabilidad, que hasta donde yo sé, no existe.
Los humanos, después de todo, hacen lo mismo. Matan en tiradores en primera persona, así como en la vida real. Tenemos divisiones enteras del gobierno dedicadas al asesinato organizado de otras personas. (Irónicamente llamamos a eso “mantener la paz”). Y aunque los humanos tienen un módulo de culpa, generalmente solo se activa después del hecho.
Depende de usted si disparar como parte de una estrategia eficiente para ganar es una mejora sobre el comportamiento humano, pero es exactamente lo que esperaría. DeepMind no venció a Lee Sedol en Go al negarse a ser agresivo. AlphaGo versus Lee Sedol – Wikipedia
La IA imita los comportamientos humanos porque le enseñamos a hacerlo, en este caso, al pedirle que juegue un juego con reglas humanas. Como he dicho, si queremos una mejor IA, tenemos que ser mejores personas. Si queremos una IA que pueda distinguir entre humanos y bits, tenemos que enseñarle qué son los humanos y cómo comportarse de manera diferente en su presencia.