[Esta es una opinión personal, no representa a mis empleadores de ninguna manera]
Creo que es prematuro hablar sobre las normas de seguridad para la IA en sí. Cualquiera que realmente trabaje en IA y no sea un tecnólogo general (te estoy mirando, Elon Musk) sabe cuán primitiva y limitada es actualmente la IA y qué tan lejos tiene que llegar.
Para una evaluación más sobria y sensata del estado actual de la IA, recomiendo Los Siete Pecados Capitales de Predicción del Futuro de la IA de Rodney Brooks. El artículo divaga un poco, pero los puntos que hace son muy válidos.
- ¿Cuál sería la hoja de ruta para reconocer la cara de una persona (únicamente, como método de autenticación) usando Redes Neuronales?
- ¿Cuáles son los próximos desafíos posibles para que DeepMind de Google fascine al mundo?
- ¿Cuáles son los mejores chatbots (AI) disponibles en línea?
- Cómo decidir el número de nodos en una capa oculta de una red neuronal
- ¿Es posible la inteligencia artificial? ¿Por qué?
Regularlo en esta etapa incipiente solo serviría para ralentizar su desarrollo, y es difícil determinar qué significa incluso la regulación de la IA: ¿cómo se regulan los algoritmos?
Sin embargo, hay ciertas aplicaciones de IA que podrían necesitar ser reguladas. Por ejemplo, autos sin conductor. O cómo se deben tomar medidas para asegurarse de que no haya sesgos implícitos en los modelos capacitados cuando, por ejemplo, cuando un banco toma una decisión de préstamo hipotecario. Para esas cosas, las empresas que trabajan juntas parece una idea sensata (y en algunos casos, ya está ocurriendo).