Les deseo un gran éxito, pero después de leer su manifiesto y hablar con algunos de los jugadores clave, todavía no me queda claro cuál es su plan de juego. Mi impresión es que todavía lo están resolviendo, y eso está bien, pero eso hace que sea difícil predecir cuál será el impacto eventual de OpenAI. Mucho dependerá de a quién contraten y qué direcciones principales elijan. Como otro ejemplo de IA abierta, considere el Instituto Allen para IA (AI2). Sus objetivos son similares, y han elegido algunos desafíos clave para avanzar (por ejemplo, hacer que una computadora pase el SAT). Este también puede ser un buen modelo para OpenAI, pero con diferentes objetivos (p. Ej., Un robot doméstico) y técnicas (p. Ej., Aprendizaje profundo, donde AI2 está más dentro de la IA simbólica).
El objetivo declarado de OpenAI de hacer IA para el bien público es excelente, pero no estoy seguro de cómo eso impacta la investigación al final del día. Los problemas básicos que debemos resolver son los mismos, ya sea que esté desarrollando un robot doméstico o un robot soldado. La IA es inherentemente de doble uso: la tecnología en sí no es buena ni mala. Con los humanos, tomas a un obrero de fábrica y le das un rifle, y él se convierte en soldado. Con IA no es muy diferente.
- ¿Puede una aplicación reemplazar a mi contador?
- Cómo escribir una aplicación simple de autoaprendizaje usando Scala que comprenda las entradas del lenguaje natural
- ¿Qué especialidad puede construir robots inteligentes?
- ¿La IA alguna vez tendrá emociones y autoconciencia como los humanos?
- ¿Qué causó el "invierno AI" y cuáles fueron las primeras señales de advertencia? Dado el estado actual de la IA, ¿es probable que haya otro período de bajo interés en el campo? ¿Qué cuellos de botella serían la causa de eso?