Cada sistema, ya sea AI o no, tiene un conjunto particular de metas, objetivos, partes interesadas, etc. Lo que es “suficientemente bueno” depende de esa aplicación, conjunto de usuarios, etc. Por ejemplo, qué tan bueno es “suficientemente bueno” para un ¿sintetizador de voz? Si el usuario es un usuario ciego de la computadora, no tiene que ser muy “natural”; si quisieras usarlo para la voz de un actor humano, tendría que ser bastante natural (¡a menos, por supuesto, que fuera para alguien que usa la voz de una computadora!). Del mismo modo, si el sistema de IA está controlando su automóvil, un “choque” repentino no es aceptable, incluso si es muy raro. Por otro lado, si su programa de inteligencia artificial que lo ayuda a escribir mejor “accidentes” en prosa es molesto pero no amenaza la vida. Por lo tanto, no veo una sola métrica o cuadro de mando en todas las aplicaciones de IA.
Dicho esto, por supuesto, todos los sistemas deben ser lo más baratos, rápidos, precisos, flexibles y posibles. Además, vale la pena pensar en las implicaciones éticas. Los sistemas de inteligencia artificial de diversos tipos tendrán diversas implicaciones: sociales, políticas, económicas, psicológicas … De eso se trata Turing’s Nightmares.
http://tinyurl.com/hz6dg2d
- ¿Por qué una futura súper inteligencia artificial asimilaría o derrotaría a otros contendientes?
- ¿Qué tan lejos está la inteligencia artificial en comparación con la inteligencia humana?
- ¿A qué recurrirán los trabajadores cuando la robótica y los sistemas avanzados de inteligencia artificial eliminen sus carreras?
- Si alguien interesado en la inteligencia general artificial hace un doctorado. en neurociencia computacional o en aprendizaje automático?
- ¿Qué deberíamos llamar un agente en inteligencia artificial?