El buen gusto está íntimamente conectado con el significado que le damos a un objeto.
Creo que es justo decir que los algoritmos actuales de aprendizaje automático no están realmente interesados en procesar el significado de nada. Entonces, si bien los algoritmos pueden ser entrenados para aprender a predecir cuál se supone que es de buen gusto, al generalizar los ejemplos establecidos por los humanos, no pueden tomar sus propias decisiones. Simplemente está imitando a otros.
Posiblemente, eso es lo que hacen los humanos también, pero siento que es demasiado cínico. El juicio de un humano no existe en un vacío y está parcialmente determinado por la cultura de la que eres, pero puedes decidir que algo es hermoso por lo que significa, sin haber aprendido lo que se supone que debes pensar al respecto.
- ¿Cuáles son algunos temas de investigación matemáticamente rigurosos en aprendizaje automático y aprendizaje profundo en la actualidad?
- ¿Quiénes son algunos de los mayores usuarios de Apache Hive? ¿Cuáles son sus casos de uso? ¿experiencias?
- ¿Cómo se pueden engañar los modelos de clasificación existentes?
- ¿Qué es un 'descriptor' en el contexto de una transformación de característica invariante de escala (SIFT)?
- ¿Cuál es el flujo de trabajo típico para usar el aprendizaje profundo para resolver un problema?
Potencialmente, los algoritmos informáticos podrían hacer lo mismo, pero esto requeriría una IA de nivel general, que no existe en este momento. Si alguna vez existirá es una pregunta abierta, a pesar de que la mayoría de las personas actualmente cree que lo hará.