Las capas de convolución generalmente se usan cuando las entradas tienen alguna estructura espacial. Por ejemplo, si entrena un filtro para reconocer una imagen de una flor, entonces solo responderá cuando a) estén presentes las intensidades de píxeles correctas yb) los píxeles estén organizados de manera de formar una imagen de una flor. Si toma exactamente los mismos píxeles y los reorganiza aleatoriamente, la imagen ya no es de una flor. Esto significa que el contenido de una imagen depende no solo de los valores de píxeles individuales, sino también de cómo están dispuestos espacialmente esos píxeles. Si, por otro lado, su entrada no tiene información espacial, por ejemplo. una variedad de atributos, luego los filtros convolucionales realmente no tienen sentido.
Las capas completamente conectadas pueden, por supuesto, reemplazar las capas convolucionales: piense en una capa F_x, y para cada paso (x, y) que toma el filtro de convolución C, donde F_x, y aplica los mismos pesos que C a las entradas que se aplicaría el filtro a, y pone a cero todas las demás entradas. Sin embargo, como puede ver, el número de pesos involucrados es mucho mayor, por lo que esta red tardaría mucho más en entrenar.
- ¿Cuál es el significado de la optimización convexa en el aprendizaje automático?
- Si IBM introduce el aprendizaje automático en z / OS, ¿qué significará eso para un desarrollador de mainframe?
- ¿Qué distingue una capa de una red neuronal de otras capas?
- ¿Cómo se usa el aprendizaje automático en DevOps?
- ¿TF-IDF está categorizado como una selección de características o una extracción de características?