¿Cuáles son algunos buenos chistes de aprendizaje automático?

No se trata del aprendizaje automático como tal, pero aquí hay “algunos hechos de Geoff Hinton” que son muy divertidos. Levantado de cosas divertidas

  • Geoff Hinton no necesita hacer unidades ocultas. Se esconden solos cuando él se acerca.
  • Geoff Hinton no está en desacuerdo contigo, en cambio diverge
  • Las redes de creencias profundas realmente creen profundamente en Geoff Hinton.
  • Geoff Hinton va directamente al tercer Bayes.
  • Geoff Hinton descubrió cómo funciona realmente el cerebro. Una vez al año durante los últimos 25 años.
  • Geoff Hinton nunca toma el avión. Ni siquiera toma el hiperplano. Prefiere montar en una variedad riemanniana casi esférica.
  • Los campos aleatorios de Markov piensan que Geoff Hinton es intratable.
  • Si desafías a Geoff Hinton, él maximizará tu entropía en poco tiempo. Su energía libre se habrá ido incluso antes de alcanzar el equilibrio.
  • Geoff Hinton puede hacer que te arrepientas sin límites.
  • Geoff Hinton puede hacer que su peso decaiga (su peso, pero desafortunadamente no el mío).
  • Geoff Hinton no necesita vectores de soporte. Puede soportar hiperplanos de alta dimensión con su dedo meñique. Un hecho poco conocido sobre Geoff Hinton: frecuenta bayesianos con convicciones previas (con agradecimiento a David Schwab).
  • Todos los granos que alguna vez se atrevieron a acercarse a Geoff Hinton se despertaron enredados.
  • La mayoría de las granjas están rodeadas de bonitos campos. La granja de Geoff Hinton se encuentra en una hiperplana, rodeada por un campo medio, y tiene granos en la grange.
  • El único núcleo que Geoff Hinton ha usado es un núcleo de verdad.
  • Después de un encuentro con Geoff Hinton, los vectores de soporte se vuelven locos y sufren un hiper dolor óptimo (gracias a Andrew Jamieson).
  • Las generalizaciones de Geoff Hinton no tienen límites.
  • Nunca interrumpa una de las charlas de Geoff Hinton: sufrirá su ira si maximiza la negociación.
  • Otros prueban teoremas. Geoff Hinton prueba axiomas.
  • Geoff Hinton una vez construyó una red neuronal que venció a Chuck Norris en MNIST.

Cortesía de @ML_Hipster y @bigdatahipster

  • Me expulsaron de Barnes and Noble por trasladar todos sus clásicos libros de teoría estadística a la sección religiosa.
  • Me llaman Dirichlet porque todo mi potencial está latente y en espera de asignación
  • ¿Sueñan las redes neuronales con ovejas estrictamente convexas?
  • Grite a todos esos algoritmos que crean cuentas falsas de Twitter para seguirme. Predijiste que sería genial antes de ser genial. #falso positivo
  • Obtuve este Dirichlet antiguo antes en la tienda de segunda mano por $ 5. Hay algunas actualizaciones ligeras en algunas esquinas, pero por lo demás es como nuevo.
  • Algoritmos de lote: YOLO *, Algoritmos en línea: Mantener actualizaciones y continuar (* Solo se aprende una vez)
  • Las cuentas de chistes tecnológicos son tan convencionales. Estoy configurando una cuenta @DeepMLHipster donde twitteo irónicamente sobre twittear irónicamente sobre ML.

¿Qué le dijo un vector de soporte a otro vector de soporte?
Me siento tan marginado.

¿Cuántos vectores de soporte se necesitan para cambiar una bombilla?
Muy pocos, pero deben tener cuidado de no romperlo.

También eche un vistazo a Buscar un hiperplano de separación con este truco de un kernel extraño. ¡Es gracioso!

Y “Machine Learning A Cappella – Thriller sobreajustado!”

* http://en.wikipedia.org/wiki/Sha

¿Por qué el ingenuo Bayesiano de repente se sintió patriótico cuando escuchó fuegos artificiales?

.

.

.

Asumió la independencia.

Esto sucedió de verdad.


Más fotos aquí: miembros del departamento de aprendizaje automático de CMU protestan en el G20 (27 fotos)

De acuerdo, aquí hay uno original 😀
Entonces, corrieron una red neuronal profunda para predecir la tendencia tecnológica más popular de 2014. Sorprendentemente, ¡predijo que la respuesta sería redes neuronales profundas! La gente acusó que era parcial. Los codificadores de NN asumieron que probablemente se debió al gran sesgo inicial.


A veces se hace difícil hacer que la gente entienda y esto realmente se parece. 😛

tira cómica de dilbert:

Regresión lineal

Entrenamiento: Las personas que murieron comieron chile.
Hipótesis: las personas que comen chile morirían.

Apoyo máquinas de vectores

TOC Toc
Quién está ahí
Aprendizaje automático
¿Aprendizaje automático quién?
Me estoy muriendo, abre la maldita puerta y llama al 911