Buena pregunta.
- Aplicaciones con conjuntos de datos pequeños: en general, debe tener grandes conjuntos de datos etiquetados o al menos grandes conjuntos de datos sin etiquetar. Mencioné grandes conjuntos de datos sin etiquetar ya que en la actualidad, antes de entrenar o calentar la red neuronal profunda con un conjunto de datos sin etiquetar y luego hacer el entrenamiento final con el pequeño conjunto de datos etiquetado es cada vez más común. Esta es la técnica que suelen utilizar las empresas que tratan con muchos textos sociales como Facebook, Google y Twitter. Pero si su conjunto de datos es pequeño, un modelo complejo como las redes neuronales profundas casi siempre se desempeñaría peor que los métodos de conjunto (por ejemplo, bosques aleatorios) o los métodos de núcleo no lineal (por ejemplo, SVM), que son lo último en tecnología entre los de aprendizaje automático tradicional. modelos
- Aplicaciones que requieren un entrenamiento rápido: a menos que sea un problema de visión en el que las NN se hayan convertido en el algoritmo predeterminado, los métodos de aprendizaje profundo no deben ser los primeros en entrenarse. Los métodos de conjunto y de núcleo no lineal siguen siendo los métodos de aprendizaje automático más exitosos para la mayoría de los problemas de datos estructurados. Y son muchos órdenes de magnitud más rápidos de entrenar que los métodos de redes neuronales profundas.
Los métodos de aprendizaje profundo son solo algunas de las herramientas en la bolsa de un profesional de aprendizaje automático.