Archive for enero, 2016

28
ene
XGBoost
  • Roberto Izquierdo
  • 4925 Views
  • 0 Comment
  • Kaggle . Machine Learning . XGBoost .

En la historia de las competiciones de machine learning de Kaggle suelen dominar dos técnicas: el uso de conjuntos de árboles de decisión para datos estructurados, y de redes neuronales cuando los datos incluyen imágenes o voz. Tradicionalmente Random Forest predominaba en las competiciones de datos estructurados, pero recientemente otro algoritmo ha pasado a dominar las competiciones: Gradient Boosted Trees. Al igual que RF, GBT clasifica ejemplos mediante el uso de un conjunto de árboles de decisión. En el caso de este segundo, los árboles se construyen secuencialmente, añadiendo en cada iteración el árbol que mejor compense por los errores de los árboles ya existentes. Se le llama método de gradiente porque el modelo evoluciona en dirección al menor error,…

26
ene
Neural Style
  • Roberto Izquierdo
  • 4062 Views
  • 0 Comment
  • No tags

En los últimos años las redes neuronales han sido utilizadas en una variedad de campos a través de las técnicas de Deep Learning, con especial éxito en el reconocimiento y clasificación de imágenes. Algunos ejemplos de estas aplicaciones son el etiquetado automático de vídeos en función a los objetos grabados, el reconocimiento facial o el procesado de texto a partir de imágenes. Las Convolutional Neural Networks son un tipo de redes neuronales especialmente adaptadas al reconocimiento de imágenes, y consisten de una serie de nodos que filtran y almacenan información sobre la imagen de manera jerárquica, de mayor a menor nivel de detalle. La información almacenada en estos nodos puede utilizarse no solo para reconocer imágenes similares, sino que también…

Clientes destacados