Blog

08
nov
Una Breve Historia del Machine Learning
  • Víctor Gonzalez
  • 4125 Views
  • 0 Comment
  • Big Data . ciencia de los datos . Data Science . Machine Learning .

Como miembros de la comunidad del Machine Learning es bueno que conozcamos la historia del sector en el que trabajamos. Aunque actualmente estamos viviendo un auténtico boom del Machine Learning, este campo no siempre ha sido tan prolífico, alternando épocas de altas expectativas y avances con “inviernos” donde sufría severos estancamientos. Nacimiento [1952 - 1956] 1950 — Alan Turing crea el “Test de Turing” para determinar si una máquina era realmente inteligente. Para pasar el test, una máquina tenía que ser capaz de engañar a un humano haciéndole creer que era humana en lugar de un computador.. 1952 — Arthur Samuel escribe el primer programa de ordenador capaz de aprender. El software era un programa que jugaba a las damas…

18
oct
IoT: Cuando la materia adquiere inteligencia
  • David_Morillas
  • 3757 Views
  • 0 Comment
  • No tags

El término IoT se refiere al Internet de las Cosas, una suerte de interacción entre lo digital y el mundo físico, una plataforma para conectar personas, objetos y entornos. En el ámbito del IoT, se considera que en el momento en el que algo se conecta, pasa a ser capaz de acceder al poder de computación de la nube, es decir, se vuelve inteligente. La implantación de esta tecnología y la tendencia a la automatización es imparable, cada segundo una media de 127 cosas establecen conexión con internet por primera vez. Todo esto está siendo posible gracias a que no ha dejado de cumplirse la ley de Moore, la cual establece que la computación electrónica crece en potencia y decrece…

17
sep
Precauciones a la hora de normalizar datos en Data Science
  • Santiago Morante
  • 3652 Views
  • 2 Comments
  • No tags

Para que funcionen mejor muchos algoritmos de Machine Learning usados en Data Science, hay que normalizar las variables de entrada al algoritmo. Normalizar significa, en este caso, comprimir o extender los valores de la variable para que estén en un rango definido. Sin embargo, una mala aplicación de la normalización, o una elección descuidada del método de normalización puede arruinar tus datos, y con ello tu análisis. Vamos a ver unos ejemplos de los métodos de normalización más usados actualmente. Escalado de variables (Feature Scaling o MinMax Scaler) En este caso, cada entrada se normaliza entre unos límites definidos: El problema de este tipo de normalization, es que comprime los datos de entrada entre unos límites empíricos (el máximo y…

15
jun
Cuando Michelangelo inventó el Big Data
  • Álvaro Alegría
  • 3809 Views
  • 0 Comment
  • Big Data . digital transformation .

Cuentan que cuando Miguel Ángel fue preguntado por su impresionante técnica para esculpir “La Piedad” en una sola talla, su respuesta fue que: “La escultura ya estaba dentro de la piedra. Yo, únicamente, he debido eliminar el mármol que le sobraba”. No puede negarse que, desde una visión simplista, esculpir es quitar material sobrante. Sin embargo, en algo debe influir el artista, pues si a la mayoría de nosotros nos dieran un bloque de mármol, un martillo y un cincel, lo más probable es que no lográramos esculpir nada que tuviera una forma reconocible. Y es que la creatividad de un artista, por encima de su manejo de las herramientas, es el valor añadido que éste aporta a lo que…

08
abr
Una arquitectura para twittearlos a todos
  • Carla Martínez
  • 3928 Views
  • 2 Comments
  • No tags

La definición del proyecto era sencilla: conocer qué es lo que la gente piensa de nuestro cliente en Twitter, tanto para bien como para mal y poder visualizarlo todo en un dashboard. Todo lo que se pueda, vaya. En cuanto supimos el alcance, intentamos "bajar al suelo" todo lo que pudimos. Leer de Twitter, analizar lo que dicen y procesar. Tres módulos. La arquitectura no parecía complicada, pero no sabíamos lo que nos esperaba. Recuerdo que siempre me han enseñado que un buen ingeniero es aquel que encuentra un problema, propone una solución y elige una serie de herramientas para llevarlo a cabo. Problema, solución y herramientas. Siempre. Bueno... No siempre. En este caso, había dos herramientas impuestas: Spark Streaming…

17
mar
Big Data, la llave al valor de negocio
  • Carla Martínez
  • 3533 Views
  • 0 Comment
  • Big Data . Business . conectividad . datos . innovación . internet of things . monetización . negocio . Value of Data .

Vivimos en un periodo en el que la transformación digital está presente en todos los foros de negocio. En dichos foros se difunde la idea de que lo digital va a permitir a las marcas interactuar con los consumidores de forma directa, entender cuál es su percepción y entender cómo están utilizando sus productos. Por tanto, el entorno digital va a permitir conocer mejor al consumidor y ser un punto de anclaje para su fidelización a medio y largo plazo. Las empresas ya se han dado cuenta de lo disruptivo que llega a ser este nuevo contexto y es fácil observar la gran inversión realizada en tener presencia en los canales digitales, ya sean espacios propios de las marcas, espacios…

29
feb
Las tendencias más de moda en el Big Data y Data Science
  • Synergic Partners
  • 4394 Views
  • 0 Comment
  • Big Data . Big Data Diet . Data . Data outsourcing . data plumbing . Data Science . Deep Learning . Hadoop . HPC . light analytics . small data . Transformación digital .

Basándose en encuestas a clientes –vendedores de plataformas de procesamiento de datos y productos -, así como en las tendencias en blogs populares, post en linkedin y similares, éstos son los temas más en auge acerca del big data y data science: La importancia que está cobrando la “fontanería de datos” o data plumbing (lo que viene a ser, en términos generales, la limpieza y preparación de los datos) para optimizar el funcionamiento de las herramientas big data de forma que sean más precisas, seguras, fiables y veloces a través de todos los “data pipes” (Internet, intranet, in-memory, local servers, cloud, Hadoop clusters etc.), optimizando aspectos como la redundancia, el balanceo de la carga, la ingesta, almacenamiento, compresión, resumen de…

28
ene
XGBoost
  • Roberto Izquierdo
  • 4872 Views
  • 0 Comment
  • Kaggle . Machine Learning . XGBoost .

En la historia de las competiciones de machine learning de Kaggle suelen dominar dos técnicas: el uso de conjuntos de árboles de decisión para datos estructurados, y de redes neuronales cuando los datos incluyen imágenes o voz. Tradicionalmente Random Forest predominaba en las competiciones de datos estructurados, pero recientemente otro algoritmo ha pasado a dominar las competiciones: Gradient Boosted Trees. Al igual que RF, GBT clasifica ejemplos mediante el uso de un conjunto de árboles de decisión. En el caso de este segundo, los árboles se construyen secuencialmente, añadiendo en cada iteración el árbol que mejor compense por los errores de los árboles ya existentes. Se le llama método de gradiente porque el modelo evoluciona en dirección al menor error,…

26
ene
Neural Style
  • Roberto Izquierdo
  • 4009 Views
  • 0 Comment
  • No tags

En los últimos años las redes neuronales han sido utilizadas en una variedad de campos a través de las técnicas de Deep Learning, con especial éxito en el reconocimiento y clasificación de imágenes. Algunos ejemplos de estas aplicaciones son el etiquetado automático de vídeos en función a los objetos grabados, el reconocimiento facial o el procesado de texto a partir de imágenes. Las Convolutional Neural Networks son un tipo de redes neuronales especialmente adaptadas al reconocimiento de imágenes, y consisten de una serie de nodos que filtran y almacenan información sobre la imagen de manera jerárquica, de mayor a menor nivel de detalle. La información almacenada en estos nodos puede utilizarse no solo para reconocer imágenes similares, sino que también…

05
oct
Big Data Cities. Sistemas de visualización de datos como marco para entender cómo se comportan las ciudades
  • Synergic Partners
  • 5535 Views
  • 0 Comment
  • Big Data . Data visualization . Smart City .

En la actualidad estamos inmersos en experimentos ambientales globales, incapaces de reducirse a la unidad y control del laboratorio, pues el dinamismo, la escala, y complejidad de los problemas a resolver obliga a concebir un sistema científico cuya base es la impredictibilidad, el control incompleto. Ante este escenario, los instrumentos de análisis requieren de nuevos entornos de visualización dinámicos dónde simular la complejidad de los ecosistemas urbanos. Estos sistemas de simulación entendemos son entornos de prototipado dónde explorar nuevas dimensiones de diseño en la modelización de ciudades inteligentes que nos permitan generar nuevos modelos de ciudad sostenible. Frente al término de modelo dentro del campo de arquitectura, urbanismo e ingeniería entendido como una descripción geométrica de los objetos, el modelo…

Clientes destacados