Cuando se habla de Big Data todo el mundo entiende que se hace referencia a conjuntos de datos enormes, tanto estructurados como no estructurados, capturados en multitud de ambientes y que requieren de técnicas de procesamiento de datos especiales para poder extraer la información valiosa que pueden contener.

No todas las aplicaciones informáticas están preparadas para realizar este tipo de procesado tanto por el hecho de tener que manejar mucha información como por la necesidad de disponer de herramientas específicas para encontrar patrones, desechar valores sin efecto, visualizarlos adecuadamente, etc.

El interés creciente por manejar estas cantidades inmensas de datos viene por la posibilidad cada vez más fácil de captarlos y después almacenarlos, que además ofrece la posibilidad de realizar estudios estadísticos y obtener modelos…

por Bill Kahn, vicepresidente senior, ejecutivo de modelado de riesgos - Bank of America

Bill Kahn dirige el grupo de modelado estadístico para banca de consumo en Bank of America. Su equipo construye cientos de modelos usando una amplia gama de técnicas estadísticas y de aprendizaje automático. Estos modelos ayudan a garantizar la estabilidad financiera a individuos, empresas y comunidades en todo el país. En las últimas décadas, Bill ha dirigido grupos de estadísticos en varias firmas de servicios financieros, consultoría y fabricación de los Fortune 500. Tiene una licenciatura en física y un master en estadística por la Universidad de Berkeley y su doctorado en estadística de la Universidad de Yale.

Minitab le pidió a Bill que compartiera sus ideas sobre el aprendizaje automático (Machine Learning - ML) como "una base para la acción"…

por Bruno Scibilia

El beneficio potencial de los datos almacenados en servidores es enorme. Los bancos, empresas de seguros, telefónicas, fabricantes - de hecho las organizaciones de todas las industrias necesitan aprovecharse los datos de que disponen para mejorar sus operaciones, comprender mejor a sus clientes y encontrar una ventaja competitiva.

Con la llegada de la Industria 4.0 y la Internet industrial de las cosas (IIoT), la información llega fluyendo desde muchas fuentes — desde equipos en líneas de producción, sensores en productos, datos de ventas y mucho más. Ser capaz de recoger, cotejar y analizar esta información se está haciendo incluso más crítico a medida que lasa empresas los utilizan para encontrar mayor conocimiento de sus procesos y mejorar la eficiencia y efectividad.

Esta situación representa una cantidad masiva…

El pasado 5 de junio se clausuró la 1ª Edición del Taller "ANALITICS" que se ha organizado desde el Cluster GAIA con la colaboración de las expertas Elisabeth Viles de TECNUN y Lourdes Pozueta Fernández de AVANCEX.

En él se ha fomentado la participación de binomios empresa de servicios TIC y cliente propietario de datos. El taller está orientado a aumentar el valor de los DATOS en las organizaciones poniendo el foco en las habilidades en pensamiento estadístico necesarias para diseñar servicios TIC de valor que faciliten la toma de decisiones.

El curso ha contado con la colaboración de Addlink Software Cientifico,S.L. que facilitó el uso de la herramienta MINITAB para poder dar soporte de un modo estándar a la capacitación de las personas.

Si desea participar en próximas ediciones, puede contactar con Cristina…