Nuestro blog

Entérate de todas las novedades sobre Big Data y de la opinión de nuestros expertos en Data Science y Data Engineering.

Articulo de: Demetrio Barragán

Si hacemos balance de los términos más frecuentes de revistas y medios en 2017, aparecen big data y transformación digital con una fuerte correlación positiva, cuyo significado no puede ser otro que big data sea una de las mayores palancas de transformación e innovación que hoy tenemos en nuestras empresas. Hemos escrito ríos de tinta durante todo el año sobre este fenómeno, pero en este artículo, quisiera destacar algunos textos, reflexiones y tendencias de futuro…
 

Artículo de Francisco Malpica

La trazabilidad de datos es uno de los principales quebraderos de cabeza de las grandes empresas. Las razones que empujan a contar con esta necesidad no sólo es asegurarse una fácil localización de errores que haga más sencillo su corrección, sino que también tiene mucho que ver con las normativas legales, que cada vez son más, y que exigen controlar y conocer la trazabilidad de los datos.
 

Artículo de Carlos Palomares

Docker es un proyecto opensource que te permite manejar instancias dentro de tu PC, previa instalación del software que lo gestiona, basándose en lo que se denomina como virtualizacion ligera, manejando estos contenedores y su interior con ficheros de “tipo scripting” que pueden ser portados a cualquier otro PC.
 

Artículo de Demetrio Barragán, Director at Strategy Big Data, Director of the Management Program in Big Data, and Professor at IE Business School, and Pedro Torres, Chief Marketing Officer at Esri Spain.
 

Location analytics, data analysis, and machine learning have given rise to a new professional profile that would have been inconceivable just a few years ago. Companies and institutions need experts in these disciplines to help them make predictions for all sorts of contexts. These models provide value by saving money and optimizing resource use. Your imagination is the limit.

Big data is revolutionizing the management of large volumes of information, giving rise to new solutions capable of self-teaching without help from human beings. Google’s AlphaGo, for example, shows that machines are capable of achieving superhuman capacities without human intervention. In other words, human knowledge is no longer essential.



 

Artículo de Carlos Palomares
 
Apache Spark es un framework de procesamiento de big data de código abierto construido en torno a la velocidad, facilidad de uso y análisis sofisticado. Originalmente fue desarrollado en 2009 en AMPLab de UC Berkeley, y fue publicado en 2010 como un proyecto Apache.

Spark tiene varias ventajas en comparación con otros frameworks big data y tecnologías como MapReduce de Hadoop y Storm.
 

Artículo de Carlos García Fernández, profesor de EOI y socio en Strategy Big Data y Guillermo González Sánchez, científico de datos en Strategy Big Data.

Estamos en un momento de cambio que ninguna generación anterior ha sufrido en términos de efectos económicos y sociales. Los modelos de negocio se están transformando y los ciclos se reducen drásticamente; inmediatez, agilidad, adaptación al cambio y digitalización son claves en esta nueva situación a la que nos enfrentamos como sociedad. Para ilustrar cómo se están reduciendo los ciclos económicos y la inmediatez de los mismos, valga el siguiente ejemplo. El teléfono fijo tardó 75 años en tener 50 millones de usuarios; el famoso juego Angry Birds, 35 días. Estas diferencias se fundamentan en dos conceptos fundamentales: la digitalización y la inteligencia artificial.

Actualmente, una gran mayoría de compañías están enfocadas en definir su estrategia digital. En cinco años, estarán definiendo su estrategia de inteligencia artificial. Una de las definiciones que desde nuestro punto de vista mejor describen al aprendizaje automático (rama de la inteligencia artificial) aplicado al mundo empresarial es “la digitalización de la digitalización empresarial”. Algunos pronósticos indican que el 40% de las empresas que actualmente están en el Fortune 500 ya no lo estarán en los próximos 5-10 años.

Artículo de José María Azcárate en la revista DibitalBiz Magazine de Junio de 2016

En 1956, Arthur Samuel diseñó un sistema de machine learning (aprendizaje automático) para jugar a las damas. Primero le enseñó las reglas… y el hombre vencía a la máquina. Después introdujo probabilidades… y el hombre seguía ganando. Entonces puso a la máquina a jugar contra sí misma para que aprendiera…  y ya nunca volvió a ganar. Había diseñado un sistema que era mejor que él mismo en algo que él le había enseñado a hacer.

En 1996, la supercomputadora de IBM Deep Blue ganó una partida de ajedrez al campeón mundial Garry Kasparov. En 1997, la versión mejorada Deeper Blue le ganó un torneo a seis partidas.

En un mundo como el que habitamos, rodeado de datos con un impresionante potencial, las empresas deben asomarse a esa ventana que se está abriendo en torno a la analítica predictiva, una visión centrada en las necesidades reales de las personas y de las empresas. Este tipo de herramientas ayudarán a evolucionar en la tarea de facilitar las tareas cotidianas de todos los usuarios de negocio y, por ende, comenzar a aprovechar todo el potencial de la economía digital. Bienvenidos al futuro de la analítica predictiva SAP Cloud for Analytics.

¿Sabía que Alemania reconoció haber utilizado el Big Data como arma secreta para ganar el Mundial de Fútbol de Brasil 2014? ¿Que la impresión 3D ha reducido nada menos que hasta un 95 % los costes de producción en sectores como el aeroespacial o la automoción? ¿Ha oído hablar del negocio superior a los 150.000 millones de dólares que generará la realidad aumentada en 2020? Todos estos fenómenos forman parte de la nueva “ola digital” que nos arrastra y que nos obligará a adoptar nuevas estrategias si queremos sobrevivir en un entorno empresarial y social completamente nuevo.