ojos

miércoles, 1 de abril de 2020

BREVE HISTORIA DE BIG DATA



La historia del termino Big data.puede ser breve pero muchos de los cimientos de los conceptos detrás de Big data se construyeron y establecieron hace mucho tiempo.

Desde los inicios de la humanidad se ha tenido la necesidad de almacenar todo tipo de información con distintas formas o métodos dependiendo de la época,como por ejemplo el desarrollo del ábaco o las primeras bibliotecas en babilonia que sirvieron para guardar todo tipo de información que por aquel entonces circulaba,así como la biblioteca de Alejandría que fue el mayor centro de almacenamiento de datos del mundo, hasta que fue destruido por los romanos.

Con el surgimiento de la estadística, Herman Hollerith crea la maquina de tabulación Hollerith. La cual utiliza tarjetas perforadas para reducir la carga enorme de trabajo del Censo de Estados Unidos.
Este es otro ejemplo mas de la necesidad de crear diferentes métodos para ayudar a entender y almacenar la información que circula.

Toda esta creciente capacidad de almacenar y analizar información,ha sido una evolución gradual.Aunque las cosas,sin duda, se aceleraron a finales del siglo pasado, con la invención de almacenamiento digital y de Internet

Con la necesidad de almacenar datos modernos en 1928 Fritz Pfleumer crea un método de almacenamiento de datos magnético, que forma base de la tecnología de almacenamiento de datos digital moderno. Su invención se puede considerar la primera cinta magnética exitosa, antecedente de los célebres "casettes" de los años 60 y 70.
Sin embargo, es con los inicios de los negocios y la necesidad de orientar la acción a una meta deseada cuando se inician los grandes centros de datos.

En virtud de lo cual, en 1970 es cuando se desarrolla el modelo de base de datos relacional por el matemático Edgar F. Codd para IBM.El sistema de archivos jerárquico permite acceder a los registros mediante un sistema de índice simple. Esto significa que cualquiera pueda utilizar bases de datos, no sólo los científicos de la computación.

En 1973, se crea el modelo Black-Scholes para predecir el precio óptimo de las acciones en el futuro, o la primera herramienta comercializada para construir sistemas de apoyo en las decisiones guiadas por modelos en 1980. Pero no es hasta bien entrada la época de los 90, en 1995, cuando se lanzan las webs Amazon y eBay, que suponen el comienzo de la carrera para la personalización de las diversas experiencias online para cada uno de los usuarios. Esto supone la necesidad de que las búsquedas de los motores tengan en cuenta cada vez más la importancia de la relevancia de los resultados, llegando a aplicarse algoritmos de búsqueda en Google.

Actualmente la informática y almacenamiento de datos se utiliza para tareas de rutina de todos los días.Google ya predecía esto y por ello lanzo en 1997 su buscador que se convertiría en el mas popular pero no es hasta 1999 en un trabajo académico [“Visually Exploring Gigabyte Datasets in Realtime (ACM)"].cuando salen las primeras ideas de big data y donde se utiliza este termino.
A partir de ahí en 2001 se definen las tres Las tres “V” por Doug Laney para Big Data: “Volumen, Velocity, Variety”  (Volumen, Velocidad, Variedad).

El volumen hace referencia a la ingente cantidad de datos tratados, que es tal que un sistema normal no puede abarcarlos y convertirlos en información útil. El reto es transferir esa información a una base de datos y convertir los datos no estructurados en estructurados. La segunda V hace referencia a la variedad de los datos, que proceden de diferentes formatos y fuentes textuales y no textuales (documentos, mensajes, audios, sensores…). Y la tercera responde a la velocidad puesto que los datos se pueden procesar a tiempo real.


Una vez entrado en el nuevo milenio, la analítica supuso un impacto cada vez más profundo, y sigue aumentando hasta nuestros días.
Un ejemplo de ello es que con la llegada de las redes sociales, se hace necesario el análisis de todos aquellos datos no estructurados que se publican día a día, muy lejos de los datos manejados hasta el momento por las bases de datos relacionales. Ésta es una de las necesidades que dieron lugar al desarrollo de bases de datos Big Data, cuyo lenguaje dejó de estar estructurado, para dar paso al NOSQL.

Además de que los usuarios generarán nuevos datos no estructurados, cada vez se creaban más y más, llegando a la cantidad de 2,5 trillones de bytes de datos al día, y subiendo. En 2012 ya existían 1700 millones de dispositivos móviles vendidos y más de 2000 personas registradas en las redes sociales, y ha ido en aumento. Esto impedía utilizar las bases de datos convencionales, y fue el segundo detonante del desarrollo de las bases de datos NOSQL y del Big Data, ya que éste sí permite la gestión de enormes cantidades de datos.

Una vez desarrollado Big Data, su uso ha ido en gran aumento en la mayoría de las organizaciones, sobre todo las de mayor volumen. Esto se hizo posible gracias a granjas de servidores y procesos de bajo coste y alta velocidad, que hace posible la computación distributiva.

Todas estas mejoras han hecho que Big Data llegue a ser lo que es hoy en día, pero se espera que en el futuro la analítica de datos sea prácticamente omnipresente.


No hay comentarios:

Publicar un comentario