Los datos: Explosión - Parte Final

avatar


big_data.png
La foto de la portada es una imagen de libre uso de Pixabay y editada por @abdulmath con GIMP, los emoji son creados con Bitmoji


Datos en tiempo real



Algunos datos se recogen, procesan y utilizan en tiempo real.


El aumento de la potencia de procesamiento de los ordenadores ha permitido incrementar la capacidad de procesar y generar esos datos con rapidez.

Se trata de sistemas en los que el tiempo de respuesta es crucial, por lo que los datos deben ser procesados a tiempo.



Por ejemplo, el Sistema de Posicionamiento Global (GPS) utiliza un sistema de satélites para escanear la Tierra y enviar enormes cantidades de datos en tiempo real.


Un dispositivo receptor de GPS, que puede estar en su automovil o en su teléfono inteligente, procesa estas señales de los satélites y calcula su posición, hora y velocidad.

Esta tecnología se utiliza ahora en el desarrollo de vehículos sin conductor o autónomos.



Estos ya se utilizan en áreas confinadas y especializadas, como fábricas y granjas, y están siendo desarrollados por varios fabricantes importantes, como Volvo, Tesla y Nissan.


Los sensores y programas informáticos implicados tienen que procesar los datos en tiempo real para navegar de forma fiable hasta su destino y controlar el movimiento del vehículo en relación con otros usuarios de la carretera.



information.png
Imagen de Pixabay y editada por @abdulmath con GIMP.



Esto implica la creación previa de mapas en 3D de las rutas que se van a utilizar, ya que los sensores no pueden hacer frente a rutas no cartografiadas.


Los sensores de radar se utilizan para vigilar el resto del tráfico, enviando los datos a un ordenador central externo que controla el coche.

Los sensores tienen que estar programados para detectar formas y distinguir, por ejemplo, entre un niño que corre hacia la carretera y un periódico que se cruza con ella; o para detectar, por ejemplo, un trazado de tráfico de emergencia tras un accidente.



Sin embargo, estos coches aún no tienen la capacidad de reaccionar adecuadamente a todos los problemas que plantea un entorno en constante cambio.


El primer accidente mortal en el que se vio implicado un vehículo autónomo se produjo en 2016, cuando ni el conductor ni el piloto automático reaccionaron ante un vehículo que se cruzaba en la trayectoria del coche, lo que significa que no se aplicaron los frenos.



Tesla, los creadores del vehículo autónomo, se refirieron en un comunicado de prensa de junio de 2016 a las circunstancias extremadamente raras del impacto.


El sistema de piloto automático advierte a los conductores de que deben mantener las manos en el volante en todo momento e incluso comprueba que lo están haciendo.



Tesla afirma que se trata de la primera víctima mortal relacionada con su piloto automático en 130 millones de kilómetros de conducción, en comparación con una víctima mortal por cada 94 millones de kilómetros de conducción normal y no automatizada en Estados Unidos.


Se calcula que cada coche autónomo generará una media de 30TB de datos diarios, muchos de los cuales tendrán que ser procesados casi instantáneamente.

Un nuevo campo de investigación, denominado análisis de flujos, que evita los métodos tradicionales de estadística y procesamiento de datos, espera proporcionar los medios para hacer frente a este particular problema de BigData.


Datos astronómicos



En abril de 2014, un informe de International Data Corporation estimó que, para 2020, el universo digital tendría 44 billones de gigabytes.


Los volúmenes de datos que producen los telescopios. Por ejemplo, el Very Large Telescope de Chile es un telescopio óptico, que en realidad consta de cuatro telescopios, cada uno de los cuales produce enormes cantidades de datos, 15TB por cada noche en total. El Large Synoptic Survey encabezará un proyecto de diez años de duración, que producirá repetidamente mapas del cielo nocturno, creando un de 60PB.



Aún más grande en términos de generación de datos es el Square Kilometer Array (ASKAP) que se está ubicado en Australia y Sudáfrica.


Produce alrededor de 160TB de datos brutos por segundo inicialmente, y cada vez más a medida que se completen otras fases.

No se almacenan todos estos datos, pero aun así se necesitarán superordenadores de todo el mundo para analizar los datos restantes.



problem.png
Imagen de Pixabay y editada por @abdulmath con GIMP.


¿Para qué sirven todos estos datos?



Ahora es casi imposible participar en actividades cotidianas y evitar que se recojan algunos datos personales por vía electrónica.


Las cajas de los supermercados recogen datos sobre lo que compramos; las aerolíneas recopilan información sobre nuestros viajes cuando compramos un billete; y los bancos recogen nuestros datos financieros.



Los macrodatos se utilizan ampliamente en el comercio y la medicina y tienen aplicaciones en el derecho, la sociología, el marketing, la salud pública y todos los ámbitos de las ciencias naturales.


Los datos en todas sus formas tienen el potencial de proporcionar una gran cantidad de información útil si podemos desarrollar formas de extraerla.



Las nuevas técnicas que combinan la estadística tradicional y la informática hacen cada vez más factible el análisis de grandes conjuntos de datos.


Estas técnicas y algoritmos desarrollados por estadísticos e informáticos buscan patrones en los datos.

Determinar qué patrones son importantes es la clave del éxito de la analítica de BigData.



Los cambios provocados por la era digital han modificado sustancialmente la forma de recopilar, almacenar y analizar los datos.


La revolución de los BigData nos ha proporcionado autos inteligentes y monitorización del hogar.

La capacidad de recopilar datos electrónicamente dio lugar a la aparición del apasionante campo de la ciencia de los datos, que aúna las disciplinas de la estadística y la informática con el fin de analizar estas grandes cantidades de datos para descubrir nuevos conocimientos en ámbitos de aplicación interdisciplinarios.



El objetivo último de trabajar con BigData es extraer información útil.


La toma de decisiones en las empresas, por ejemplo, se basa cada vez más en la información obtenida de los BigData, y las expectativas son altas.

Pero hay problemas importantes, entre ellos la escasez de científicos de datos formados capaces de desarrollar y gestionar eficazmente los sistemas necesarios para extraer la información deseada.



information.png
Imagen de Pixabay y editada por @abdulmath con GIMP.



Mediante el uso de nuevos métodos derivados de la estadística, la informática y la inteligencia artificial, se están diseñando algoritmos que dan lugar a nuevos conocimientos y avances en la ciencia.


Por ejemplo, aunque no es posible predecir con exactitud cuándo y dónde se producirá un terremoto, cada vez son más las organizaciones que utilizan los datos recogidos por satélites y sensores terrestres para controlar la actividad sísmica.



El objetivo es determinar aproximadamente dónde es probable que se produzcan grandes terremotos a largo plazo.


Por ejemplo, el Servicio Geológico de Estados Unidos (USGS), uno de los principales actores en la investigación sísmica, estimó en 2016 que hay un 76% de probabilidades de que se produzca un terremoto de magnitud 7 en los próximos 30 años en el norte de California.



Probabilidades como estas ayudan a centrar los recursos en medidas como garantizar que los edificios sean más resistentes a los terremotos y contar con programas de gestión de catástrofes.


Varias empresas de estos y otros ámbitos están trabajando con BigData para ofrecer mejores métodos de previsión, que no estaban disponibles antes de la llegada del BigData.



science00.png
Imagen de Pixabay y editada por @abdulmath con GIMP, e Inkscape.


Espero que les haya gustado este interesante tema acerca de Los datos: Explosión, no te pierdas las próximas publicaciones donde abordaré otros temas interesantes. Si deseas ampliar más te invito a leer las siguientes referencias:

  1. David J. Hand, Information Generation: How Data Rule Our World. 2007.
  2. Jeffrey Quilter and Gary Urto (eds), Narrative Threads: Accounting and Recounting in Andean Khipu. University of Texas Press, 2002.
  3. David Salsburg, The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century. Freeman and Company, 2001.
  4. Thucydides, History of the Peloponnesian War, ed. and intro. M. I. Finley, trans. Rex Warner. Penguin Classics, 1954.


HiveFirma.png




0
0
0.000
0 comments