Vivimos en una era en la que los datos son uno de los activos más valiosos que las empresas pueden monetizar. El volumen de datos que se mueven por Internet para dar servicios de alojamiento en la nube, está creciendo de tal manera que en el año 2025 la cantidad de dispositivos como smartphones, sensores instalados en las ciudades inteligentes o todos los objetos cotidianos que poseerán la capacidad de conectarse a internet para facilitarnos la vida, saturarán la red de tal forma que comenzaremos a notar respuestas lentas en nuestras aplicaciones y programas.
Y si hay algo que a los usuarios de internet nos pueda desquiciar y poner nerviosos es que las aplicaciones que usamos no vayan a la velocidad que consideremos aceptable.
https://mkt.apser.es/ebook-amazon-web-services-aws-como-impulsor-de-la-transformacion-digital
¿Por qué se colapsará la nube?
La respuesta está, como habrás leído en el primer párrafo, en el volumen de datos que se necesitarán mover a nivel global.
Este año se generarán aproximadamente unos 180 billones de gigabytes de datos y estos se envían para su procesado a sistemas de cloud computing.
El problema ocasionado por esta ingente cantidad, es que estos sistemas están lejanos, lo que provocará que tengamos que esperar nuestro turno hasta que los datos sean procesados.
Eso esconcebible en un juego online, pero cuando haya coches inteligentes que circulen a 120 kilómetros por hora por una autovía y necesiten datos para tomar decisiones una décima de segundo puede suponer la diferencia entre un accidente o una mera decisión para seguir circulando hacia el destino programado.
¿Qué soluciones se están planteando para evitar el colapso de la nube?
Hay una nueva tecnología disruptiva en ciernes que ya ha recibido inversiones sustanciales de grandes empresas, como Cisco, Dell o Arm, en diferentes rondas de financiación. La idea es introducir el concepto de
computación perimetral, es decir conseguir
minimizar los tiempos de espera sirviendo cierta información en un radio máximo de 150 kilómetros.
Por ejemplo, los datos que necesiten las aplicaciones de un teléfono inteligente, serán gestionados por nuestros «router» en vez de procesarse y guardarse en un alojamiento en la nube. De este modo se mejorarán los tiempos de respuesta y se reducirán las esperas.
¿El fin del cloud computing está cerca?
El «cloud computing» no va a desaparecer, simplemente se le va a someter a un cambio de funcionalidades y objetivos. Lo seguiremos usando para almacenar datos, pero no para servir aquellos que necesitemos procesar inmediatamente.
Este hecho se ha conceptualizado como «edge» (o el borde). Los datos serán procesados en el «edge», en un lugar cercano no superior a 150 kilómetros de donde estemos, y los conservaremos en la nube.
Habrá una mejora sustancial de la seguridad TI
Uno de los problemas de seguridad actuales es el «hackeo» de datos sensibles de cuentas de usuario de diferentes programas y aplicaciones que utilizamos a diario. Durante el año pasado fueron miles de millones de personas las afectadas por estas prácticas, poniendo en un aprieto a más de un departamento de seguridad TI de grandes empresas.
Utilizando la tecnología «edge», tan solo se vería comprometido un dispositivo con una acción de un hacker y no el de miles de usuarios,
reduciéndose la posibilidad de accesos masivos no deseados a datos personales. Esto también ayudaría a proteger los datos a pequeñas empresas con varias sedes descentralizadas repartidas por el país.
Si te ha interesado este post, quizás también te interese esta guía gratuita en PDF:
https://mkt.apser.es/ebook-amazon-web-services-aws-como-impulsor-de-la-transformacion-digital