Toda era está marcada por una revolución y no hay duda que la de la información es la nuestra. La recopilación de datos y su tratamiento se ha convertido en uno de los temas más tratados por los especialistas de seguridad TI alrededor del globo, siendo, en conjunto con el cloud computing, el motor que mueve al mundo.
https://mkt.apser.es/ebook-reemplazando-la-cinta-por-la-nube-en-los-wf-de-backup
La información en la era digital
Cerca del 98 % de la información del planeta se encuentra digitalizada y eso ha cambiado no solo la forma en que vivimos, sino también nuestra perspectiva y la manera en que evolucionamos.
Es aquí donde entran en juego las nuevas tecnologías de
aprendizaje automático para facilitarnos la vida y ahorrarnos tiempo: el
deep learning y machine learning.
El aprendizaje automático: una tecnología que está en todas partes
El Big Data ha llegado para quedarse y por eso hemos desarrollado estrategias que nos permiten
transformar la información en algo valioso: conocimiento, eficiencia y métricas. Al menos esto es a lo que se dedican las grandes corporaciones tecnológicas como Google, Apple, Amazon y Facebook.
El aprendizaje automático -o machine learning, en inglés- es una de las ramas de inteligencia artificial que busca generalizar el conocimiento y
predecir nuestro comportamiento a través de la información que le hemos suministrado.
Gracias a él, recibimos ayuda para identificar correos basura, recomendaciones de contenido e información crucial para la toma de decisiones. Sin embargo, con el uso de esta tecnología, también cobran importancia otros aspectos, como las
herramientas de seguridad TI que se emplean en aras de proteger la privacidad de los usuarios de Internet.
¿Qué nivel de seguridad tenemos?
El
procesamiento de la información para el almacenamiento y compilación de datos en el cloud computing, trajo consigo la necesidad de idear
estrategias de seguridad TI eficientes que resguardaran los datos recopilados ante ataques externos y robo de información. Pensando en ello, investigadores del MIT han diseñado un nuevo sistema -al que bautizaron Gazelle- para
proteger los datos críticos sin tener que sacrificar el rendimiento de la red neuronal del machine learning.
Esto hace que seamos capaces de utilizar las plataformas de cloud computing para la ejecución y análisis de datos a una velocidad inigualable, tan solo con la adopción de los circuitos distorsionados y la encriptación homomórfica. Con esta tecnología, un usuario o empresa PYME descentralizada podría enviar sus datos a un servidor online para que sean evaluados por la red neuronal convolucional (CNN) y usar un canal de ida y vuelta donde se comparta información totalmente encriptada para así realizar una tarea específica, como clasificar una imagen.
Lo que hace rápido al proceso es que, durante este análisis, todo el sistema se centra en la tarea principal y no en la recolección de datos o aprendizaje automático del comportamiento de la red, por ejemplo. Así, Gazelle reduce el tiempo de ejecución y a la vez, el ancho de banda requerido para completar la tarea en cuestión. Sin duda, el aprendizaje automático es uno de los protagonistas de este universo digital donde el libre consentimiento de los usuarios, la transparencia en el procesamiento de datos y el resguardo de la información personal son los objetivos elementales.
Si te ha interesado este post, quizás también te interese esta guía gratuita en PDF:
https://mkt.apser.es/ebook-reemplazando-la-cinta-por-la-nube-en-los-wf-de-backup