Inteligencia artificial hackeada en la nube, un peligro creciente

Ciencia y Tecnología01 de octubre de 2024Yerandi SantanaYerandi Santana
3007_inteligencia-artificial-hackeada-en-la-nube

Los modelos de aprendizaje profundo (una modalidad de inteligencia artificial) se están utilizando en muchos campos, desde el diagnóstico médico hasta la previsión financiera. Sin embargo, estos modelos consumen tantos recursos computacionales que requieren el uso de potentes servidores basados en la nube.

Esta dependencia de la computación en la nube acarrea importantes riesgos de seguridad, sobre todo en ámbitos como la sanidad. No debe extrañarnos, por tanto, que en muchos hospitales exista entre el personal sanitario una gran reticencia, sobre todo por motivos de privacidad, a utilizar herramientas de inteligencia artificial para analizar datos confidenciales de los pacientes.

Para hacer frente a este acuciante problema, un equipo encabezado por Kfir Sulimany, del Instituto Tecnológico de Massachusetts (MIT) en Estados Unidos, ha desarrollado un protocolo de seguridad que aprovecha las propiedades cuánticas de la luz para garantizar que los datos enviados a y desde un servidor en la nube permanezcan seguros mientras esos sistemas de inteligencia artificial “piensan”.

Al codificar los datos en la luz láser utilizada en sistemas de comunicación por fibra óptica, el protocolo explota principios fundamentales de la mecánica cuántica, lo que hace imposible que los atacantes copien o intercepten la información sin ser detectados.

Además, el protocolo garantiza la seguridad sin comprometer la precisión de los modelos de aprendizaje profundo. En las pruebas realizadas, se demostró que el protocolo podía mantener una precisión del 96% al tiempo que garantizaba unas medidas de seguridad lo bastante sólidas.

Te puede interesar
Lo más visto