Investigadores del MIT han desarrollado un método innovador para proteger los datos de entrenamiento de IA sin comprometer el rendimiento del modelo. Denominado PAC Privacy, este innovador marco mejora la privacidad de los datos y la eficiencia computacional, con importantes aplicaciones en el mundo real.
En el cambiante mundo de la inteligencia artificial, garantizar la privacidad de los datos sensibles sigue siendo un desafío crucial. Las técnicas para proteger información, como las direcciones de los clientes, suelen reducir la precisión de los modelos de IA, lo que dificulta su eficacia. Sin embargo, un equipo de investigadores del MIT ha desarrollado recientemente un avance significativo que promete equilibrar la privacidad y el rendimiento como nunca antes.
La nuevo marco, basado en una innovadora métrica de privacidad llamada PAC Privacy, no solo mantiene el rendimiento de los modelos de IA, sino que también protege datos confidenciales, desde imágenes médicas hasta registros financieros, contra posibles atacantes.
Este avance marca una mejora sustancial en la eficiencia computacional y presenta un enfoque refinado para privatizar prácticamente cualquier algoritmo.
Solemos considerar que la robustez y la privacidad no están relacionadas, o incluso entran en conflicto, con la construcción de un algoritmo de alto rendimiento. Primero, creamos un algoritmo funcional, luego lo robustecemos y, finalmente, lo hacemos privado. Hemos demostrado que este no siempre es el enfoque adecuado. Si logramos que nuestro algoritmo funcione mejor en diversos entornos, prácticamente podemos obtener privacidad gratuitamente», declaró en un comunicado de prensa la autora principal, Mayuri Sridhar, estudiante de posgrado del MIT.
Un avance en la privacidad de datos
Uno de los desafíos críticos para proteger datos sensibles en los modelos de IA es la necesidad de añadir ruido o datos aleatorios para ocultar la información original a los adversarios. Este proceso suele reducir la precisión del modelo.
Sin embargo, la nueva versión de PAC Privacy puede estimar y agregar automáticamente la cantidad mínima de ruido necesaria para lograr el nivel de privacidad deseado, preservando así la utilidad del modelo.
El algoritmo de privacidad PAC revisado simplifica el proceso al requerir únicamente las variaciones de salida, en lugar de toda la matriz de correlaciones de datos.
“Dado que lo que estás estimando es mucho, mucho más pequeño que toda la matriz de covarianza, puedes hacerlo mucho, mucho más rápido”, agregó Sridhar.
Esto permite escalar a conjuntos de datos mucho más grandes, mejorando así la utilidad práctica.
La estabilidad es igual a la privacidad
Una conclusión clave del estudio de los investigadores es la correlación entre la estabilidad de un algoritmo y su privacidad. Los algoritmos estables, que mantienen predicciones consistentes a pesar de pequeñas modificaciones en los datos de entrenamiento, son inherentemente más fáciles de privatizar.
El nuevo método PAC Privacy privatiza efectivamente dichos algoritmos al minimizar la variación entre sus resultados, lo que resulta en la necesidad de menos ruido y, en consecuencia, mayor precisión.
“En el mejor de los casos, podemos lograr estos escenarios en los que todos ganan”, agregó Sridhar, destacando situaciones en las que se optimizan tanto la privacidad como el rendimiento.
Perspectivas futuras e impacto
Los investigadores realizaron una serie de pruebas que demostraron que las garantías de privacidad de su método se mantienen robustas frente a ataques avanzados. La eficiencia del nuevo marco facilita la implementación de IA que preserva la privacidad en aplicaciones del mundo real, como la atención médica, las finanzas y otras.
"Queremos explorar cómo se podrían diseñar algoritmos en conjunto con PAC Privacy, para que el algoritmo sea más estable, seguro y robusto desde el principio", agregó la autora principal Srini Devadas, profesora Edwin Sibley Webster de Ingeniería Eléctrica en el MIT.
El equipo de investigación pretende probar su método con algoritmos más complejos y refinar aún más el equilibrio entre privacidad y utilidad.
Soporte y presentación
Esta investigación innovadora, apoyada por Cisco Systems, Capital One, el Departamento de Defensa de EE. UU. y una beca MathWorks, se exhibirá en el prestigioso Simposio IEEE sobre Seguridad y Privacidad, y ofrecerá nuevas direcciones para mejorar la privacidad de los datos en la IA.
“La pregunta ahora es cuándo se producen estas situaciones beneficiosas para todos y cómo podemos lograr que se repitan”, añadió Sridhar, sentando las bases para futuras exploraciones en materia de privacidad y rendimiento de la IA.
Fuente: MIT