La Inteligencia Artificial ha llegado para quedarse. Muchos son los ámbitos en los que esta herramienta se utiliza de forma regular, como el educativo, el social y el profesional y a veces no la utilizamos como es debido y de forma segura. Por ello el Consejo de Transparencia y Protección de datos de Andalucía ha creado una metodología de trabajo para el uso responsable de inteligencia artificial en las administraciones públicas. “Una metodología que surge al detectar una necesidad no cubierta”, según ha explicado a 101TV el jefe de gabinete de cumplimiento de protección de datos del Consejo, Manuel González Seco.
Una herramienta dirigida a las administraciones públicas que quieren poner en marcha sistemas de inteligencia artificial. “Sin embargo, hemos observado que navegar este ecosistema, tanto tecnológica como jurídicamente, resulta a veces complicado, especialmente para los organismos más pequeños”, explica González. Es por ello que el Consejo de Protección de Datos, tras dos años analizando el uso de este tipo de sistemas en las Administraciones públicas, “proponemos una nueva herramienta de trabajo, una metodología en sí misma que acompañe a los responsables que vayan a poner en marcha este sistema de inteligencia artificial en las Administraciones públicas, para que tengan en cuenta la protección de datos desde el inicio”.
Seguridad y protección
Se trata de una herramienta flexible que se adapta a la complejidad y a los riesgos que la inteligencia artificial conlleva para los datos personales de los ciudadanos. La herramienta está pensada para que los organismos públicos de Andalucía “puedan utilizar ese tipo de sistemas de IA, sabiendo que los datos personales que manejan de los ciudadanos están salvaguardados y están seguros”. Por otro lado, esta seguridad se trasladará a la ciudadanía “para darle una seguridad jurídica, una confianza en que sus datos personales están siendo utilizados por inteligencia artificial en las Administraciones públicas con seguridad y responsabilidad”.
Según el jefe de gabinete, el uso que hacen las Administraciones públicas en Andalucía de la inteligencia artificial sigue todos los cumplimientos legales, sin embargo, “se trata de un entorno novedoso, con tecnología cada vez más potente, que además avanza vertiginosamente”. Tras dos años de observación y estudio, el Consejo de Protección de Datos ha llegado a la conclusión de que algunos organismos, especialmente los más pequeños, no siempre tienen los recursos necesarios para comprender estas complejidades, ni siempre tienen los equipos multidisciplinares que son necesarios.
Por tanto, “también hemos observado algo que ocurría y que queremos tratar de evitar, y es una dependencia excesiva de los proveedores tecnológicos”. “Cuando esto ocurre, las Administraciones pierden cierto control de los datos personales y pretendemos que esto no ocurra”.
¿Es necesaria la IA en todos los ámbitos?
González explicaba que pretenden también reflexionar sobre la necesidad de utilizar esta tecnología, porque, aunque en algunos casos será la opción adecuada, “habrá otras situaciones en las que quizás haya soluciones más robustas, pero no tan novedosas, que den un mejor rendimiento y con menos riesgos”. Es por ello que esta nueva metodología, que se está ultimando, quieren que sea práctica, que marque los pasos a seguir y que vaya acompañando a los responsables del despliegue en cada paso. La herramienta va planteando una serie de preguntas en función de cuál sea el contexto y los riesgos del sistema de IA.