Los riesgos de seguridad y privacidad de las aplicaciones de IA Generativa
Una investigación realizada sobre más de mil empleados ha revelado que el uso de herramientas de IA generativa en el trabajo ha incrementado de manera muy significativa, usándose o habiendo sido usadas por hasta un cuarto de los empleados. Esta investigación ha demostrado además, que una vez los empleados comienzan a utilizar herramientas de IA, no se conforman con utilizar una sola, si no que usan de media alrededor de ocho herramientas cada mes.
Mientras existen miles de herramientas de IA generativa, esta investigación las divide en: herramientas que ayudan con la generación, edición, traducción, etc, de contenidos; herramientas de negocio como puede ser Slack o Notion, y herramientas que proporcionan servicios de atención al cliente. No obstante, si algo demostró la encuesta llevada a cabo, es que ChatGPT sigue siendo la más utilizada de manera general, siendo hasta seis veces más utilizada que su competidor Google Gemini. Un 47% de las solicitudes a estas herramientas se centra en solicitudes para resumir, crear o editar contenidos, mientras que la interpretación, el procesamiento o el análisis de datos suponen un 12% por ejemplo.
A pesar de los grandes beneficios que traen estas herramientas, con su uso también aumentan los potenciales riesgos de seguridad y privacidad a los que tanto individuos como empresas deben hacer frente. Esta investigación analizó las 5,020 herramientas de IA que están en uso, y descubrió que casi un 31% de ellas declaran entrenarse con los datos de los usuarios, lo que quiere decir que cualquier dato, incluidos datos sensibles, que se introduzcan, se podrán utilizar para entrenar sus modelos.
El uso de estas herramientas continuará suponiendo riesgos para la privacidad y la seguridad tanto individual como de las organizaciones, por lo que se recomienda considerar lo siguiente: 1. llevar a cabo auditorías periódicas de las herramientas que se están utilizando; 2. implementar políticas muy claras sobre el uso de los datos y de la IA; 3. es muy importante informar a los empleados acerca de los riesgos de las herramientas de IA, así como de las buenas prácticas relacionadas con las mismas; 4. por último, cuando sea posible, escoger herramientas que permitan el “opt-out” del entrenamiento con tus contenidos.