Los riesgos de seguridad y privacidad de las aplicaciones de IA Generativa

Comparte

Una investigación realizada sobre más de mil empleados ha revelado que el uso de herramientas de IA generativa en el trabajo ha incrementado de manera muy significativa, usándose o habiendo sido usadas por hasta un cuarto de los empleados. Esta investigación ha demostrado además, que una vez los empleados comienzan a utilizar herramientas de IA, no se conforman con utilizar una sola, si no que usan de media alrededor de ocho herramientas cada mes. 

Mientras existen miles de herramientas de IA generativa, esta investigación las divide en: herramientas que ayudan con la generación, edición, traducción, etc, de contenidos; herramientas de negocio como puede ser Slack o Notion, y herramientas que proporcionan servicios de atención al cliente. No obstante, si algo demostró la encuesta llevada a cabo, es que ChatGPT sigue siendo la más utilizada de manera general, siendo hasta seis veces más utilizada que su competidor Google Gemini. Un 47% de las solicitudes a estas herramientas se centra en solicitudes para resumir, crear o editar contenidos, mientras que la interpretación, el procesamiento o el análisis de datos suponen un 12% por ejemplo. 

A pesar de los grandes beneficios que traen estas herramientas, con su uso también aumentan los potenciales riesgos de seguridad y privacidad a los que tanto individuos como empresas deben hacer frente. Esta investigación analizó las 5,020 herramientas de IA que están en uso, y descubrió que casi un 31% de ellas declaran entrenarse con los datos de los usuarios, lo que quiere decir que cualquier dato, incluidos datos sensibles, que se introduzcan, se podrán utilizar para entrenar sus modelos. 

El uso de estas herramientas continuará suponiendo riesgos para la privacidad y la seguridad tanto individual como de las organizaciones, por lo que se recomienda considerar lo siguiente: 1. llevar a cabo auditorías periódicas de las herramientas que se están utilizando; 2. implementar políticas muy claras sobre el uso de los datos y de la IA; 3. es muy importante informar a los empleados acerca de los riesgos de las herramientas de IA, así como de las buenas prácticas relacionadas con las mismas; 4. por último, cuando sea posible, escoger herramientas que permitan el “opt-out” del entrenamiento con tus contenidos.

Leer más

Posts relacionados que podrían interesarte

21, enero 2026

Elon Musk reclama a OpenAI y Microsoft 134 mil millones de dolares

16, diciembre 2021

Publicada oficialmente en español la Norma UNE-EN ISO/IEC 27701 para la Gestión de la Privacidad de la Información

10, mayo 2023

​​Ed Sheeran gana el caso en el que se le acusaba de copiar Let’s Get It On de Marvin Gaye

20, julio 2022

El Consejo de Ministros aprueba el Anteproyecto de Ley de creación de la Oficina Española de Derechos de Autor y Conexos

24, octubre 2025

Apple y Epic Games (Fortnite) regresen a la batalla judicial por las normas de pagos externos de la App Store

10, marzo 2022

La AEPD sanciona a Caixabank con más de 2 millones de euros