Los riesgos de seguridad y privacidad de las aplicaciones de IA Generativa

Comparte

Una investigación realizada sobre más de mil empleados ha revelado que el uso de herramientas de IA generativa en el trabajo ha incrementado de manera muy significativa, usándose o habiendo sido usadas por hasta un cuarto de los empleados. Esta investigación ha demostrado además, que una vez los empleados comienzan a utilizar herramientas de IA, no se conforman con utilizar una sola, si no que usan de media alrededor de ocho herramientas cada mes. 

Mientras existen miles de herramientas de IA generativa, esta investigación las divide en: herramientas que ayudan con la generación, edición, traducción, etc, de contenidos; herramientas de negocio como puede ser Slack o Notion, y herramientas que proporcionan servicios de atención al cliente. No obstante, si algo demostró la encuesta llevada a cabo, es que ChatGPT sigue siendo la más utilizada de manera general, siendo hasta seis veces más utilizada que su competidor Google Gemini. Un 47% de las solicitudes a estas herramientas se centra en solicitudes para resumir, crear o editar contenidos, mientras que la interpretación, el procesamiento o el análisis de datos suponen un 12% por ejemplo. 

A pesar de los grandes beneficios que traen estas herramientas, con su uso también aumentan los potenciales riesgos de seguridad y privacidad a los que tanto individuos como empresas deben hacer frente. Esta investigación analizó las 5,020 herramientas de IA que están en uso, y descubrió que casi un 31% de ellas declaran entrenarse con los datos de los usuarios, lo que quiere decir que cualquier dato, incluidos datos sensibles, que se introduzcan, se podrán utilizar para entrenar sus modelos. 

El uso de estas herramientas continuará suponiendo riesgos para la privacidad y la seguridad tanto individual como de las organizaciones, por lo que se recomienda considerar lo siguiente: 1. llevar a cabo auditorías periódicas de las herramientas que se están utilizando; 2. implementar políticas muy claras sobre el uso de los datos y de la IA; 3. es muy importante informar a los empleados acerca de los riesgos de las herramientas de IA, así como de las buenas prácticas relacionadas con las mismas; 4. por último, cuando sea posible, escoger herramientas que permitan el “opt-out” del entrenamiento con tus contenidos.

Leer más

Posts relacionados que podrían interesarte

18, enero 2023

Posible responsabilidad de Amazon por la venta de falsificaciones en su marketplace

15, marzo 2023

La autoridad de protección de datos belga se pronuncia sobre los límites del derecho de acceso establecido en el RGPD

9, enero 2025

Demandas de Goyard y Nike agitan el mundo de la personalización de las zapatillas

19, septiembre 2019

Medios de pago Cómo te afecta la nueva Directiva de pagos digitales.

15, julio 2021

80.000 euros por enviar datos sanitarios por WhatsApp

28, octubre 2021

¿Cuál es la situación de España en materia de ciberseguridad?