Un estudio de diversas universidades determina que las Inteligencias Artificiales son cada vez menos fiables

Comparte

La pasada semana se publicó un estudio liderado por un equipo del Instituto VRAIN de la Universitat Politècnica de València (UPV), de la Escuela Valenciana de Posgrado y Red de Investigación en Inteligencia Artificial (ValgrAI), y de la Universidad de Cambridge, que concluía que la fiabilidad de la Inteligencia Artificial ha empeorado en los últimos años en comparación a las primeras versiones disponibles.

El motivo, tal y como apunta la UPV, se debe entre otras cuestiones a que los grandes modelos de lenguaje utilizan y se nutren de masivas cantidades de información que encuentran por internet. No obstante, el problema no se debe al volumen de información que ingieren los sistemas de IA, sino a la calidad de dicha información.

Desde la aparición de los sistemas de IA generativa en 2022, el entorno digital ha experimentado un aumento exponencial de contenido creado parcial o totalmente por inteligencia artificial. Como consecuencia, la información utilizada por las grandes empresas tecnológicas para entrenar sus sistemas de IA ha comenzado a incluir datos generados por otras IAs, en lugar de basarse en contenido de calidad producido por humanos. Esta forma de entrenar a los sistemas de IA está causando una reducción de la calidad de los outputs generados y una falta de diversidad del comportamiento del modelo que está dando lugar a una mínima variación en las respuestas finales. Lo anterior, que se conoce técnicamente como “AI models collapse”, está causando que la fiabilidad de los modelos más recientes haya empeorado. Por ejemplo, GPT-3 resultaba más fiable a la hora de proporcionar respuestas que su sucesor GPT-4. 

Además, el estudio hace hincapié en otro problema actual y es que actualmente los modelos están diseñados para dar siempre una respuesta aunque no tengan información al respecto o no sea lo suficientemente clara. En este sentido, Pablo Haya Coll, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM), concluye lo siguiente: «Aunque los modelos más grandes y ajustados tienden a ser más estables y a proporcionar respuestas más correctas, también son más propensos a cometer errores graves que pasan desapercibidos, ya que evitan no responder«.

Otra de las preocupaciones de los investigadores es que el funcionamiento de los modelos de lenguaje no se ajusta a la percepción humana de dificultad de la tarea. En consecuencia, tal y como apunta Hernández-Orallo, “los modelos pueden resolver ciertas tareas complejas de acuerdo a las habilidades humanas pero al mismo tiempo fallan en tareas simples del mismo dominio”. Los resultados del estudio arrojaron que los modelos más recientes habían mejorado su rendimiento en tareas de alta dificultad, pero no en tareas de baja complejidad, lo cual aumenta la discordancia entre el rendimiento de los modelos y las expectativas humanas.

Sin perjuicio de todo lo dicho, hay que tener en cuenta que el estudio se encuentra desactualizado, ya que solo analiza los modelos que se lanzaron con anterioridad al verano de 2023. Por ello, habría que analizar pormenorizadamente los actuales sistemas de IA y comprobar si existen cambios relevantes en cuanto a su uso y fiabilidad.

Leer más

Posts relacionados que podrían interesarte

29, diciembre 2025

Report OOTB: ¿Cómo evito caer en un fraude al realizar mis compras de Navidad?

10, mayo 2023

Spotify abre la veda y empieza a eliminar canciones creadas gracias a la inteligencia artificial (IA)

24, noviembre 2021

España podría contar en 2022 con una Agencia Española de Supervisión de Inteligencia Artificial

20, abril 2018

Programa del XIII Congreso Nacional de Editores.

20, junio 2019

La Comisión Europea hace balance sobre el conocimiento del RGPD por parte de los ciudadanos europeos un año después de su plena aplicación.

4, junio 2020

Galletas Oreo sólo hay una: Europa rechaza el recurso de la española Gullón por el registro como marca de unas galletas similares.