Los modelos LLM como ChatGPT, Gemini, LLaMa o ahora DeepSeek se enfrentan a grandes controversias asociadas a su propia naturaleza. Los problemas legales de la IA están llamados a desencadenar procesos judiciales a escala global
Índice de contenidos
¿Es legítimo que un tercero, aunque sea un código producido con unos y ceros, use mis datos personales en su provecho? ¿Y las ideas? ¿Puede alguien apropiarse de un pensamiento original y presentarlo con otras palabras para explotarla en su derecho? Los problemas legales de la IA están alimentando un debate que crece a la misma velocidad que la propia tecnología.
Cada nuevo uso, cada nuevo aplicativo, plantea dilemas nuevos. Casi todos, de una complejidad ética y jurídica enorme.
Es la propia escala de la disrupción. Cuanto más poderosas se vuelven las soluciones de inteligencia artificial, más desconcierto, dudas y sospechas generan en aquellos llamados a regularlas.
Y esto no ha hecho más que empezar…
El foco de la cuestión está hoy centrado en los modelos LLM. En las plataformas de aprendizaje automático que están conquistando los móviles y ordenadores de decenas de millones de personas en todo el planeta.
LLM, el mercadillo que viene
ChatGPT, Gemini, LLaMa, Copilot, Bloom 3.0, Mistral, Cohere, PaLM… Hace unos días, la china DeepSeek convulsionaba los mercados por su coste y eficiencia.
Pero es que apenas 48 horas después, otro gigante asiático como Alibaba presentaba Qwen 2.5 Max asegurando que su modelo es mejor que los de sus colegas chinos o que el ChatGPT de OpenAI.
Rara es la semana en la que no aparece un LLM con nuevas y llamativas funcionalidades. Y rara es también la ocasión en la que lo hacen con luz y taquígrafos.
No importa que sean de código abierto o que su diseño esté más protegido que el Pentágono, la controversia que rodea a estas plataformas es un hecho.
Por eso los problemas legales de la IA están ya en boca de todos. Este artículo recoge algunas de las grandes polémicas que están alimentando.
No toques lo que es mío
A día de hoy, se podría decir que todos los problemas legales de la IA tienen un origen común: su entrenamiento. Para que los modelos LLM sean efectivos, necesitan muchos petabytes de datos e información con los que construir sus respuestas y contenidos.
Y ese punto de partida es dinamita ante principios constitucionales como la intimidad o la privacidad. ¿De dónde sacan las plataformas sus datos? ¿Pueden garantizar que no están tratando la información de los cientos de millones de personas que tienen una identidad digital?

Y por cierto, ¿a quién le han pagado por toda esa información?
Variables como la transparencia, la transferencia de datos (que se lo pregunten a Tik Tok) o la seguridad están en el punto de mira por la opacidad que circunda a los modelos LLM.
Europa está investigando cómo recopila ChatGPT los datos de sus usuarios e Italia llegó a prohibir el uso de la herramienta por la presunta recogida ilegítima de datos. Uno de los grandes problemas de la IA, en opinión de reconocidos juristas.
Esta misma semana, la Organización de Consumidores y Usuarios (OCU), en alianza con todas las entidades europeas que forman parte de Euroconsumers, anunciaba una demanda contra DeepSeek.
¿El motivo? Las sospechas de incumplimiento del Reglamento General de Protección de Datos (RGPD). Entre ellas, el envío de los datos de millones de consumidores europeos a las redes de servidores chinas sin las garantías de transparencia y proporcionalidad establecidas. O lo que es lo mismo, uno de los problemas legales de la IA con mayor impacto social.
Si hasta hace poco se afirmaba abiertamente que los datos eran el oro de esta era, con la irrupción de la IA generativa, la información personal ha escalado al siguiente nivel. Ahora son mucho más valiosos.
Problemas legales de la IA: la propiedad intelectual
El segundo de los problemas legales de la IA guarda relación con la propiedad intelectual. Y en este punto es donde el ruido en los tribunales está alcanzando mayor intensidad.
De nuevo, el entrenamiento está detrás de la batalla. A finales del 2023, The New York Times demandó a OpenIA por violación de los derechos de autor.
El trasfondo del proceso era muy simple. Consideraba el popular periódico que muchas de las respuestas que ofrecía ChatGPT a sus usuarios era poco menos que un corta y pega (manipulado en la redacción, eso sí) de artículos publicados por sus periodistas. Meses después, otros ocho diarios estadounidenses se sumaron a la causa.
Los creadores de contenidos tradicionales (medios de comunicación, productoras audiovisuales, discográficas…) han emprendido una cruzada contra el scraping que sustenta los modelos LLM. El cribado de los millones y millones de contenidos que circulan por Internet sin compensación de ningún tipo para el titular del copyright.
Las réplicas casi exactas y los parecidos más que razonables entre los contenidos originales y los que afloran de las IAs generativas son sorprendentes. Y esta tendencia creciente no ha hecho más que alimentar esta disputa por la defensa de la propiedad intelectual.
Otro ejemplo. En junio pasado, Sony Music, Universal Music Group y Warner Records, entre otras discográficas, presentaron una demanda contra Suno y Udio. Consideran los gigantes del universo musical que estas plataformas de IA infringen los derechos de autor sin pudor, por lo que reclaman una compensación por daños y perjuicios que podría sentar un precedente: 150.000 dólares por obra.
El debate sobre la propiedad intelectual, a la vista está, es uno de los grandes problemas legales de la IA.
El algoritmo que odiaba a las mujeres
A mediados del 2014, Amazon se vio envuelto en una polémica relacionada con lo que en la empresa creían era un poderoso algoritmo que les ayudaría a desarrollar un sistema neutral de contratación de personal. El algoritmo, en realidad, tenía poco de neutral, al contrario, era totalmente sexista.
En concreto, no le gustaban las mujeres.
El sistema había sido construido (de nuevo el entrenamiento) con los datos de recursos humanos acumulados por Amazon durante una década. Y claro, aquella información contenía patrones, sesgos, que sobreponderaban a los hombres. ¿El resultado? Cancelación del programa y a otra cosa mariposa.

La existencia de sesgos en los algoritmos es otra de esas cuestiones delicadas que plantean dudas sobre el comportamiento de los modelos de inteligencia artificial. Inclinaciones que atentan contra las normativas de igualdad o discriminación racial y que pueden acabar representando un nuevo frente entre los problemas legales de la IA.
En este campo del derecho laboral, el debate de la IA también se ha focalizado en las contrataciones. En la cantidad de empleos que podrían desaparecer por la automatización de tareas y la potencia disruptiva de la IA para crear máquinas cada vez más inteligentes.
Llegados a este punto, la dimensión del debate no solo es jurídica. También es política. Los socialistas franceses plantearon hace un tiempo la posibilidad de gravar con un impuesto los robots inteligentes que colonizan las industrias galas.
El propio Bill Gates ha terciado en el debate con algunas reflexiones que dejan poco lugar a dudas: «Ahora mismo, cada trabajador que cobra 50.000 dólares en una fábrica paga impuestos por rendimientos del trabajo, Seguridad Social… Si un robot viene y hace lo mismo, cabría pensar que gravaríamos igual al robot».
La implementación de esta clase de tributos podría llegar a convertirse en otro de los problemas legales de la IA por las resistencias de las grandes compañías y la siempre feroz competencia en los mercados.
La responsabilidad penal
El último de los problemas legales de la IA que abordaremos en este artículo es el de la responsabilidad penal. Y quizás un ejemplo ilustre a la perfección a lo que se enfrenta la sociedad a nivel global:
A comienzos de agosto pasado, la sociedad española se vio conmocionada por el caso de cinco menores que fueron investigados por la Guardia Civil por crear y difundir fotografías de 20 menores desnudas.
Las imágenes, según los investigadores de un realismo inusitado, habían sido creadas con una plataforma de IA.
Efectivamente, el potencial que tienen estas herramientas para suplantar identidades y destruir reputaciones es inmensa. Lo que abre grandes incógnitas en el ámbito de la responsabilidad penal.
Y una cuestión que formula un conocido letrado madrileño: «En el caso de los chicos de Sevilla, la responsabilidad es solo de ellos o también de la plataforma que les permite llegar a ese punto».
La hoja de ruta de la IA está también trufada de espinas…

