Level Up! existe gracias a lectores como tú. Somos independientes, sin anuncios ni clicbait. Tu apoyo nos permite dedicar tiempo a análisis profundos, escribir ensayos y grabar pódcast exclusivos.
En 1974, dos químicos de la Universidad de California publicaron un artículo en Nature que nadie quiso leer. Frank Rowland y Mario Molina habían descubierto que los clorofluorocarbonos —esos gases maravillosos que hacían funcionar neveras, aires acondicionados y sprays de laca— estaban destruyendo la capa de ozono. La respuesta de la industria fue inmediata y predecible: los tacharon de alarmistas, financiaron estudios contradictorios, presionaron a los gobiernos, repitieron hasta la saciedad que prohibir los CFC era imposible, que la economía se iría a la mierda, que no había alternativa. Durante trece años el mensaje fue el mismo: es inevitable, no se puede hacer nada, acéptalo. Hasta que en 1987 se firmó el Protocolo de Montreal y, de repente, lo imposible dejó de serlo. Los CFC fueron prohibidos. La industria se adaptó. La capa de ozono empezó a recuperarse. Rowland y Molina recibieron el Nobel. Y el mundo siguió girando.
Me acuerdo de esta historia cada vez que alguien invoca la inevitabilidad de la inteligencia artificial generativa como si fuera una ley física, un fenómeno natural ante el que solo cabe agachar la cabeza y esperar a que pase el temporal. Daniel Vávra, el director de Kingdom Come: Deliverance, comparaba hace unos días la resistencia a la IA con el ludismo decimonónico, esos artesanos textiles que destrozaban telares mecánicos en la Inglaterra de principios del XIX. El argumento tiene cierto atractivo retórico: los luditas perdieron, la Revolución Industrial triunfó, resistirse al progreso es fútil. Pero Vávra, del mismo modo que tantos otros que recurren a esta analogía, malinterpreta la historia. Los luditas no odiaban la tecnología; odiaban quién se quedaba con los beneficios. No protestaban contra el telar, sino contra un sistema que convertía maestros artesanos en peones de fábrica mientras los dueños del capital acumulaban fortunas obscenas. Su error no fue resistirse. Su error fue perder. Y perdieron porque el Estado británico decidió enviar más soldados a proteger las fábricas que a luchar contra Napoleón. Fue una decisión política, no un destino inexorable.
Lo cierto es que el discurso de la inevitabilidad nunca es descripción neutral de nada: es pura estrategia. Si te convencen de que no puedes resistir, dejas de intentarlo. Y entonces sí se vuelve inevitable, pero por profecía autocumplida, no por ninguna ley inscrita en el cosmos. La inteligencia artificial generativa no es un meteorito cayendo sobre la industria del videojuego. Es una serie de decisiones tomadas por personas concretas en empresas concretas que podrían haber decidido —y todavía pueden decidir— otra cosa. Cada vez que alguien dice "no se puede hacer nada", lo que realmente está diciendo es "no quiero que se haga nada". Y quizá convenga preguntarse por qué.
Hay un problema previo a cualquier discusión sobre los usos legítimos o ilegítimos de la IA generativa, y es un problema que casi nadie quiere abordar porque complica enormemente el debate: el pecado original. Ninguno de los grandes modelos de inteligencia artificial que existen hoy —ni Midjourney, ni Stable Diffusion, ni DALL-E, ni Gemini, ni el maldito ChatGPT— fue entrenado con consentimiento. Ninguno. Millones de imágenes robadas de ArtStation, DeviantArt, Flickr, portfolios profesionales. Millones de líneas de código extraídas de repositorios de GitHub. Millones de textos succionados de blogs, periódicos, libros, foros. Todo ello sin permiso, sin compensación, sin siquiera una puta notificación a los creadores originales.
El argumento habitual de los defensores de estas tecnologías es que "la IA aprende como aprenden los humanos", que un algoritmo estudiando millones de imágenes no es diferente de un estudiante de Bellas Artes copiando a los maestros en un museo. Es un argumento que suena razonable hasta que uno se detiene a pensarlo durante más de tres segundos. Un humano que estudia a Moebius no puede producir infinitos Moebius en cuestión de segundos por cinco dólares al mes. Un humano que admira el código de John Carmack no amenaza el sustento de Carmack. La escala lo cambia todo. Un estudiante que copia un cuadro está aprendiendo; una máquina que procesa millones de cuadros para generar sucedáneos comercializables está extrayendo valor. No es aprendizaje: es minería. Es la misma lógica colonial de siempre —extraer recursos de un territorio, procesarlos en otro, vender el producto a un tercero—, pero aplicada al trabajo creativo.
Lo más perverso del sistema es que está diseñado para que el robo sea imposible de demostrar a nivel individual. "Tu dibujo específico no aparece en esta imagen generada". Claro que no aparece: está pulverizado y mezclado con otros cien mil dibujos en una sopa estadística de pesos y vectores. Es el crimen perfecto: robas a un millón de personas un poco a cada una, y ninguna puede demostrar daño suficiente como para llevar el caso a un tribunal. Las empresas de Silicon Valley llevan décadas perfeccionando el arte de pedir perdón en lugar de pedir permiso. Entrenan primero, litigan después. Saben que para cuando los tribunales se pronuncien —si es que alguna vez lo hacen— la tecnología será tan ubicua que prohibirla resultará impensable. Así funcionó con la piratería musical, con el scraping de datos personales, con las redes sociales vampirizando la atención de adolescentes. ¿Por qué iba a ser diferente esta vez?
Cuando alguien dice "uso IA de forma ética", la pregunta pertinente no es cómo la usa, sino de dónde viene lo que usa. Y la respuesta, hoy, es siempre la misma: de un expolio a escala industrial que hemos decidido normalizar porque nos resulta conveniente. No existe la IA limpia. No existe la IA ética. Existe, como mucho, la IA cuyo origen sucio preferimos no mirar demasiado de cerca.
Pero hay algo que me inquieta todavía más que el debate visible, el que ocupa portadas y enciende las redes sociales cada vez que un estudio confiesa haber usado herramientas generativas. Y es precisamente lo que no se debate. El frente donde la IA está haciendo estragos casi sin oposición. El frente invisible.
Hablo del código.
Mientras la conversación pública arde sobre arte conceptual y artistas despedidos, mientras nos escandalizamos por una textura de Midjourney que se coló en la build final de Clair Obscur: Expedition 33, hay un sector entero de la industria que está siendo devorado en silencio. No es casualidad que nadie lo defienda con la misma vehemencia que a los ilustradores: el código es invisible. El arte lo miras y emites un juicio inmediato: esto es bonito, esto es genérico, esto parece IA. El código no funciona así. Si el juego arranca sin romperse y mantiene los sesenta frames, nadie se pregunta cómo de elegante es el sistema de físicas que lo sostiene. Nadie examina la arquitectura de las clases ni la limpieza de las funciones. El trabajo del programador solo se percibe cuando algo va mal. Cuando todo va bien, es como el oxígeno: imprescindible e imperceptible.
Esa invisibilidad es precisamente lo que hace tan vulnerable a este colectivo. GitHub Copilot ya está integrado en la mayoría de entornos de desarrollo profesionales. ChatGPT y Claude escupen funciones auxiliares, tests automatizados, boilerplate de todo tipo. Los estudios —grandes y pequeños, da igual— llevan años incorporando estas herramientas a sus flujos de trabajo con una naturalidad que debería inquietarnos. Porque lo que se está automatizando no son las tareas que nadie quería hacer; lo que se está automatizando son precisamente las tareas que hacían los programadores junior. Las tareas que permitían meter un pie en la industria, aprender el oficio desde dentro, cometer errores bajo la supervisión de alguien más experimentado.
Es justo reconocer que la situación del programador es estructuralmente distinta a la del artista. El artista tiene comunidad visible, tiene sindicatos incipientes, tiene una tradición gremial de siglos que le proporciona un marco conceptual desde el que defenderse. El programador, especialmente el junior, es una figura atomizada, sin voz colectiva, sin estética reconocible que reivindicar. No puedes decir "esto parece código de Carmack robado sin permiso" del mismo modo que puedes decir "esto parece un Moebius pasado por Midjourney". El código no tiene firma. El código no tiene estilo en el sentido en que lo tiene una ilustración. Y por eso no se habla lo suficiente de esto.
Cuando Swen Vincke, el director de Baldur's Gate 3, se defiende de las críticas presumiendo de sus setenta y dos artistas —veintitrés de ellos dedicados exclusivamente al arte conceptual—, está jugando una carta que sabe ganadora: el artista es visible, cuantificable, defendible. Pero nadie le pregunta cuántos programadores tiene. Nadie le pregunta cuántos tenía hace cinco años. Nadie le pregunta cuántos habría contratado sin Copilot integrado en el pipeline. Y eso, quizá, es lo más revelador de todo: la batalla que no se libra es la batalla que ya se ha perdido.
La generación que ahora mismo está aprendiendo a programar en bootcamps y universidades, esa generación que sueña con trabajar en Larian o en Sandfall o en cualquier estudio que haga juegos que les importen, se va a encontrar con un mercado laboral donde los puestos de entrada han sido diezmados. Les dirán que aprendan a usar la IA como herramienta, que complementen su trabajo con automatización inteligente. Pero no habrá trabajo que complementar. La puerta de entrada habrá desaparecido. Y nadie les habrá avisado porque nadie estaba mirando cuando la cerraron.
Quizá el mayor triunfo retórico de las corporaciones tecnológicas sea habernos convencido de que los puestos que destruyen no son puestos reales. Cuando un estudio dice "usamos IA, pero no hemos despedido a nadie", técnicamente puede estar diciendo la verdad. Pero hay una trampa en esa formulación: los puestos que nunca se crean no aparecen en ninguna estadística de despidos. Son el desempleo invisible, el empleo fantasma, las personas que nunca tuvieron oportunidad de ser empleadas porque una máquina hacía su trabajo potencial antes de que ellos llegaran a la puerta.
Vincke enfatiza sus setenta y dos artistas como prueba de buena fe. Es un número que funciona como escudo: no estamos reemplazando humanos, tenemos humanos, mirad cuántos humanos tenemos. Pero la pregunta incómoda sigue flotando en el aire: ¿cuántos tendrían sin IA? ¿Cuántos ilustradores habrían contratado para el arte conceptual de Divinity si no pudieran iterar con Midjourney? ¿Cuántos programadores más habría en nómina si GitHub Copilot no generara la mitad del boilerplate?
No es una pregunta retórica. Es una pregunta que deberíamos exigir que respondieran todos los estudios que presumen de usar IA "de forma responsable". Porque celebrar que una empresa tiene setenta y dos artistas mientras usa herramientas de generación automática es como celebrar que una fábrica tiene trabajadores locales mientras importa productos semielaborados de países con mano de obra barata. El número absoluto no importa. Lo que importa es la tendencia. Lo que importa es si ese número sería mayor en un mundo sin IA, y cuánto mayor sería.
Del mismo modo que el greenwashing permite a las petroleras plantar cuatro árboles y llamarse sostenibles, el humano-washing permite a los estudios exhibir sus departamentos artísticos como prueba de que la tecnología no está causando daño. Pero el daño no está en los despidos visibles. El daño está en las contrataciones que nunca ocurrieron, en los puestos junior que se evaporaron antes de existir, en toda una generación de creativos —artistas y programadores por igual— que descubrirá demasiado tarde que la escalera por la que pretendían subir ha sido desmontada.
Y sin embargo, hay algo que la máquina no puede robar. Algo que ningún modelo estadístico, por sofisticado que sea, será capaz de replicar. Lo vio Walter Benjamin hace casi un siglo, cuando escribió sobre la reproductibilidad técnica y el concepto del aura: esa cualidad misteriosa que tiene la obra de arte original y que se pierde irremediablemente cuando la copia se vuelve indistinguible del original. Benjamin pensaba en la fotografía y el cine, pero su intuición apunta a algo más profundo, algo que quizá solo ahora, ante la IA generativa, podamos articular con claridad.
La IA puede generar imágenes que parecen arte conceptual. Puede escupir código que compila y funciona. Puede producir variaciones infinitas de cualquier cosa que le pidas. Lo que no puede hacer —lo que por definición es incapaz de hacer— es tener una vida detrás. No tiene infancia. No tiene el día que descubrió a Moebius en una librería de viejo y sintió que el mundo se expandía. No tiene la noche que pasó llorando porque un dibujo no salía como quería. No tiene la madrugada debugueando un error absurdo por puro amor al oficio, por esa terquedad insensata que distingue a quien crea de quien simplemente produce.
El arte humano —y el código humano, porque programar bien es también un arte— no es solo el resultado visible. Es la biografía comprimida que lo produce. Es la acumulación de experiencias, fracasos, descubrimientos y obstinaciones que cristalizan en cada decisión creativa. Cuando un ilustrador elige un trazo sobre otro, cuando un programador estructura una función de una manera y no de otra, hay una vida entera respaldando esa elección. Hay contexto. Hay intención. Hay, en definitiva, un quién y un por qué detrás del qué.
Y eso, por mucho que avance la tecnología, no se puede robar.
Quizá la respuesta al expolio no sea únicamente tecnológica ni únicamente legal —aunque regulación hace falta, y mucha—, sino también, en cierto modo, ontológica. Quizá la resistencia pase por reivindicar precisamente lo que la máquina no puede tener: el proceso, la intención, la biografía, el error significativo. El making of como producto. La humanidad como valor añadido. No se trata de competir con la IA en velocidad o en volumen —esa batalla está perdida de antemano—, sino de recordar qué es lo que hacemos cuando creamos. Qué es lo que aportamos que ningún algoritmo, por sofisticado que sea, puede aportar.
No es ingenuidad. No es romanticismo barato. Es una apuesta por lo que nos queda. La IA puede robar el qué. Puede apropiarse de estilos, imitar técnicas, generar sucedáneos indistinguibles. Pero no puede robar el quién ni el porqué. No puede robar la razón por la que alguien decide sentarse a crear algo que no existía. Y en ese hueco, en esa grieta que ningún modelo estadístico podrá rellenar, quizá quepa todavía un futuro para los que crean con las manos, con la cabeza y con algo que las máquinas no tienen ni tendrán jamás: una razón para hacerlo.
Pero me pregunto si estamos haciendo las preguntas correctas. Porque el debate se ha enquistado en un "IA sí" contra "IA no" que a estas alturas resulta estéril. Quizá las preguntas que deberíamos hacer son otras. ¿Cuántos puestos junior habéis dejado de crear? ¿De dónde vino el dataset que entrenó las herramientas que usáis? ¿Cuántos programadores teníais en 2018 y cuántos tenéis ahora? ¿Qué estáis haciendo para que la generación que viene tenga una puerta por la que entrar?
Porque el problema nunca fue que Vincke hablara de lo que hacen en Larian. El problema es que es el único que habla. Y mientras celebramos o condenamos su honestidad, EA, Ubisoft, Activision, Take-Two y todos los demás siguen en silencio, usando exactamente las mismas herramientas, sin dar explicaciones a nadie. El escándalo no debería ser Larian. El escándalo debería ser el silencio ensordecedor de los que prefieren no decir nada.
La IA generativa no es un meteorito. Es una decisión. Una serie de decisiones tomadas por personas concretas en empresas concretas que podrían haber decidido —y todavía pueden decidir— otra cosa. Las decisiones se pueden cuestionar. Se pueden regular. Se pueden, llegado el caso, revertir. Pero solo si dejamos de aceptar que no hay nada que hacer. Solo si dejamos de creer que lo inevitable es inevitable. Solo si recordamos que los luditas no perdieron porque tuvieran razón o dejaran de tenerla, sino porque no había suficiente gente dispuesta a luchar con ellos.
Quizá esta vez sea diferente. O quizá no. Pero la pregunta, al menos, merece ser formulada.
Level Up! existe gracias a lectores como tú. Somos independientes, sin anuncios ni clicbait. Tu apoyo nos permite dedicar tiempo a análisis profundos, escribir ensayos y grabar pódcast exclusivos.