- CÓDIGO YI
- Posts
- Tu laboratorio creativo de IA, 100% gratis y en local
Tu laboratorio creativo de IA, 100% gratis y en local
Donde el caos tecnológico encuentra su equilibrio. Número #067

¿Listo para cuestionarte todo?
📅 Esta semana:
En El Chip Maestro exploramos el salto a un estudio de IA en casa con herramientas open source gratuitas que puedes instalar tú mismo, cambiando quién controla la inteligencia. En La Butaca del Caos, Turing construye una máquina para pensar y descubre que el verdadero problema nunca fue la tecnología, sino quién decide usarla.
Pero antes, repasemos las noticias más relevantes de la semana…
📰 FLASH NEWS

🎬 OpenAI cierra Sora: menos hype, más negocio
OpenAI ha decidido cerrar Sora, su ambicioso generador de vídeo, pese a acuerdos millonarios como el de Disney. El movimiento apunta a un giro estratégico: dejar de dispersarse en mil productos y centrarse en lo que realmente genera dinero, especialmente de cara a una posible salida a bolsa.
Mientras rivales como Anthropic ganan terreno en el mercado empresarial con modelos más enfocados, OpenAI parece admitir que abarcó demasiado sin integrar bien sus propias herramientas. Menos experimentos, más rentabilidad… pero la duda queda en el aire: ¿es un paso inteligente o la señal de que otros ya le están adelantando?
🧠 Meta crea una IA que “predice tu cerebro” mejor que los escáneres
Meta ha lanzado TRIBE v2, un modelo de IA entrenado con datos de más de 700 personas que simula la actividad cerebral en áreas como visión, lenguaje y sonido. Lo más loco: sus predicciones llegan a ser más precisas que algunos escáneres reales de fMRI, eliminando ruido como movimientos o latidos.
El modelo pasa de analizar 1.000 a 70.000 regiones cerebrales y permite hacer experimentos sin meter a nadie en una máquina. Meta además lo ha liberado como open source, apuntando a revolucionar la neurociencia. Si una IA puede simular tu cerebro… ¿cuánto falta para entenderlo (o copiarlo) por completo?
🎮 Gaming Copilot: la IA de Microsoft que te guía mientras juegas
Microsoft presentó Gaming Copilot, un asistente integrado en Xbox que actúa como coach en tiempo real dentro de los videojuegos. Probado en títulos como Forza Horizon 5 o Diablo IV, puede sugerir estrategias, resolver problemas y darte pistas sin salir de la partida.
Actualmente en beta para PC y móviles, llegará a consolas Xbox en 2026 y promete acabar con las guías externas. Pero ojo: usa tecnologías para leer lo que pasa en tu pantalla, lo que ya levanta dudas sobre privacidad. ¿El futuro del gaming es jugar… o que una IA juegue (y piense) por ti?
🧩 OpenAI prepara una superapp: toda su IA en un solo lugar
OpenAI quiere unificar ChatGPT, Codex y su navegador Atlas en una única aplicación de escritorio. El objetivo: acabar con la fragmentación y convertir su ecosistema en una “superapp” al estilo WeChat, donde puedas trabajar, programar y automatizar tareas sin salir de una sola interfaz.
El movimiento, liderado por Fidji Simo, busca competir directamente con Anthropic y su enfoque más integrado. Además, apunta a potenciar los agentes de IA autónomos desde el ordenador. Traducción: OpenAI quiere que no cambies de app… porque directamente vivas dentro de la suya. ¿Productividad total o dependencia total?
🤖 Zuckerberg quiere clonarse con IA (literalmente)
Mark Zuckerberg está desarrollando un agente de IA que replica sus capacidades para ayudarle a tomar decisiones y gestionar Meta. La idea no es solo automatizar tareas, sino crear una especie de “mini-Zuckerberg” que acelere procesos internos y reduzca la burocracia dentro de Meta.
El proyecto forma parte de una apuesta brutal por la IA (con despidos y reestructuración incluidos) y se apoya en herramientas como Second Brain o My Claw. El mensaje es claro: menos jerarquía, más agentes inteligentes. Pero si tu jefe puede clonarse con IA… ¿cuánto falta para que también reemplace a medio equipo?
🎮 PlayStation borra 1.000 juegos “hechos con IA” de su tienda
Sony ha eliminado más de 1.000 juegos de baja calidad de la PlayStation Store, muchos generados con IA o publicados sin control. La medida responde a las quejas de jugadores por un catálogo saturado de clones y títulos poco trabajados que dificultaban encontrar juegos buenos.
El recorte apunta a editores como Nostra Games o CGI Lab y busca limpiar la tienda y devolver visibilidad a proyectos de calidad. Traducción: menos “relleno automático” y más juegos que realmente valgan la pena. La pregunta es inevitable, ¿estamos ante el principio del fin de los juegos generados con IA sin control?
⚠️ Antes de continuar…
Para seguir creando contenido independiente y gratuito, a veces colaboramos con marcas que de verdad creemos que te pueden aportar valor. Te dejamos la de esta semana:
Turn AI Into Extra Income
You don’t need to be a coder to make AI work for you. Subscribe to Mindstream and get 200+ proven ideas showing how real people are using ChatGPT, Midjourney, and other tools to earn on the side.
From small wins to full-on ventures, this guide helps you turn AI skills into real results, without the overwhelm.
(Si te interesa, cada click cuenta y nos ayuda 😉)
🤖 EL CHIP MAESTRO
Tiempo de lectura: 2 minutos
🎛️ Tu propio estudio de IA en casa: del “meter la tarjeta” a correrlo todo en tu PC

En 2023, usar IA era, en el fondo, alquilar inteligencia en casa ajena.
Abrías una web, metías la tarjeta y cruzabas los dedos para que la API no se cayera a mitad del trabajo.
En 2026, el cambio es bastante serio. Ya puedes tener un pequeño estudio creativo dentro de tu propio PC: texto, imagen, voz, música y vídeo, todo corriendo en local.
Y eso cambia más de lo que parece.
Porque el open source ha dejado de ser solo un juguete para gente muy técnica. Ahora empieza a parecer una opción real para crear, prototipar y trabajar sin depender del todo de las grandes plataformas.
La pregunta ya no es si estos modelos sirven para jugar.
La pregunta es si ya puedes montarte un stack creativo completo, 100% local, con herramientas que existen hoy y que puedes instalar tú mismo.
La respuesta corta es sí.
La larga: en las siguientes líneas vas a ver qué piezas necesitas, para qué sirve cada una y cómo empezar a trastear con ellas sin volverte loco.
🧠 Texto / LLM (el “cerebro”)
Qwen 3.5
Qwen 3.5 es, básicamente, tu “ChatGPT privado”. Sirve para escribir textos, ayudarte con código, resumir PDFs o pensar ideas contigo, pero con la ventaja de que puedes descargar el modelo y correrlo en tu propia máquina. Es uno de los modelos abiertos que mejor equilibrio tiene entre calidad y tamaño, así que es buena puerta de entrada si tienes una GPU decente.
Para empezar a jugar, entras en su colección de modelos, eliges el tamaño que te encaje (por ejemplo 7B) y lo descargas o lo cargas desde tu herramienta favorita (Ollama, LM Studio, etc.).
Descarga/modelos: huggingface.co/collections/Qwen/qwen35
Mistral AI
Los modelos de Mistral son como los “cuchillos bien afilados” del mundo LLM: pequeños, rápidos y sorprendentemente buenos para su tamaño. Se usan mucho para chatbots, asistentes de código y servicios en producción porque consumen menos recursos que gigantes tipo GPT‑5, pero siguen dando muy buen resultado.
En la colección de Hugging Face tienes varias versiones (7B, 8x7B, modelos instrucción, etc.); eliges una, aceptas la licencia y la descargas o la apuntas desde tu servidor de inferencia (vLLM, text‑generation‑webui, etc.).
Ollama
Ollama es la pieza que hace que todo lo anterior sea usable por humanos. En lugar de pelearte con rutas de modelos y dependencias, instalas Ollama y luego escribes cosas tipoy “ollama run qwen o ollama run mistral” listo: tienes el modelo hablando contigo en local.
En la práctica, instalas el programa (hay instalador para Windows, macOS y Linux) y desde ese momento puedes ir añadiendo modelos desde el catálogo oficial o cargando los tuyos propios con un simple archivo de configuración.
LlamaIndex
LlamaIndex es el pegamento entre tu “ChatGPT local” y tus datos reales. Le das tus PDFs, tus notas, tu base de conocimiento, y monta índices para que el modelo pueda buscar ahí dentro y responder con lo que tú le has dado, no solo con lo que vio en su entrenamiento.
Lo normal es instalarlo como librería de Python (pip install llama-index) y seguir los ejemplos del repo: apuntas a una carpeta de documentos, construyes un índice y ya puedes hacerle preguntas en lenguaje natural sobre tu propio contenido.
🖼️ Imagen (del prompt a la ilustración)
Stable Diffusion
Stable Diffusion es el veterano que sigue mandando: escribes un prompt y te devuelve imágenes de personajes, logos, escenas o fondos en prácticamente cualquier estilo que se te ocurra. Hay miles de variantes entrenadas por la comunidad (anime, foto realista, pixel art…) y casi todas se apoyan en este mismo “motor”.
Para usarlo en local tienes dos caminos típicos: descargar los modelos desde la colección de Stability en Hugging Face y cargarlos en un UI como Automatic1111 o ComfyUI, o usar directamente alguno de los repos que ya traen interfaz lista.
FLUX (Black Forest Labs)
FLUX es la nueva generación de modelos de imagen: entiende muy bien prompts largos, respeta mejor el texto escrito dentro de la imagen (carteles, miniaturas de YouTube, etc.) y da un look bastante moderno de serie. Es el típico modelo que quieres probar cuando vienes de Stable Diffusion y piensas “quiero algo que se sienta más 2026”.
La gente suele descargar los pesos desde Hugging Face y servirlos a través de UIs compatibles o servidores tipo “openedai‑images‑flux” que simulan la API de OpenAI, o tirar directamente del repo oficial si te apetece Python.
Colección modelos: huggingface.co/black-forest-labs/collections
Kandinsky 5.0
Kandinsky 5.0 es una familia de modelos que juega tanto en imagen como en vídeo, con un estilo más artístico y cinemático. Si te interesan más las ilustraciones creativas, carteles o clips con look de cine independiente que la foto hiperrealista, es una opción a tener en el radar.
El repositorio oficial se instala como cualquier proyecto de difusión: clonas el repo, instalas las dependencias y sigues los pasos del README para generar desde texto o desde imágenes de entrada.
Qwen‑Image / Qwen‑Image‑Edit
Qwen‑Image y Qwen‑Image‑Edit son la “parte visual” de la familia Qwen: los usas para crear imágenes nuevas o para editar las que ya tienes (cambiar un objeto, extender el lienzo, ajustar el estilo…), pero hablando con el mismo “cerebro” que usa Qwen 3.5 para texto.
La forma habitual de probarlos es descargando el modelo desde Hugging Face y cargándolo en un servidor de imágenes compatible o integrándolo en tu propio backend si ya estás usando Qwen para texto.
🎨 Diseño / producto
Penpot
Penpot es el “Figma open source”. Te permite diseñar interfaces, prototipos y flujos de producto, pero lo puedes instalar en tu propio servidor o usar en la nube sin pasar por el modelo de suscripción clásico. Es muy útil si quieres que tu stack de diseño también sea libre y controlado por ti.
Para usarlo tienes dos caminos: montarlo en un servidor (Docker, Kubernetes, etc.) siguiendo la guía del repo, o usar la instancia que ofrecen ellos y mantener el código como respaldo por si algún día quieres irte a local.
Repo: github.com/penpot/penpot
🗣️ Voz (voz sintética y transcripción)
LuxTTS
LuxTTS es como tener un locutor profesional dentro del ordenador: convierte texto en voz con tono natural, pausas creíbles y un punto “de estudio” que encaja muy bien en vídeos, cursos o anuncios. La gracia es que, al ser open source, puedes ajustar voces y estilos sin depender de una API de terceros.
Lo normal es clonar el repo, instalar las dependencias de Python y seguir los ejemplos para generar tus primeros clips de audio desde texto; a partir de ahí puedes integrarlo en scripts, bots o pipelines de vídeo.
Whisper
Whisper es la navaja suiza para pasar audio a texto: entrevistas, podcasts, notas de voz, lo que le eches. Entiende bien muchos idiomas (incluido el español) y aguanta acentos y ruido razonables, por eso lo usan desde creadores indie hasta redacciones de medios.
Para probarlo, instalas el paquete de Python que viene en el repo y ejecutas un comando sobre un archivo de audio o vídeo; también hay frontends y UIs que ya lo llevan integrado si no quieres tocar terminal.
Voicebox
Este Voicebox no es el modelo de investigación de Meta, sino un estudio de clonación de voz local creado por Jamie Pine: una app de escritorio para clonar voces y generar locuciones en tu máquina utilizando modelos como Qwen3‑TTS. Está pensada para gente que quiere algo tipo ElevenLabs, pero sin depender de una API externa.
Se descarga como aplicación (hay builds para macOS y Windows) y también tiene repo de código para los que quieran integrarlo en sus propios proyectos o levantar el servidor localmente.
🎵 Música (el “Suno offline”)
HeartMuLa / heartlib
HeartMuLa es la parte “motor” de un estudio musical de IA: un conjunto de modelos que se encargan de comprimir audio, entenderlo y generar música nueva a partir de texto o referencias. No es una app bonita, es la base sobre la que puedes construir tu propio “Suno casero” si te gusta trastear.
Para usarlo sueles clonar heartlib, instalar dependencias y seguir los ejemplos para generar clips; muchos prefieren saltar directamente a HeartMuLa‑Studio, que lo envuelve en una interfaz más amigable.
HeartMuLa‑Studio
HeartMuLa‑Studio es la “cara amable” de HeartMuLa: una interfaz de estudio donde escribes un prompt, eliges estilo, subes una referencia si quieres y te devuelve pistas musicales completas. Es lo más parecido a usar un servicio tipo Suno, pero con todo corriendo en tu máquina (o en tu servidor).
La instalación se parece a la de muchas apps web open source: clonas el repo, instalas dependencias (a menudo con Docker o un simple npm install + npm run dev según el caso) y apuntas el backend a los modelos de HeartMuLa.
ACE‑Step
ACE‑Step va al grano: escribir una descripción y que salga una canción entera. El objetivo del proyecto es acercarse a la experiencia de “escribir un prompt y tener un tema acabado” sin depender de plataformas cerradas, con tiempos de generación razonables en GPUs de consumo.
El flujo habitual es lanzar ACE‑Step desde Colab o instalarlo en local (clonar repo, instalar requisitos y seguir el cuaderno o script de ejemplo); a partir de ahí puedes automatizar generación de música para vídeos, streams, etc.
🎬 Vídeo (guion → clip)
LTX‑2 / LTX‑Desktop
LTX‑2 es el motor que por fin junta vídeo y audio en un solo modelo abierto: le das texto o imágenes y te devuelve clips de vídeo con sonido, llegando hasta 4K en las configuraciones más potentes. Encima de ese motor, LTX‑Desktop se presenta como un editor de vídeo local “a lo Premiere con IA dentro”: generas, cortas y recombinas clips sin salir de la app.
Para el motor LTX‑2, lo típico es clonar el repo oficial, instalar el entorno de Python y seguir los ejemplos de generación; LTX‑Desktop, por su parte, se instala como app de escritorio o se compila desde el código según la guía del repositorio.
ComfyUI
ComfyUI es la “mesa de mezclas” donde puedes conectar todo lo anterior: modelos de imagen, nodos de vídeo como LTX, bloques de música tipo HeartMuLa, etc., arrastrando cajas y flechas en una interfaz visual. Es perfecto si quieres montar tu propio pipeline sin escribir una sola línea de código.
Para arrancarlo, clonas el repo, instalas las dependencias que indica el README y lo lanzas como aplicación local; luego solo tienes que ir añadiendo nodos y modelos en función de lo que quieras hacer (generar imágenes, vídeos, efectos, etc.).
Si después de leer esto te estás preguntando “vale, ¿y ahora cómo narices instalo yo Qwen o FLUX en mi máquina?”, calma.
No hace falta que te conviertas en DevOps de madrugada.
El truco práctico es usar la propia IA como guía.
Abre tu modelo favorito (ChatGPT, Perplexity, Gemini, Claude, el que uses a diario), pégale el nombre del proyecto que te interese y el enlace al repo, y pídele algo muy concreto tipo:
“Quiero instalar [nombre del modelo] desde este repo en Windows/macOS/Linux, con esta gráfica: [tu GPU/RAM]. Dime primero si mi hardware es suficiente y, si lo es, guíame paso a paso. Si sale algún error, te lo voy pegando.”
Esos modelos están bastante entrenados ya en tutoriales de instalación y guías de “correr IA en local”, así que pueden hacer de GPS mientras tú vas copiando y pegando comandos. Cuando algo falla, copias el mensaje de error, se lo pegas al chat y dejas que vaya ajustando el camino.
Y, muy importante: no todos los modelos son para todos los PCs.
Algunos de los bichos que hemos visto están pensados para GPUs gordas o incluso para varios servidores, y forzarlos en un portátil viejo solo te va a regalar pantallazos negros y frustración.
Por eso, antes de meterte en un jardín, enséñale tus specs al LLM y pregúntale directamente si tiene sentido que tú, con tu máquina, intentes correr ese modelo concreto.
No necesitas saber compilar ni memorizar comandos raros.
Con un rato libre, un poco de paciencia, una ventana de chat abierta y el modelo adecuado a tu hardware, puedes ir montando tu propio estudio de IA local paso a paso.
🍿 LA BUTACA DEL CAOS
The Imitation Game (2014)
Dirección: Morten Tyldum
Había una vez un hombre que construyó una máquina en un sótano para hacer lo que nadie más podía hacer. El mundo lo llamó héroe cuarenta años después de haberlo destruido.

Turing descifró Enigma, acortó la guerra en dos años y salvó millones de vidas. El premio fue una condena por "indecencia grave" y castración química. God Save de Queen
🎯 Trama:
Alan Turing tiene un problema: la Wehrmacht cifra sus comunicaciones con Enigma, una máquina que genera 159 millones de millones de combinaciones posibles. Los militares quieren más espías. Turing quiere construir algo que piense. La diferencia entre las dos posturas es exactamente la diferencia entre alquilar inteligencia ajena y tener la tuya propia. Turing no quiere acceso a la red, quiere el servidor en casa. Y eso, en 1940 igual que en 2026, incomoda a mucha gente.
👥 Personajes:
Cumberbatch hace de Turing como si la empatía fuera un bug del sistema operativo, no una feature. Es el tipo más inteligente de la sala y lo sabe, lo cual le hace insoportable y completamente solo. Joan Clarke, interpretada por Keira Knightley, es la única que entiende que el problema no es la máquina, sino convencer a los humanos de que la dejen funcionar. El comandante Denniston es el jefe que apaga el servidor porque no entiende para qué sirve. Hay uno en cada empresa.
🎬 Estilo y narrativa:
Tyldum rueda como si el tiempo fuera un recurso escaso, que en el fondo es de lo que trata la película. Tres líneas temporales entrelazadas con cortes limpios, sin artificios. La fotografía de Oscar Faura mantiene todo en grises fríos excepto los momentos en que la máquina funciona, donde la luz cambia sin que casi te des cuenta. La banda sonora de Alexandre Desplat es el tipo de música que suena a progreso inevitable, como una barra de progreso que no puedes cancelar.

En 1950 Turing propuso un test para saber si una máquina podía hacerse pasar por humano. Hoy ese test lo suspenden los captchas y lo aprueban los chatbots. Algo hemos hecho mal por el camino.
🧨 Conclusión:
Turing construyó Christopher, su máquina, en local. Sin cloud. Sin suscripción. Sin pedir permiso a ninguna plataforma. Y cuando empezó a funcionar, lo primero que hicieron sus superiores fue intentar apagarla porque no entendían cómo funcionaba por dentro. En 2026 instalas Ollama en tu PC, corres Qwen en local, montas tu propio stack creativo sin depender de ninguna API, y la reacción del entorno es exactamente la misma: desconfianza hacia lo que no pasa por el canal oficial.
El sistema educativo lleva décadas enseñando a usar herramientas de otros, nunca a construir las propias. El sistema no teme que no sepas usarlas. Teme que no lo necesites a él.

