Generación de vídeo IA, directo desde Claude.
La guía honesta para conectar Claude con generación de vídeo IA y entender qué funciona ya, qué falla, y qué sorprende. Hecha desde la trinchera, no desde la documentación.
De qué va esta guía y de dónde sale.
Esta guía nace de mi experiencia personal generando vídeos para reels y shorts con IA durante las primeras horas de vida del MCP oficial de Higgsfield. No es un manual teórico ni una traducción de la documentación oficial: es el aprendizaje real de alguien que se ha sentado a trastear, ha pagado créditos, ha visto qué funciona, qué falla y qué sorprende.
Es, por tanto, un documento vivo. El 30 de abril de 2026 Higgsfield lanzó su servidor MCP. La industria de la IA generativa se mueve a una velocidad que vuelve obsoletas guías como esta cada pocas semanas. Anthropic actualiza Claude, Higgsfield itera sobre su MCP, ByteDance saca nuevas versiones de Seedance, y mis propios casos de uso evolucionan a medida que descubro nuevos flujos.
Por eso la voy a ir actualizando conforme:
- Las herramientas (Claude, Higgsfield MCP, los modelos subyacentes) maduren y resuelvan limitaciones actuales.
- Yo encuentre nuevos usos prácticos en mi día a día creando contenido.
- La comunidad reporte hallazgos relevantes que merezcan estar aquí.
Si la lees dentro de tres meses, parte del contenido habrá cambiado. Eso es bueno: significa que el ecosistema avanza. Sigue mi cuenta para enterarte cuando salga la siguiente versión, o vuelve por aquí cada cierto tiempo.
Lo que cuento aquí es lo que a mí me ha funcionado y lo que a mí me ha fallado. Tu caso puede variar según el tipo de contenido que produzcas, el modelo que elijas, la creatividad de tus prompts y la suerte que tengas con el agente. Tómatelo como un mapa hecho a mano de un territorio que sigue cambiando, no como un GPS infalible.
Lo que necesitas entender antes de empezar.
¿Qué es un MCP?
MCP son las siglas de Model Context Protocol. Es un estándar abierto, creado por Anthropic, que permite a un modelo de IA (como Claude) hablar con herramientas externas. Hasta hace poco, si querías que Claude generara un vídeo tenías que copiar-pegar prompts a otra plataforma, descargar resultados, etcétera. Con MCP, Claude puede invocar la herramienta directamente, recibir el resultado y seguir trabajando en la misma conversación.
Piénsalo como conectar un USB. Antes Claude solo "hablaba" contigo. Con un MCP enchufado, Claude también puede usar Higgsfield, Gmail, Notion, Slack, GitHub, lo que sea, según los conectores que actives.
¿Qué te ofrece concretamente Higgsfield MCP?
Acceso a más de 30 modelos de imagen y vídeo desde Claude. Entre los relevantes:
- Vídeo: Seedance 2.0 (de ByteDance, uno de los más avanzados ahora mismo), Sora 2 (OpenAI), Veo 3.1 (Google), Kling 3.0, WAN 2.6, Hailuo 02.
- Imagen: GPT Image 2, Nano Banana Pro, Soul 2.0 (especializado en consistencia de personaje), Flux 2, Seedream 5.0 Lite.
- Marketing presets: UGC, unboxing, TV spot, hyper motion, product review.
- Soul Character: para mantener al mismo personaje consistente entre múltiples generaciones.
Todo se factura contra los créditos de tu plan de Higgsfield, no es un coste extra.
Cómo conectarlo en 60 segundos.
- Necesitas una cuenta en Higgsfield con créditos. Si no la tienes, créatela en higgsfield.ai. Hay plan gratuito con créditos diarios para probar.
- Abre Claude en web (claude.ai), Cowork o Claude Code.
- Ve a Settings → Connectors → Add custom connector.
- Pon estos datos:
- Name: Higgsfield
- URL:
https://mcp.higgsfield.ai/mcp
- Pulsa Add → Connect. Te pedirá autenticarte con tu cuenta de Higgsfield mediante OAuth (login con email, sin pegar claves).
- Hecho. A partir de ese momento Claude tiene Higgsfield enchufado y puede generar imágenes y vídeos cuando se lo pidas.
Abre una conversación nueva y di "Genera una imagen de un atardecer en Lisboa con Soul 2.0". Claude debería invocar el conector y devolverte la imagen en la propia conversación.
Cómo se le habla a Claude para que use el MCP bien.
A diferencia de las webs tradicionales donde rellenas formularios, aquí todo es lenguaje natural. Pero Claude no adivina: cuanto más concreto seas, mejores resultados.
Estructura de petición que funciona
Cuatro elementos que conviene incluir cuando le pidas algo a Claude:
- Modelo concreto: si sabes cuál quieres ("usa Seedance 2.0"), dilo. Si no, di "elige el mejor modelo para esto" y Claude propondrá uno.
- Resolución y formato: 720p o 1080p, 16:9 o 9:16, duración en segundos.
- Descripción visual detallada: composición, sujeto, motion, atmósfera, color grading, estilo.
- Lo que NO quieres: añadir un bloque "FORBIDDEN" o "evita X, Y, Z" reduce muchísimo los fallos.
Ejemplo de prompt bien estructurado
Usa Seedance 2.0 vía Higgsfield. 16:9, 720p, 8 segundos, modo std, genre: epic. Plano cinematográfico de una mujer caminando lentamente por una calle empedrada de Lisboa al atardecer. Vestido beige, pelo castaño suelto, mirada serena al frente. Cámara en travelling lateral siguiendo su movimiento. Iluminación cálida dorada lateral, sombras largas, neblina sutil. Estilo fotográfico cinematográfico, paleta cálida, grano sutil de película. Evita: no añadas texto en pantalla, no cambies el vestuario a mitad de clip, no metas otras personas en el plano, no uses iluminación azulada.
Trucos que mejoran la consistencia
- Pide el modelo explícitamente. Si dejas que Claude decida, a veces escoge uno barato pero menos potente.
- Itera primero a baja resolución. 540p o 720p para validar que el prompt funciona. Cuando esté clavado, retira en alta calidad. Te ahorras créditos en pruebas.
- Sé específico con lo que NO quieres. Una lista de "evita esto" en el prompt baja la tasa de fallos drásticamente.
- Usa
genreen Seedance. Aceptaepic,drama,noir,horror,comedy,action. Cambia el tono del clip generado. - No mezcles tipos de media en una sola llamada. Si el modelo permite vídeo + imágenes, hazlo en pasos separados primero, hasta entender qué combinaciones acepta el MCP en su versión actual.
Casos de uso donde el MCP brilla ahora mismo.
Estos flujos funcionan perfectamente vía MCP en su versión actual.
1. Generación rápida desde texto
Pides a Claude una imagen o un vídeo y lo recibes en la conversación. Cero fricción. Ideal para iterar ideas o producir piezas individuales.
2. Comparativa multi-modelo
Le dices a Claude "genera este mismo prompt en Seedance 2.0, Kling 3.0 y Veo 3.1, y muéstrame los tres". Claude lanza las tres generaciones en paralelo y te las devuelve todas. Comparas y eliges la que mejor encaje. Esto en la web tendrías que hacerlo manualmente uno por uno.
3. Iteración y refinamiento
Pides un primer resultado, Claude lo entrega, le dices "el mismo pero con la luz más cálida y la cámara más alta", y lanza una nueva generación con los ajustes. Conversación natural, sin rellenar formularios cada vez.
4. Pipeline de campaña
"Genera una imagen del producto X con Soul 2.0, después usa esa imagen para crear un vídeo de 8 segundos con Seedance 2.0, después dame variantes para Instagram, TikTok y YouTube en sus formatos nativos." Claude orquesta toda la cadena en una sola conversación.
5. Generación con consistencia de personaje
Soul Character te permite definir un personaje (mediante fotos de referencia) y mantenerlo consistente entre múltiples generaciones distintas. Útil para storyboards, series de UGC con un mismo presentador, campañas con un personaje recurrente.
6. Marketing presets
Si vas a producir contenido publicitario, hay presets cinemáticos (UGC, unboxing, TV spot, hyper motion, product review) que aplican configuraciones probadas para cada formato. Pides "genera un UGC con preset" y Claude pasa los parámetros correctos al modelo.
Limitaciones reales que te vas a encontrar.
Esta es la parte que el marketing del lanzamiento no cuenta. La doc oficial promete cosas que en la implementación inicial del MCP no acaban de funcionar como en la web. Te las cuento para que no pierdas créditos descubriéndolas tú.
1. Combinaciones avanzadas de medias todavía dan errores
La web de Higgsfield permite, por ejemplo, subir un vídeo + dos imágenes (frame inicial y final) para hacer transformaciones complejas tipo video-to-video con anclas visuales. Vía MCP, esa combinación específica todavía da rechazos del servidor con frecuencia. Los créditos se devuelven (no pierdes pasta), pero sí pierdes tiempo iterando intentos.
Para ese tipo de transformaciones avanzadas, sigue usando la web de Higgsfield directamente. Para todo lo demás, el MCP funciona muy bien.
2. La doc oficial es escasa en detalles técnicos
La página oficial es muy promocional pero pobre en especificaciones de qué combinaciones de parámetros acepta cada modelo vía MCP. Te toca probar para descubrir los límites. Algunos modelos aceptan referencias de imagen, otros no. Algunos aceptan duraciones flexibles, otros tienen valores fijos. Hasta que la doc madure, descubrir va por ensayo y error.
3. Los roles de las medias no están bien expuestos
Cuando un modelo acepta varias imágenes (referencia de personaje, frame inicial, frame final, etc.), la web maneja eso automáticamente. Vía MCP, a veces tienes que indicarle a Claude el rol de cada imagen explícitamente, y los nombres de roles válidos no están documentados claramente.
Si una generación falla con varias medias, pruébala primero con una sola y ve añadiendo. Y describe en el prompt qué papel cumple cada imagen, no solo el orden.
4. El servidor está en alpha
Lanzado el 30 de abril de 2026. En su primera semana hay reportes de comportamiento inestable: peticiones que tardan más de lo esperado, ocasionales fallos puntuales, schemas que cambian sin aviso entre updates. Es normal en un producto tan nuevo. Esperable que mejore en las próximas semanas.
5. Precios y costes no se muestran antes de generar
Vía MCP no siempre sabes cuántos créditos te va a costar una generación antes de lanzarla. Salvo que se lo preguntes a Claude explícitamente, recibirás el cargo después.
Pregunta a Claude el coste estimado antes de tirar cualquier generación cara (1080p, larga duración, modo pro). Algo tipo "¿cuánto me va a costar esto en créditos?". Claude consulta el modelo y te lo indica.
Cuándo usar MCP y cuándo seguir usando la web.
| Caso de uso | Mejor opción hoy |
|---|---|
| Generación rápida texto-a-imagen o texto-a-vídeo | MCP |
| Comparar varios modelos con el mismo prompt | MCP (es donde más brilla) |
| Iterar refinamientos sucesivos | MCP |
| Pipeline multi-paso (imagen → vídeo → variantes) | MCP |
| Generación con character consistency (Soul) | MCP |
| Vídeo + frames inicial/final + prompt complejo | Web (de momento) |
| Modify Video V2V con anclas múltiples | Web |
| Cuando quieres cero riesgo de error de schema | Web |
| Cuando quieres ver el coste antes de generar | Web |
Buenas prácticas para no quemar créditos.
- Itera en baja resolución primero. Siempre. 480p o 540p para validar prompt. 1080p solo cuando ya está clavado.
- Usa el modo "fast" para pruebas. Cuesta menos créditos. El "std" o "pro" déjalo para el master final.
- Pregunta el coste antes de tirar generaciones largas. "¿Cuánto me costaría 10 segundos a 1080p std en Seedance 2.0?" Claude te lo dice.
- Reusa media IDs. Si ya subiste una imagen para una generación, no la vuelvas a subir; pídele a Claude que use la misma referencia.
- Trabaja por lotes mentalmente. Si vas a generar 5 variantes de un anuncio, descríbele las cinco a Claude en un solo mensaje y que las lance en paralelo. Más rápido y mejor coordinado.
- Documenta tus prompts que funcionan. Cuando algo te salga bien, guarda el prompt completo en una nota. Reutilizable y editable para futuros proyectos.
Cosas avanzadas cuando ya domines lo básico.
- Soul Character training: entrenar un personaje recurrente con tus propias fotos para usarlo en todas tus generaciones. Útil si haces contenido con un avatar consistente, productos con embajador, o series narrativas.
- Marketing Studio presets vía MCP: pedir a Claude que aplique presets de TV spot o UGC sobre un producto concreto.
- Mixed media: combinar varios modelos en el mismo proyecto orquestados desde Claude.
- Higgsfield + otros MCPs: si tienes Gmail, Drive, Notion, Slack también conectados a Claude, puedes hacer flujos como "genera estos 5 anuncios, súbelos a Drive y mándale el link a [cliente] por Gmail con un mensaje de revisión". Una sola conversación, todo el pipeline.
Recursos para profundizar.
https://mcp.higgsfield.ai/mcp
Pruébalo ya. Aprende dónde duele.
El MCP de Higgsfield es uno de los lanzamientos más interesantes del momento en el cruce entre IA generativa y agentes orquestadores. Funciona bien para la mayoría de casos, tiene limitaciones reales en su primera versión, y va a mejorar rápido en las próximas semanas.
La clave: probarlo ya, conocer dónde están los límites por experiencia propia, y combinarlo con la web cuando un caso concreto lo requiera.
Si quieres más contenido sobre Claude, MCPs, herramientas para devs y power users, sígueme en @sonaria_rafa. Comparto procesos reales, fallos incluidos, y aprendizajes aplicables.