Pionero de inteligencia synthetic de código abierto Lightricks Ltd. está aumentando las apuestas con el lanzamiento del primer modelo de video generado por IA de larga information de la industria con capacidades de transmisión en vivo.
Se cube que la última versión de su modelo de video LTX insignia admite “narraciones continuas” al transmitir movies generados por IA, ya que brinda a los usuarios la capacidad de agregar nuevas indicaciones desde el momento en que comienza a crear el contenido, para que puedan refinar sus salidas en tiempo actual.
Además, establece un nuevo estándar para la generación de movies en términos de longitud, lo que permite a los usuarios generar clips de hasta 60 segundos, superando con creces el estándar precise de la industria de solo ocho segundos en promedio.
Lightricks es visto como un pionero en AI Video, lanzando el modelo LTXV unique en febrero de 2024 junto con el lanzamiento de su herramienta de cine de IA de grado profesional LTX Studio. El modelo LTXV fue notable por ser de código abierto, en marcado contraste con modelos competitivos como Sora de OpenAi, Gen-4 de Pika AI 2.1 de Pika Labs Inc., cuyos secretos están envueltos en código propietario. Si bien la plataforma LTX Studio basada en suscripción proporciona herramientas completas para editar las salidas de LTXV, el modelo básico con sus peso abierto es de forma gratuita, y Lightricks invita a los investigadores de IA y a los entusiastas generativos de movies de IA para ajustar y experimentar con él.
LTXV también se destaca por ser un modelo ético, que se capacita en datos totalmente licenciados de proveedores de imágenes como Getty Pictures Holdings Inc. y Shutterstock Inc., lo que significa que cualquier movies que genera están libres de infracciones de derechos de autor.
Las nuevas capacidades en el lanzamiento de hoy deberían ayudar a LTXV a destacarse aún más de la multitud, porque se combinan para permitir algunos casos de uso intrigantes que no son posibles con otros modelos de video de IA.
La actualización de hoy se centra en un nuevo motor de video autorregresivo, que no solo admite la transmisión en vivo del contenido a medida que se genera, sino que también permite a los usuarios refinar sus indicaciones sobre la marcha. Como explicó Lightricks, una vez que se ha generado el primer lote de cuadros, en función del aviso unique, los usuarios pueden ingresar instrucciones adicionales para refinar continuamente el video hasta que llegue al ultimate. Esto brinda a los creadores un management mucho mayor sobre las imágenes, el desarrollo de escenas y los personajes en sus movies, lo que lleva a docenas de nuevas posibilidades para el contenido generado por IA.
Lightricks sugiere que esto podría ser de interés para los desarrolladores de videojuegos, por ejemplo, permitiéndoles transmitir escenas de video en vivo durante los juegos en línea, en función de cómo el jugador interactúa con el juego. Mientras tanto, los conciertos en línea en vivo vistos en la realidad aumentada podrían superponerse con bailarines generados por IA que se mueven en sincronización con el intérprete humano. También podría apoyar el desarrollo de movies educativos interactivos, que evolucionan en función de cómo el alumno interactúa con ellos.
Como cube el cofundador y director de tecnología de Lightricks: “Hemos llegado a un punto en el que el video de IA no solo se solicita, está realmente dirigido. Este salto convierte el video de IA en una plataforma de narración de historias largas, y no solo un truco visible”.
La compañía dijo que la nueva arquitectura autorregresiva se ha integrado con la versión de parámetros más potente de 13 mil millones de LTXV, que se lanzó en mayo, así como con el modelo más pequeño de 2 mil millones de parámetros que está diseñado para funcionar en plataformas móviles.
Se puede encontrar el nuevo modelo, junto con sus pesos abiertos, en Cara abrazada y Githuby su arquitectura simplificada lo hace very best para desarrolladores y entusiastas individuales. Según Lightricks, es posible ejecutar LTXV en una sola unidad de procesamiento de gráficos NVIDIA Corp. H100 y generar video de alta resolución en segundos, o incluso una computadora portátil de grado de consumo, con una latencia relativamente baja.
Eso también es un gran problema, ya que la mayoría de los modelos de generación de movies patentados requieren recursos informáticos sustancialmente mayores. Eso significa que pueden funcionar de manera eficiente solo en la infraestructura basada en la nube.
Aún así, las últimas actualizaciones de Lightricks llegan en un momento en que los principales actores de la generación de movies de IA se esfuerzan por diferenciar sus ofertas, y sus competidores pueden contar con muchas capacidades únicas propias.
Por ejemplo, VEO 3 de Google LLC, lanzado en mayo, se destaca como el único modelo de video de IA que también puede generar sus propias pistas de audio, incluidas las bandas sonoras, el discurso de los personajes, los ruidos de animales, and so forth. Mientras tanto, otra startup, llamada Moonvalley AI Inc. está haciendo algunos movimientos interesantes con sus características de imitación de movimiento que permiten subir un video de mares agitados, por ejemplo, y aplicar ese movimiento a algo diferente, como las dunas de area en un desierto, para hacer que se muevan como olas.
Moonvalley también afirma ser una startup de IA ética, señalando que su modelo Marey también está capacitado en contenido con licencia.
Imagen: Siliconangle/Microsoft Designer
Apoye nuestro contenido gratuito abierto compartiendo e interactuando con nuestro contenido y comunidad.
Únete a Thecube Alumni Belief Community
Donde los líderes tecnológicos se conectan, comparten inteligencia y crean oportunidades
11.4k+
Purple de ex alumnos de cubos
Nivel C y técnico
Expertos en dominio
Conéctese con 11,413+ líderes de la industria de nuestra purple de líderes tecnológicos y empresariales que forman un efecto de purple confiable único.
Siliconangle Media es un líder reconocido en innovación de medios digitales que sirve al público innovador y marcas, que reúne tecnología de vanguardia, contenido influyente, concepts estratégicas y compromiso de audiencia en tiempo actual. Como la empresa matriz de Silicio, red de thecube, Investigación de THECUBE, Cube365, THECUBE AI y los superstudios de TheCube, como los establecidos en Silicon Valley y la Bolsa de Nueva York (NYSE) – Siliconangle Media opera en la intersección de medios, tecnología e IA. .
Fundada por los visionarios tecnológicos John Furrier y Dave Vellante, Siliconangle Media ha construido un poderoso ecosistema de marcas de medios digitales líderes en la industria, con un alcance de más de 15 millones de profesionales de la tecnología de élite. La nueva nube de video de AI de AI de la compañía, se está basando en la interacción de la audiencia, aprovechando la purple neuronal de thecubeai.com para ayudar a las empresas tecnológicas a tomar decisiones basadas en datos y mantenerse a la vanguardia de las conversaciones de la industria.