OPENAI

La empresa de investigación y despliegue de inteligencia artificial (IA), OpenAI, ha revolucionado una vez más el mundo de tecnología tras presentar Sora, su nuevo modelo impulsado por IA capaz de crear “escenas realistas de video” de hasta 60 segundos a partir de instrucciones de texto.

“Estamos enseñando a la IA a comprender y simular el mundo físico en movimiento, con el objetivo de entrenar modelos que ayuden a las personas a resolver problemas que requieren interacción con el mundo real”, aseguró OpenAI en su página web.

Los primeros videos realizados por Sora han dado mucho de qué hablar en redes sociales gracias al detalle que tienen, el movimiento de cámara complejo que involucran, los múltiples personajes con emociones que aparecen a lo largo del video y sobre todo, a lo real que parecen.

Te podría interesar: META COMBATIRÁ LAS IMÁGENES FALSAS: IDENTIFICARÁ CONTENIDO CREADO POR IA EN SUS REDES SOCIALES

El lanzamiento de Sora redefine las fronteras de la creación del contenido digital, ya que ofrece una interacción entre lenguaje y visuales nunca antes vista, la cual puede transformar la manera en que se utiliza la inteligencia artificial en la actualidad.

La compañía estadounidense se ha enfocado en entrenar modelos que ayuden a las personas a resolver problemas que requieran interacción con el mundo real, por lo que se han enfocado en enseñar a la IA a comprender y simular el “mundo físico en movimiento”.

OpenAI indicó que el modelo puede ejecutar escenarios muy precisos debido a que va más allá de las indicaciones de texto del usuario, si no que también es capaz de comprender cómo existen esas cosas en el mundo físico para añadir realismo.

Te podría interesar:  Nicolas Cage interpretará a Spider-Man Noir en serie live-action de Prime Video

Por ejemplo, uno de los ‘comandos’ o prompts insertados en Sora fue este:

“Una mujer elegante camina por una calle de Tokio llena de neones que brillan con luz cálida y letreros animados de la ciudad. lleva una chaqueta de cuero negra, un vestido largo rojo y botas negras, y lleva un bolso negro. lleva gafas de sol y pintalabios rojo. camina segura y despreocupada. la calle está húmeda y es reflectante, lo que crea un efecto espejo de las luces de colores. muchos peatones caminan alrededor”.

Y este fue el resultado:

¿Cuándo estará disponible Sora para todo el público?

Actualmente, Sora solo está disponible para los miembros del “equipo rojo”, un grupo especializado cuya función principal es evaluar y probar sistemas, software o aplicaciones para identificar vulnerabilidades, fallos o riesgos potenciales. Su trabajo consiste en pensar y actuar como adversarios potenciales, emulando los métodos y tácticas que se podrían utilizar para emplear la herramienta con malicia.

Además, tienen acceso una serie de artistas visuales, diseñadores y cineastas para obtener comentarios sobre cómo hacer avanzar el modelo para que sea más útil para los profesionales creativos.

Aunque no todo es perfecto, pues OpenAI aseguró que “el modelo actual tiene debilidades. Puede tener dificultades para simular con precisión la física de una escena compleja y es posible que no comprenda casos específicos de causa y efecto. Por ejemplo, una persona puede darle un mordisco a una galleta, pero después, es posible que la galleta no tenga la marca del mordisco”.

El modelo también puede confundir los detalles espaciales de un mensaje, por ejemplo, mezclando izquierda y derecha, y puede tener dificultades con descripciones precisas de eventos que tienen lugar a lo largo del tiempo, como seguir una trayectoria de cámara específica.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *