Inteligencia Artificial

Meta Connect: la IA transforma los reels de Instagram con traducción en tiempo real

Meta anunció una nueva función para Instagram que permite traducir y doblar videos de reels en tiempo real utilizando inteligencia artificial.

Meta continúa expandiendo el uso de la inteligencia artificial en sus productos, y durante el evento Meta Connect 2024, la compañía anunció un avance que transformará la experiencia de los usuarios de Instagram. A partir de ahora, los videos de reels podrán ser traducidos y doblados automáticamente a varios idiomas, gracias a la implementación de Meta AI, un sistema avanzado de inteligencia artificial.

Este anuncio representa un gran paso hacia la eliminación de barreras lingüísticas para los creadores de contenido en Instagram, permitiéndoles llegar a audiencias más amplias sin tener que preocuparse por las limitaciones del idioma. La tecnología utilizada también sincroniza los movimientos de los labios en los videos traducidos, ofreciendo una experiencia visual más natural y fluida.

Cómo funcionará la nueva tecnología de traducción en Instagram

La tecnología detrás de esta innovadora función se basa en los avances recientes que Meta ha logrado en el campo de la inteligencia artificial, utilizando la última versión de su modelo de IA, Llama 3.2. Este sistema permite traducir y doblar automáticamente los videos de reels, ajustando el audio y el video para que el doblaje sea lo más realista posible.

Cuando un creador publica un reel en su idioma original, la IA de Meta toma la voz del video y genera una nueva versión en el idioma seleccionado, manteniendo el tono y el estilo característicos del creador. Por ejemplo, si el video fue grabado en español, Meta AI podrá crear una versión en inglés con una voz similar a la del creador, pero hablando en el nuevo idioma.

Lo más destacado de esta función es la sincronización de los labios, un aspecto que Meta ha trabajado para mejorar la experiencia visual de los usuarios. Al traducir el contenido, la inteligencia artificial también ajusta los movimientos de la boca del creador en el video, de manera que coincidan con las palabras en el idioma destino. Esta característica es una evolución significativa respecto a los métodos tradicionales de doblaje, donde la falta de sincronización de labios solía ser un problema evidente.

Demostraciones de la nueva función en Meta Connect 2024

Durante Meta Connect 2024, se llevaron a cabo diversas demostraciones para mostrar el funcionamiento y el potencial de esta tecnología de traducción en tiempo real. Uno de los casos más impactantes fue el de la creadora Dana Buttigliero, conocida en redes sociales como «Sabores del Conurbano», quien preparaba un postre con banana y dulce de leche en un video que fue traducido automáticamente al inglés.

En esta demostración, la IA no solo cambió el idioma del video, sino que también ajustó los movimientos de los labios de Buttigliero para que coincidieran con el nuevo diálogo en inglés. Aunque en algunos momentos la pronunciación de palabras específicas, como “dulce de leche”, no fue perfecta, el sistema demostró su capacidad para crear una experiencia de doblaje mucho más fluida y natural de lo que se había visto hasta ahora.

Otro ejemplo destacado fue el del creador Iván Acuña, conocido en redes como artificialmente.ia, quien mostró un video en el que hablaba directamente a la cámara. En este caso, la sincronización de labios fue particularmente impresionante debido a la gran cantidad de diálogo presente en el video, lo que permitió demostrar el nivel de precisión que Meta AI puede alcanzar al doblar contenido hablado.

Meta Connect: la IA transforma los reels de Instagram con traducción en tiempo real
La creadora Dana Buttigliero, conocida en redes sociales como «Sabores del Conurbano», utilizada como ejemplo en Meta Connect 2024.

Disponibilidad y expansión de la nueva función de IA

Actualmente, la función de traducción y doblaje automático de los reels está en fase de pruebas limitadas y solo estará disponible inicialmente para creadores de contenido en Estados Unidos y América Latina. Esto significa que solo una parte de los usuarios de Instagram podrá aprovechar esta tecnología en su primera fase de lanzamiento.

Meta ha confirmado que, aunque esta característica estará restringida a un grupo pequeño de usuarios al principio, la compañía tiene planes de expandirla a otros países e idiomas en los próximos meses. Según Mark Zuckerberg, CEO de Meta, el objetivo es que esta herramienta esté disponible para una mayor cantidad de creadores de contenido a nivel global a medida que se ajusten los detalles y se perfeccione su funcionamiento.

Desafíos y oportunidades de la nueva IA en reels

Aunque las primeras demostraciones de la función de traducción automática han sido impresionantes, también se han identificado algunos desafíos a superar. La pronunciación de palabras complejas o con un significado cultural específico es uno de los aspectos que Meta deberá afinar. Sin embargo, la capacidad de la IA para mantener el tono y el estilo del creador en el idioma traducido ya supone una mejora significativa frente a otras soluciones de traducción disponibles en el mercado.

Meta ha dejado claro que esta tecnología de IA es una parte central de su estrategia para potenciar el contenido global en sus plataformas. La posibilidad de que los creadores de contenido lleguen a audiencias de otros países sin la necesidad de subtítulos o traducciones manuales abre nuevas oportunidades para la expansión de su alcance. Además, al eliminar las barreras del idioma, los reels podrán generar una mayor conexión entre los usuarios y los creadores, al ofrecer contenido accesible para más personas en su idioma nativo.

Autor

[mdx-adserve-bstreet region="MED"]

Publicaciones relacionadas

Botón volver arriba