Si utilizas Facebook, Messenger, Instagram o WhatsApp, probablemente te hayas topado con algo llamado Meta AI sin siquiera darte cuenta. Está entretejido en la forma en que interactúas en estas aplicaciones, desde ayudarte con las publicaciones hasta editar imágenes.
El objetivo de la compañía para Meta AI es convertirse en su asistente virtual personal definitivo con acceso ilimitado y gratuito a sus modelos de IA integrados en la familia de aplicaciones de Meta. Todo el truco de Meta a finales de septiembre Conectar 2024 El objetivo del evento era hacer que las herramientas de IA fueran más divertidas, accesibles y fáciles de usar.
Con las últimas actualizaciones, Meta AI pretende ir más allá de las funciones básicas de chatbot y ofrecer un asistente de IA multimodal y multilingüe que pueda manejar tareas complejas. Esto es lo que debe saber sobre las herramientas de inteligencia artificial del gigante de las redes sociales.
Meta AI y dónde se usa
Más allá de su uso en aplicaciones, Meta AI también se refiere al laboratorio de investigación académica de Meta. Anteriormente se conocía como Facebook Artificial Intelligence Research antes de que Facebook cambiara su nombre a Meta (Facebook, la empresa, no la plataforma de redes sociales) en octubre de 2021. Se centra en el metaverso, de ahí el nombre Meta, y desarrolla tecnología de inteligencia artificial para impulsar todo. desde chatbots hasta realidad virtual y experiencias de realidad aumentada.
Meta AI no es el único actor en la carrera por integrar la inteligencia artificial en la vida cotidiana. Google tiene sus propias herramientas de inteligencia artificial, como Google Assistant y Gemini, su chatbot gratuito, similar a ChatGPT.
Mientras que la IA de Google se centra más en la productividad, como los resultados de búsqueda o la gestión de horarios, la Meta AI está integrada en sus interacciones sociales y ofrece asistencia sin que usted tenga que preguntar. Con Meta AI, puedes tomar una foto y pedirle que identifique sus detalles o editar las imágenes cuando se te solicite.
De manera similar, Alexa de Amazon y Siri de Apple son asistentes orientados a tareas, y ChatGPT o My AI de Snapchat ayudan con la experiencia conversacional.
Pero Meta AI va un paso más allá al combinar todas esas características para convertirla en una “experiencia cotidiana”, en lugar de una herramienta independiente. Y así, mientras que esas otras herramientas de utilidad se sienten más como algo que usas conscientemente, Meta AI moldea silenciosamente cómo te conectas con otros o creas contenido.
Es casi astuto en la forma en que se integra perfectamente en las plataformas sociales que la gente usa a diario, lo que hace que las herramientas de inteligencia artificial sean más difíciles de evitar. Simplemente escribiendo “@” seguido de Meta AI, puedes convocar al asistente en los chats (incluso en los chats grupales) para ofrecer sugerencias, responder preguntas o editar imágenes.
Esta integración de IA también se extiende a las funciones de búsqueda dentro de las aplicaciones de Meta, lo que hace que sea más intuitivo y fácil encontrar contenido y explorar temas basados en lo que ves en tu feed, lo que Meta llama una “experiencia contextual”.
Siguiendo el camino de ChatGPT, Meta AI ahora tiene conversaciones de voz naturales. Es multilingüe y habla inglés, francés, alemán, hindi, escritura hindi-romanizada, italiano, portugués y español. Pronto, también podrás elegir entre varias voces de celebridades para el asistente, incluidas John Cena y Kristen Bell.
Actualmente, Meta AI está disponible en 21 países fuera de EE. UU.: Argentina, Australia, Camerún, Canadá, Chile, Colombia, Ecuador, Ghana, India, Jamaica, Malawi, México, Nueva Zelanda, Nigeria, Pakistán, Perú, Singapur y Sudáfrica. , Uganda, Zambia y Zimbabwe.
Aunque Meta AI no está disponible en la UE, la compañía dice que podría más tarde unirse al Pacto de IA de la UE. La Ley de IA exige que las empresas proporcionen “resúmenes detallados” de los datos utilizados para entrenar sus modelos, un requisito que Meta ha dudado en cumplir, probablemente debido a su historial de demandas por privacidad de datos.
Gafas como nuevo dispositivo de IA
El director ejecutivo de Meta, Mark Zuckerberg, presentó nuevas características multimodales, impulsadas por sus modelos Llama 3.2 de código abierto, durante el evento Connect en septiembre, donde el equipo de Meta enfatizó el futuro de la informática y la conexión humana.
Uno de los anuncios más importantes de Connect 2024 fue cómo Meta AI se está integrando en productos cotidianos como sus gafas Ray-Ban Meta. Estas gafas ahora pueden ayudar a los usuarios de varias maneras, como recordar dónde estacionó su auto (¡guau!).
Las gafas también pueden realizar acciones según lo que estás mirando. Por ejemplo, puede pedirle a AI que haga una llamada o escanee un código QR por usted.
Otros productos presentados incluyen la versión Meta Quest S3 de su casco de realidad virtual (VR) independiente, que, después de las actualizaciones, ahora llaman casco de realidad mixta, y Orion, su prototipo de gafas AR holográficas, que ha estado en desarrollo durante más de una década.
Aunque las gafas Ray-Ban Meta y los dispositivos Quest están disponibles en 15 países, incluidos algunos europeos, Meta AI está actualmente disponible en esos dispositivos. sólo en EE.UU. y Canadá.
Traducción en vivo
Meta también anunció avances en la traducción de IA. Metaglasses podrá traducirte en tiempo real, por lo que si alguien te habla en español, francés o italiano, podrás escucharlo en tu oído en inglés.
Otro gran avance, aunque aún en fase experimental, es el doblaje de vídeos en Reels en español e inglés, con sincronización labial automatizada. Presumiblemente, si las pruebas van bien, las expandirán a más idiomas.
Estudio de IA
Por ahora, esta función sólo está disponible en EE. UU. Los usuarios y las empresas podrán crear chatbots de IA personalizados sin necesidad de amplios conocimientos de programación. Estos llamados personajes de IA servirán como extensiones de ellos mismos o de sus marcas, permitiendo interacciones más atractivas con seguidores o clientes.
Con total transparencia, todas las respuestas generadas por AI se marcarán como tales.
El poder detrás de Meta AI
Llama (Large Language Model Meta AI) es una familia de LLM diseñada para comprender y generar texto similar a un humano, responder preguntas, escribir e incluso mantener conversaciones.
Llama 3.2 es la última versión de este LLM y el primer modelo multimodal de código abierto de Meta, que permitirá muchas aplicaciones que requieren comprensión visual. Meta afirma que es “su modelo de código abierto más avanzado, con flexibilidad, control y capacidades de última generación que rivalizan con los mejores modelos de código cerrado”.
Los nuevos modelos Llama 3.2 vienen en dos variantes multimodales con parámetros 11B y 19B, y modelos de solo texto con parámetros 8B y 70B. Los parámetros se miden en miles de millones y definen cómo el modelo procesa entradas, como palabras o imágenes, y genera resultados ajustando las relaciones entre ellas.
Meta también planea lanzar modelos con parámetros más pequeños optimizados para dispositivos móviles y dispositivos portátiles como gafas.
¿Qué sigue?
Según la compañía, Meta AI se convertirá en el asistente de IA más utilizado del mundo para finales de año. Más de 400 millones de personas interactúan mensualmente con Meta AI, y 185 millones la utilizan en los productos de Meta cada semana.