{"id":354002,"date":"2025-04-30T11:43:34","date_gmt":"2025-04-30T09:43:34","guid":{"rendered":"https:\/\/sftarticles.wpenginepowered.com\/es\/?p=354002"},"modified":"2025-04-30T12:21:58","modified_gmt":"2025-04-30T10:21:58","slug":"meta-lanza-una-aplicacion-con-tecnologia-ia-para-la-integracion-en-sus-gafas-inteligentes","status":"publish","type":"post","link":"https:\/\/cms-articles.softonic.io\/es\/meta-lanza-una-aplicacion-con-tecnologia-ia-para-la-integracion-en-sus-gafas-inteligentes\/","title":{"rendered":"Meta lanza una aplicaci\u00f3n con tecnolog\u00eda IA para la integraci\u00f3n en  sus gafas inteligentes"},"content":{"rendered":"\n<p>Meta ha lanzado una nueva aplicaci\u00f3n independiente impulsada<a href=\"https:\/\/en.softonic.com\/articles\/meta-llama-4-vs-chatgpt-is-there-a-winner\" target=\"_blank\" rel=\"noopener\" title=\" por su modelo de IA Llama 4\"> por su modelo de IA Llama 4<\/a>, que sustituye a la anterior Meta View y se integra afablemente con las gafas inteligentes Ray-Ban Meta.<\/p>\n\n\n\n<p><strong>La compa\u00f1\u00eda busca posicionarse en el \u00e1mbito de la inteligencia artificial<\/strong>, promoviendo las interacciones de voz como la forma m\u00e1s intuitiva para comunicarse con la IA, incluyendo caracter\u00edsticas como chat manos libres y un avanzado sistema de discurso de d\u00faplex completo que permite hablar y escuchar simult\u00e1neamente.<\/p>\n\n\n\n<p>La nueva app permite a los usuarios iniciar conversaciones en sus gafas inteligentes y continuar f\u00e1cilmente en sus dispositivos m\u00f3viles o de escritorio.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-rich is-provider-twitter wp-block-embed-twitter\"><div class=\"wp-block-embed__wrapper\">\n<blockquote class=\"twitter-tweet\" data-width=\"550\" data-dnt=\"true\"><p lang=\"en\" dir=\"ltr\">Here\u2019s a sneak peek at Meta\u2019s new small form glasses, called Orion. They\u2019re fully standalone and feature eye, hand, and even neural tracking. Can\u2019t wait to try these! <a href=\"https:\/\/t.co\/gIN2NOllMW\">pic.twitter.com\/gIN2NOllMW<\/a><\/p>&mdash; Nathie (@NathieVR) <a href=\"https:\/\/twitter.com\/NathieVR\/status\/1839001358940385780?ref_src=twsrc%5Etfw\">September 25, 2024<\/a><\/blockquote><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script>\n<\/div><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Disfrute de conversaciones fluidas con la tecnolog\u00eda de IA basada en voz de Meta<\/h2>\n\n\n\n<p>Gracias a la sincronizaci\u00f3n de ajustes y datos, las interacciones se vuelven fluidas, facilitando el seguimiento de un hilo conversacional sin inconvenientes. <strong>Por ejemplo, un usuario puede preguntar a la IA sobre una librer\u00eda cercana mientras camina <\/strong>y revisar la respuesta posteriormente en su tel\u00e9fono o en el escritorio.<\/p>\n\n\n\n<p>Un elemento destacado de la app es el feed de descubrimiento, donde los usuarios pueden explorar ideas de prompts y ver im\u00e1genes generadas p\u00fablicamente que pueden ser remezcladas para sus propios proyectos.<\/p>\n\n\n\n<p>Adem\u00e1s, la versi\u00f3n de escritorio de Meta AI se renueva con una nueva interfaz, opciones ampliadas de generaci\u00f3n de im\u00e1genes y un editor de documentos experimental, permitiendo la creaci\u00f3n y edici\u00f3n de textos con incorporaci\u00f3n de visuales.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-rich is-provider-twitter wp-block-embed-twitter\"><div class=\"wp-block-embed__wrapper\">\n<blockquote class=\"twitter-tweet\" data-width=\"550\" data-dnt=\"true\"><p lang=\"en\" dir=\"ltr\">Today is the start of a new era of natively multimodal AI innovation.<br><br>Today, we\u2019re introducing the first Llama 4 models: Llama 4 Scout and Llama 4 Maverick \u2014  our most advanced models yet and the best in their class for multimodality.<br><br>Llama 4 Scout<br>\u2022\u00a017B-active-parameter model\u2026 <a href=\"https:\/\/t.co\/Z8P3h0MA1P\">pic.twitter.com\/Z8P3h0MA1P<\/a><\/p>&mdash; AI at Meta (@AIatMeta) <a href=\"https:\/\/twitter.com\/AIatMeta\/status\/1908598456144531660?ref_src=twsrc%5Etfw\">April 5, 2025<\/a><\/blockquote><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script>\n<\/div><\/figure>\n\n\n\n<p>Meta ha logrado integrar su IA con otras aplicaciones como Instagram y Facebook,<strong> permitiendo que Meta AI adapte sus respuestas bas\u00e1ndose en la actividad del usuario en estas plataformas. <\/strong>Esto potencia la personalizaci\u00f3n, sugiriendo destinos de restaurantes o itinerarios de viaje en funci\u00f3n de las interacciones previas del usuario.<\/p>\n\n\n\n<p>Sin embargo, algunos cr\u00edticos pueden cuestionar el uso intensivo de datos personales, un enfoque que Meta pretende equilibrar al enfatizar la conexi\u00f3n personal en la experiencia del usuario.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Meta ha lanzado una nueva aplicaci\u00f3n independiente impulsada por su modelo de IA Llama 4, que sustituye a la anterior Meta View y se integra afablemente con las gafas inteligentes Ray-Ban Meta. La compa\u00f1\u00eda busca posicionarse en el \u00e1mbito de la inteligencia artificial, promoviendo las interacciones de voz como la forma m\u00e1s intuitiva para comunicarse &hellip; <a href=\"https:\/\/cms-articles.softonic.io\/es\/meta-lanza-una-aplicacion-con-tecnologia-ia-para-la-integracion-en-sus-gafas-inteligentes\/\" class=\"more-link\">Continue reading<span class=\"screen-reader-text\"> &#8220;Meta lanza una aplicaci\u00f3n con tecnolog\u00eda IA para la integraci\u00f3n en  sus gafas inteligentes&#8221;<\/span><\/a><\/p>\n","protected":false},"author":9317,"featured_media":354004,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":"","wpcf-pageviews":0},"categories":[9317],"tags":[10579],"usertag":[],"vertical":[],"content-category":[],"class_list":["post-354002","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news","tag-meta"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/posts\/354002","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/users\/9317"}],"replies":[{"embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/comments?post=354002"}],"version-history":[{"count":0,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/posts\/354002\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/media\/354004"}],"wp:attachment":[{"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/media?parent=354002"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/categories?post=354002"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/tags?post=354002"},{"taxonomy":"usertag","embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/usertag?post=354002"},{"taxonomy":"vertical","embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/vertical?post=354002"},{"taxonomy":"content-category","embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/content-category?post=354002"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}