{"id":343483,"date":"2024-11-06T13:47:41","date_gmt":"2024-11-06T12:47:41","guid":{"rendered":"https:\/\/sftarticles.wpenginepowered.com\/es\/?p=343483"},"modified":"2024-11-19T07:44:21","modified_gmt":"2024-11-19T06:44:21","slug":"amd-entra-de-lleno-en-la-ia-con-su-primer-llm","status":"publish","type":"post","link":"https:\/\/cms-articles.softonic.io\/es\/amd-entra-de-lleno-en-la-ia-con-su-primer-llm\/","title":{"rendered":"AMD entra de lleno en la IA con su primer LLM"},"content":{"rendered":"\n<p>AMD ha <a href=\"https:\/\/www.amd.com\/en\/developer\/resources\/technical-articles\/introducing-the-first-amd-1b-language-model.html\" target=\"_blank\" rel=\"noopener nofollow\" title=\"\">presentado<\/a> su primera serie de grandes modelos de lenguaje (LLM) de 1.000 millones de par\u00e1metros y c\u00f3digo abierto, denominada <a href=\"https:\/\/huggingface.co\/amd\/AMD-OLMo\" target=\"_blank\" rel=\"noopener nofollow\" title=\"\">AMD OLMo<\/a>, dirigida a diversas aplicaciones y preentrenada en las GPU Instinct MI250 de la compa\u00f1\u00eda.<\/p>\n\n\n<div class=\"sc-card-starred-link\">\r\n  <div class=\"sc-card-starred-link__body\">\r\n    <div class=\"sc-card-starred-link__row clearfix\">\r\n      <div class=\"sc-card-starred-link__col-logo\">\r\n        <img decoding=\"async\" class=\"sc-card-starred-link__img\" src=\"https:\/\/articles-img.sftcdn.net\/sft\/articles\/auto-mapping-folder\/sites\/3\/2024\/09\/newsletter.png\" width=\"100px\" height=\"100px\">\r\n      <\/div>\r\n      <div class=\"sc-card-starred-link__col-title\">\r\n        <p class=\"sc-card-starred-link__title\">Suscr\u00edbete a la Newsletter de Softonic y recibe las \u00faltimas noticias en tech, juegos, entretenimiento en tu buz\u00f3n de correo<\/p>\r\n        <a class=\"sc-card-starred-link__button\" href=\"https:\/\/softonic-es.beehiiv.com\/subscribe\" target=\"_blank\" rel=\"noopener noreferrer sponsored\">Suscr\u00edbete (es GRATIS) \u25ba <\/a>\r\n      <\/div>\r\n    <\/div>\r\n    <a class=\"sc-card-starred-link__link\" href=\"https:\/\/softonic-es.beehiiv.com\/subscribe\" target=\"_blank\" rel=\"noopener noreferrer sponsored\"><\/a>\r\n  <\/div>\r\n<\/div>\n\n\n\n<p><strong>Los LLM de c\u00f3digo abierto de AMD pretenden mejorar la posici\u00f3n de la compa\u00f1\u00eda en la industria de la IA<\/strong> y permitir a sus clientes (y a todo el mundo) implantar estos modelos de c\u00f3digo abierto con el hardware de AMD.<\/p>\n\n\n\n<p>Al hacer p\u00fablicos los datos, los pesos, las recetas de entrenamiento y el c\u00f3digo, <strong>AMD pretende permitir a los desarrolladores no solo reproducir los modelos, sino tambi\u00e9n basarse en ellos para seguir innovando<\/strong>.<\/p>\n\n\n\n<p>M\u00e1s all\u00e1 del uso en centros de datos, AMD ha permitido el despliegue local de modelos OLMo en PCs AMD Ryzen AI equipados con unidades de procesamiento neural (NPUs), permitiendo a los desarrolladores aprovechar los modelos de IA en dispositivos personales.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-rich is-provider-twitter wp-block-embed-twitter\"><div class=\"wp-block-embed__wrapper\">\n<blockquote class=\"twitter-tweet\" data-width=\"550\" data-dnt=\"true\"><p lang=\"en\" dir=\"ltr\">Smol models ftw! <a href=\"https:\/\/twitter.com\/AMD?ref_src=twsrc%5Etfw\">@AMD<\/a> released AMD OLMo 1B &#8211; beats OpenELM, tiny llama on MT Bench, Alpaca Eval &#8211; Apache 2.0 licensed ?<br><br>&gt; Trained with 1.3 trillion (dolma 1.7) tokens on 16 nodes, each with 4 MI250 GPUs<br><br>&gt; Three checkpoints:<br><br>&#8211; AMD OLMo 1B: Pre-trained model<br>&#8211; AMD OLMo 1B SFT:\u2026 <a href=\"https:\/\/t.co\/ae4pLzAKoA\">pic.twitter.com\/ae4pLzAKoA<\/a><\/p>&mdash; Vaibhav (VB) Srivastav (@reach_vb) <a href=\"https:\/\/twitter.com\/reach_vb\/status\/1852764343827648824?ref_src=twsrc%5Etfw\">November 2, 2024<\/a><\/blockquote><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script>\n<\/div><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Todo lo que sabemos sobre el LLM de AMD<\/h2>\n\n\n\n<p>Los modelos AMD OLMo se entrenaron en un amplio conjunto de datos de 1,3 billones de tokens en 16 nodos, cada uno con cuatro GPU AMD Instinct MI250 (64 procesadores en total). La l\u00ednea de modelos OLMo de AMD se entren\u00f3 en tres pasos.<\/p>\n\n\n\n<p>En las propias pruebas de AMD, <strong>los modelos OLMo de AMD mostraron un rendimiento impresionante frente a modelos de c\u00f3digo abierto de tama\u00f1o similar,<\/strong> como TinyLlama-1.1B, MobiLlama-1B y OpenELM-1_1B en <a href=\"https:\/\/www.tomshardware.com\/tag\/benchmark\" target=\"_blank\" rel=\"noopener\" title=\"\">pruebas de referencia est\u00e1ndar<\/a> para capacidades de razonamiento general y comprensi\u00f3n multitarea.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-rich is-provider-twitter wp-block-embed-twitter\"><div class=\"wp-block-embed__wrapper\">\n<blockquote class=\"twitter-tweet\" data-width=\"550\" data-dnt=\"true\"><p lang=\"en\" dir=\"ltr\">Congratulations to <a href=\"https:\/\/twitter.com\/AMD?ref_src=twsrc%5Etfw\">@AMD<\/a> on the launch of AMD OLMo 1B ? \u201cAMD OLMo 1B is based on the model architecture and training set up of fully open source 1 billion version of OLMo.\u201d Check out more details here: <a href=\"https:\/\/t.co\/Uw0cd5Yn5e\">https:\/\/t.co\/Uw0cd5Yn5e<\/a><\/p>&mdash; Ai2 (@allen_ai) <a href=\"https:\/\/twitter.com\/allen_ai\/status\/1853441318917472361?ref_src=twsrc%5Etfw\">November 4, 2024<\/a><\/blockquote><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script>\n<\/div><\/figure>\n\n\n\n<p>El modelo SFT de dos fases experiment\u00f3 mejoras significativas en la precisi\u00f3n, con un aumento del 5,09% en las puntuaciones de MMLU y del 15,32% en GSM8k, lo que demuestra el impacto del enfoque de entrenamiento de AMD.<\/p>\n\n\n\n<p><strong>El modelo final AMD OLMo 1B SFT DPO super\u00f3 a otros modelos de chat de c\u00f3digo abierto<\/strong> en al menos un 2,60% de media en las pruebas comparativas.<\/p>\n\n\n<div class=\"sc-card-program\">\r\n  <div class=\"sc-card-program__body\">\r\n    <div class=\"sc-card-program__row clearfix\">\r\n      <div class=\"sc-card-program__col-logo\">\r\n        <img decoding=\"async\" class=\"sc-card-program__img\" src=\"https:\/\/images.sftcdn.net\/images\/t_app-icon-s\/p\/b330d2b7-464c-4693-b81d-2c97b1edf062\/857405465\/chatgpt-logo\" alt=\"ChatGPT\" width=\"100px\" height=\"100px\">\r\n      <\/div>\r\n      <div class=\"sc-card-program__col-title\">\r\n        <span class=\"sc-card-program__title\">ChatGPT<\/span>\r\n        <a class=\"sc-card-program__button sc-card-program-internal\" href=\"https:\/\/chatgpt.softonic.com\/iphone\" target=\"_self\" rel=\"noopener noreferrer\">DESCARGAR<\/a>\r\n      <\/div>\r\n      <div class=\"sc-card-program__col-rating\">\r\n        <svg class=\"rating-score__content\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" version=\"1.1\" x=\"0\" y=\"0\" viewbox=\"0 0 50 50\" enable-background=\"new 0 0 50 50\" xml:space=\"preserve\"><path class=\"rating-score__background rating-score--good\" fill=\"none\" stroke-width=\"6\" stroke-miterlimit=\"10\" d=\"M40 40c8.3-8.3 8.3-21.7 0-30s-21.7-8.3-30 0 -8.3 21.7 0 30\"><\/path><path class=\"rating-score__value rating-score__value--0\" fill=\"none\" stroke-width=\"6\" stroke-dashoffset=\"0\" stroke-miterlimit=\"10\" d=\"M40 40c8.3-8.3 8.3-21.7 0-30s-21.7-8.3-30 0 -8.3 21.7 0 30\"><\/path><text class=\"rating-score__number\" content=\"\" text-anchor=\"middle\" transform=\"matrix(1 0 0 1 25 31.0837)\" data-auto=\"app-user-score\"><\/text><\/svg>\r\n      <\/div>\r\n    <\/div>\r\n    <div class=\"sc-card-program__row\">\r\n      <span class=\"sc-card-program__description\"><\/span>\r\n    <\/div>\r\n    <div class=\"sc-card-program__row\">\r\n      <img decoding=\"async\" class=\"sc-card-program__bigpic\" src=\"\" onerror=\"this.style.display='none'\">\r\n    <\/div>\r\n    <a class=\"sc-card-program__link track-link sc-card-program-internal\" href=\"https:\/\/chatgpt.softonic.com\/iphone\" target=\"_self\" rel=\"noopener noreferrer\"><\/a>\r\n  <\/div>\r\n<\/div>\n\n\n\n<p>Adem\u00e1s, AMD prob\u00f3 pruebas de IA responsables, como ToxiGen (que mide el lenguaje t\u00f3xico, donde una puntuaci\u00f3n m\u00e1s baja es mejor), crows_pairs (que eval\u00faa la parcialidad) y TruthfulQA-mc2 (que eval\u00faa la veracidad en las respuestas). <strong>Y se comprob\u00f3 que los modelos OLMo de AMD estaban a la par con modelos similares en el manejo de tareas de IA \u00e9ticas y responsables.<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>AMD ha presentado su primera serie de grandes modelos de lenguaje (LLM) de 1.000 millones de par\u00e1metros y c\u00f3digo abierto, denominada AMD OLMo, dirigida a diversas aplicaciones y preentrenada en las GPU Instinct MI250 de la compa\u00f1\u00eda. Los LLM de c\u00f3digo abierto de AMD pretenden mejorar la posici\u00f3n de la compa\u00f1\u00eda en la industria de &hellip; <a href=\"https:\/\/cms-articles.softonic.io\/es\/amd-entra-de-lleno-en-la-ia-con-su-primer-llm\/\" class=\"more-link\">Continue reading<span class=\"screen-reader-text\"> &#8220;AMD entra de lleno en la IA con su primer LLM&#8221;<\/span><\/a><\/p>\n","protected":false},"author":9265,"featured_media":343028,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":"","wpcf-pageviews":5},"categories":[9317],"tags":[10611],"usertag":[],"vertical":[],"content-category":[],"class_list":["post-343483","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news","tag-inteligencia-artificial"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/posts\/343483","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/users\/9265"}],"replies":[{"embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/comments?post=343483"}],"version-history":[{"count":0,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/posts\/343483\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/media\/343028"}],"wp:attachment":[{"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/media?parent=343483"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/categories?post=343483"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/tags?post=343483"},{"taxonomy":"usertag","embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/usertag?post=343483"},{"taxonomy":"vertical","embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/vertical?post=343483"},{"taxonomy":"content-category","embeddable":true,"href":"https:\/\/cms-articles.softonic.io\/es\/wp-json\/wp\/v2\/content-category?post=343483"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}