OpenAI y Meta presentan sus nuevos modelos de IA: qué novedades incorporan GPT-4 Turbo y Llama 3
OpenAI y Meta son dos grandes empresas tecnológicas que quieren ampliar sus herramientas de inteligencia artificial (IA) para ofrecer las mejores funciones a los usuarios y, por ello, oficializan sus próximos modelos de IA y las novedades qué traerán cada uno de ellos.
En primer lugar, Meta anuncia el lanzamiento de su próximo modelo de lenguaje de código abierto basado en inteligencia artificial Llama 3, que llegará el próximo mes y que impulsará diferentes asistentes de IA generativa en todo el ecosistema de la compañía. Y, en segundo lugar, OpenAI lanza su modelo mejorado GPT-4 Turbo con Vision, que ya está disponible para los desarrolladores a través de la interfaz de programación de aplicaciones (API, por sus siglas en inglés) y que permite analizar imágenes y responder preguntas sobre ellas.
El modelo Llama 3 de Meta se lanzará en mayo
Dentro del marco del evento Meta AI Day, la compañía liderada por Mark Zuckeberg quiere implementar un conjunto de modelos básicos de nueva generación que constará de diferentes capacidades y versiones, teniendo en cuenta que se irán lanzando a lo largo de este año.
Por otro lado, con Llama 3, Meta espera abordar las limitaciones del modelo anterior, a la vez que irá introduciendo nuevas funcionalidades. Además, este modelo superará los 140.000 millones de parámetros, por lo tanto, mejorará sus capacidades de razonamiento para proporcionar respuestas más precisas.
GPT-4 Turbo de OpenAI ya está disponible
El modelo de IA GPT-4 Turbo incluye una ventana de contexto mejorada, pasando de los 32K de GPT-4 a 128k, lo equivalente a más de 300 páginas de texto en un solo mensaje. Asimismo, en la red social X (antes Twitter), OpenAI anuncia que GPT-4 Turbo ya está disponible para los desarrolladores a través de la API con las capacidades de Vision.
Concretamente, GPT-4 Turbo con Vision es un modelo multimodal grande (LMM, por sus siglas en inglés) que puede analizar imágenes, responder a preguntas generales sobre lo que está presente en las fotografías, ofrecer ideas e incluso comprender qué elementos aparecen en la foto para ofrecer información sobre ello.
Asimismo, los desarrolladores pueden disponer de un flujo de trabajo mejorado, así como crear aplicaciones con el modelo de forma más eficiente.
News Related-
¿Los gatos pueden reconocerse en el espejo?
-
Cinco cosas que nunca se deberían guardar en el armario
-
¿Karma? Piqué tendría una relación secreta con joven chef, según medio internacional
-
¿Quién es la nueva directora de Educación Policial?
-
Scaloni tendría fecha para irse de Argentina: Real Madrid va al ataque
-
Gaviria no cuenta con la legitimidad para definir si somos oposición: Representante Losada
-
Policía capturó a hombre que asesinó a colombiana y a su hija de 14 años en EE. UU.
-
¿Como pasó? Niña muere por bacteria en piscina
-
Baba Vanga, la que profetizó la caída de las Torres Gemelas y la covid-19, asegura que en 2024 Europa sufrirá ataques terroristas y biológicos
-
Francy, famosa cantante de música popular, fue víctima de dos robos el mismo día en Pereira: “Me dio mucha rabia”
-
Ganó un Oscar sin aprenderse el guion: la imagen de ‘El padrino’ que muestra la “trampa” que usaba Marlon Brando para decir sus frases
-
Cerrejón abre convocatoria laboral para diferentes vacantes; estos son los requisitos
-
¡Señor golazo de ‘Juanfer’! Vea el doblete del colombiano con Racing
-
El ‘cantante del gol’ destraba el lío con Eduardo Luis; sacó contundente mensaje