Hoy fue oficialmente anunciada la versión 4 del modelo GPT de OpenAi, una compañía de investigación de inteligencia artificial. Se espera que esta nueva versión trabaje a partir de imágenes y sonidos, pudiendo también crear videos a partir de textos.
Todo parece indicar que Microsoft está decidido a liderar la carrera de la IA (AI son siglas en inglés de inteligencia artificial), y el pasado mes de febrero anunció la integración de ChatGPT en su motor de búsqueda Bing (muchos de nosotros ya lo tenemos disponible), que permite buscar de una forma completamente nueva e interactuar de una forma que resulta muy natural para nosotros, los humanos.
Modelos de lenguaje GPT
Los modelos de lenguaje GPT (Generative Pre-trained Transformer) son una serie de modelos de aprendizaje profundo desarrollados por OpenAI que han demostrado una impresionante capacidad para generar texto coherente y de calidad. Cada modelo GPT se entrena con grandes cantidades de datos de texto y utiliza una arquitectura de transformer para generar secuencias de texto coherentes y bien estructuradas.
El primer modelo de la serie, GPT-1, fue lanzado en 2018 y fue un gran avance en la generación de texto automatizado. GPT-1 se entrenó con más de 40 GB de texto en inglés y logró resultados impresionantes en tareas como la traducción de idiomas, el resumen de texto y la generación de texto creativo.
El siguiente modelo, GPT-2, fue lanzado en 2019 y fue aún más impresionante en términos de su capacidad para generar texto de alta calidad. GPT-2 se entrenó con más de 1.5 terabytes de texto en inglés y fue capaz de generar texto que era indistinguible del texto humano en muchas tareas.
En 2020, OpenAI lanzó una versión más grande y poderosa del modelo, GPT-3. Con más de 175 mil millones de parámetros, GPT-3 es uno de los modelos de lenguaje más grandes y avanzados jamás creados. GPT-3 ha demostrado habilidades sorprendentes en tareas como la generación de texto creativo, la traducción de idiomas y la respuesta a preguntas complejas.
¿Qué es GPT-4?
GPT-4 es la versión más reciente anunciada hoy. Se estima que tendrá aún más parámetros, aunado a una capacidad mayor para entender y generar lenguaje natural. Según informó el medio Wired, la versión 4 del modelo contará con más de 100 billones de parámetros, eso nos permite ver que tan capaz es con respecto a su predecesor. Trabaja con imágenes y sonidos, y también, podrá crear videos a partir de textos.