
OpenAI ha presentado la última versión de la tecnología que sustenta su chatbot de IA Chat-GPT. Se llama GPT-4o, y se pondrá a disposición de todos los usuarios, incluidas las cuentas gratuitas.
Es más rápido que los modelos anteriores y ha sido programado para sonar parlanchín y a veces incluso amable en sus respuestas a las preguntas.
La nueva versión puede leer y discutir imágenes, traducir idiomas e identificar emociones a partir de expresiones visuales. También tiene memoria, por lo que puede recordar instrucciones anteriores.
Se le puede interrumpir y tiene un ritmo de conversación más fácil: no hay retraso entre la pregunta y la respuesta.
Problemas bajo la alfombra
Durante una demostración en directo con la versión de voz de GPT-4o, dio sugerencias útiles sobre cómo resolver una ecuación sencilla escrita en un papel, en lugar de limitarse a resolverla. Analizó un código informático, traduciendo entre italiano e inglés, e interpretó las emociones en un selfie de un hombre sonriente.
Utilizando una cálida voz femenina norteamericana, saludó a sus interlocutores preguntándoles cómo estaban. Cuando le hacían un cumplido, respondía “¡Para, me estás sonrojando!”.
No era perfecto: en un momento dado confundió al hombre sonriente con una superficie de madera, y empezó a resolver una ecuación que aún no se le había mostrado. Esto demostró involuntariamente que aún queda camino por recorrer antes de que se puedan eliminar los fallos y errores que hacen que los chatbots sean poco fiables y potencialmente inseguros.
Pero lo que sí nos muestra es la dirección de la marcha de OpenAI, quienes pretenden que GPT-4o se convierta en la próxima generación de asistentes digitales de IA, una especie de Siri o Hey, Google turboalimentado que recuerde lo que se le ha dicho en el pasado y pueda interactuar más allá de la voz o el texto.
Si había un elefante en la sala, junto al entusiasta público fuera de cámara que gritaba y aplaudía, era el precio medioambiental de esta tecnología.
Sabemos que la IA consume más energía que las tareas informáticas tradicionales, y que cuanto más sofisticada se vuelve, más potencia informática requiere. No hubo ninguna mención a la sostenibilidad durante la velada.
¿Cómo será GPT-4o una vez que esté disponible?
Hemos visto que chatbots como Grok, de Elon Musk, y Pi, del cofundador de DeepMind, dan prioridad a la “personalidad” de sus productos, pero la forma en que GPT-4o manejó a la perfección la combinación de texto, audio e imágenes con una respuesta instantánea parece poner a OpenAI por delante de la competencia.
Por supuesto, de momento sólo tenemos la palabra de la empresa: era su demo, cuidadosamente preparada y gestionada por ellos. Será interesante ver cómo se desenvuelve GPT-4o a escala con los millones de personas que ya utilizan ChatGPT a medida que se despliegue.
La directora de tecnología de OpenAI, Mira Murati, describió el GPT-4o como “mágico”, pero añadió que la empresa “eliminaría ese misticismo” con el lanzamiento del producto.
Una interesante y emotiva elección de palabras: aunque esta tecnología se está volviendo rápidamente más sofisticada y cada vez más convincente como acompañante, no es sensible ni mágica, es programación compleja y aprendizaje automático.
Ha habido rumores sobre una asociación entre OpenAI y Apple y, aunque aún no se ha confirmado, fue revelador durante la presentación que se utilizaran productos de Apple en todo momento.
Otro golpe de efecto fue el momento elegido para este evento, 24 horas antes de que su rival Google muestre sus últimos avances en IA en su conferencia anual, Google IO.

Los comentarios están cerrados.