OpenaAI presenta GPT-4o, su modelo más reciente desarrollado. A diferencia de los modelos anteriores GPT-4o tiene asistencia por voz lo cual, entre otras opciones que ofrece lo convierte en una herramienta multimodal. Es capaz de admitir entradas de texto, analizar imágenes, los usuarios pueden subir una fotografía y pedirle a la IA que aporte detalles sobre ella o describir una imagen que se está tomando en tiempo real. Además, en esta nueva versión, los usuarios podrán añadir ficheros como pdf o documentos de texto.
Según OpenAI, es capaz de aprobar un examen simulado de abogacía con un puntaje un 10% por encima de la media. También han mejorado otras posibilidades de educación como aprender idiomas o a programar con este asistente.
Sus posibilidades han mejorado porque es más compleja; GPT-3 tiene 12 capas y 175.000 millones de parámetros mientras que GPT-4 puede tener 100 billones de parámetros.
Por otra parte, es capaz de entender más de 50 idiomas y actuar como traductor simultáneo de manera hablada o escrita, y también emplea su tecnología de procesamiento de imágenes para decir cómo se llaman en otro idioma los objetos que le muestran los usuarios a través de la cámara de su dispositivo.
No es la única característica relacionada con la imagen. Por ejemplo, con la función ‘Be my eyes’ describe en tiempo real cualquier imagen (fija o en movimiento) que aparezca frente a la cámara –algo especialmente pensado para las personas con discapacidad visual– y puede asistir a reuniones virtuales y posteriormente resumir la información más importante.
Educación 3.0 (21/05/2024)
Más información aquí
RTVE (21/05/2024)
Más información aquí