Si algo impresionó de GPT-3 fue cómo OpenAI logró escalar el tamaño de su modelo frente a sus predecesores. Respecto a GPT-2, la nueva versión aumentó su número de parámetros en >100 veces, hasta los 175 mil millones de parámetros. ¿Cuánto podría escalar GPT-4? ¿Qué pensáis?
GPT-4 scaling potential beyond GPT-3’s 175 billion parameters
By
–
Leave a Reply