Mola, pero… ¿quién tiene capacidad de entrenar un PaLM de 540 billions (x3 el tamaño de GPT-3)? Aquí están compartiendo el código de la arquitectura y no un modelo pre-entrenado. Con lo que es un entrénalo-tú-mismo de ChatGPT.
PaLM 540B Architecture Code Released Open Source
By
–
Leave a Reply