AI Dynamics

Global AI News Aggregator

TinySwallow-1.5B: Knowledge Distillation for Japanese Language Models

この度、新手法「TAID」を用いて学習された小規模日本語言語モデル「TinySwallow-1.5B」を公開しました。 https://
sakana.ai/taid-jp 私たちは、大規模言語モデル(LLM)の知識を効率的に小規模モデルへ転移させる新しい知識蒸留手法「TAID (Temporally Adaptive Interpolated

→ View original post on X — @sakanaailabs,

Commentaires

Leave a Reply

Your email address will not be published. Required fields are marked *