技術 2026年2月4日 Sequential AttentionでAIを軽く速く正確に Google Researchが紹介したSequential Attentionは、モデルを軽量化しつつ高速化と高精度を目指す新手法です。公式の追加情報を追うことで実装や応用の可能性が広がります。 Google 注意機構 軽量化 エッジデバイス 続きを読む