Tagged

Prefix-Tuning

Apr 20, 2024 Standalone 9 min read

Prefix-Tuning:为生成任务优化连续提示

Prefix-Tuning 冻结整个语言模型,只学习一组注入到注意力层的连续向量来引导生成。本文从注意力公式、重参数化、KV cache 机制到 GPT-2 上的实验,把这套方法和 Adapter、Prompt Tuning、LoRA 的边界讲清楚。