Foundation Model指的是一种已经经过训练并能够处理某种任务(比如文本分类、图像识别等)的模型,通常它的参数是通过大规模数据集进行无监督或有监督的学习而得到的。例如,在自然语言处理领域,BERT (Bidirectional Encoder Representations from Transformers) 就是一个被广泛使用的基础模型,其通过对海量文本进行预训练,得到了一个强大的语言表示能力。

<aside> 💡 AGI 与 AGI Foundation Model的关系就像是C++与C++标准库。

</aside>

而Fine-tuning则是在基础模型的基础上,通过少量的标注数据对模型进行微调,以适应不同的任务。通常情况下,Fine-tuning都包含以下几个步骤:

  1. 选择一个合适的基础模型;
  2. 根据需要的任务添加新的层或修改已有的层;
  3. 使用少量的标注数据对整个模型进行训练。

<aside> 💡 foundation model就是一个刚结束义务教育(高中)的小孩。 fine tune就是让这个小孩再去上大学。

</aside>

天下AGI皆出Foundation

存在性 与 唯一性