OpenAI在其大型语言模型GPT-3.5 Turbo添加微调功能(Fine-Tuning),让使用者能够自定义模型,并且有能力大规模执行这些模型,以满足自家特殊用例的需求。
语言模型微调是指,在一个经预训练的模型上,进一步使用特定资料集进行训练,以适应某一特定任务或是应用的方法。官方提到,经过他们测试显示GPT-3.5 Turbo经过微调之後,在特定任务上的表现,甚至可以超过GPT-4的基础能力。
模型微调可让企业创造出具差异化的应用,提高模型的可操纵性,使模型更好地遵循指令,像是要求模型总是生成特定语言的回覆。在程式码完成(Code Completion)或编写API呼叫时,确保特定的回应格式更是重要,因此开发者也可以使用微调模型,将提示语转换成JSON片段,并应用在自家系统中。模型微调也可以供企业调整想要表现的风格,知名品牌可以根据企业形象调整模型的输出基调。
微调的好处除了使其适应特殊任务之外,还能让使用者的以较短的提示语,获得类似的输出效能,官方提到,早期测试者可以将提示语长度缩短90%,使每次API呼叫更快速,也更节省成本。而且现在微调後的GPT-3.5-Turbo模型,可以处理的Token数达4,000,是之前微调模型的两倍。
官方也公开了微调价格,花费主要分为初始训练成本和使用成本,使用具有10万Token的训练档案微调gpt-3.5-turbo,经过3次完整走访训练,预估成本约为2.4美元。今年稍晚,OpenAI还会推出新功能,允许使用者针对函式呼叫与gpt-3.5-turbo-16k模型微调。
在7月时,OpenAI宣布GPT-3基础模型,包括ada、babbage、curie和davinci都将於2024年1月4日退役,而OpenAI也预告将以替代模型babbage-002、davinci-002,作为基础模型和微调模型,用户可以使用Completions API查询存取这些模型。