最近美国开放人工智能研究中心OpenAI宣布推出GPT-4o新功能,用户可以在GPT-4O上使用数据微调功能,对所有付费使用级别开发人员开放。
OpenAI宣布从现在开始到9月23日,每天免费提供100万token微调额度,推理成本每100万token输入3.75美元,每100万token输出15美元。
数据微调
通常大模型是在超大规模数据上进行预训练的,以学习通用的语言知识和输出模式。由于数据过于杂乱,模型可能在金融、法律、医疗等业务中的表现并不理想,因为没有针对特定领域进行专门优化。数据微调就可以将与特定任务或领域相关的新数据融合到模型中,并使用这些数据来调整模型的参数,使模型能够更好地理解和处理这些特定的数据。
在微调过程中,将收集到的特定任务数据输入到预训练模型中,然后通过反向传播、梯度下降、监督学习等技术,调整模型的参数使其在特定任务上的表现优化,模型会逐步学会识别和处理特定任务的数据模式。
GPT-4o模型只能生成一般性的宽泛文本,但如果想要将其应用于情感分析领域,以判断文本的情感倾向是积极、消极还是中性。我们就可以收集大量带有情感标注的文本数据,并使用这些数据对模型进行微调。在微调过程中,模型可以更好地学习如何根据文本中的词汇、语法和语义信息来判断情感倾向。
微调案例
1、Genie
Genie就是基于Genie自有数据在GPT-4o上微调而成的,其性能超过了同类的Devin、Amazon Q、Swe-agent+GPT-4等。Genie能够实现跨复杂平台端到端的进行推理,能够像人类那样来修改和检测代码。在GPT-4o的帮助下,Genie在OpenAI新发布的SWE-bench Verified基准测试中实现了43.8%SOTA得分。还在SWE-bench Full基准测试中取得了30.08%的得分,也是目前最高的评分。
2、Harvey
Harvey是一家为律师提供类ChatGPT助手的服务商,它也使用了OpenAI的GPT-4进行了数据微调。在微调的过程中,他们使用了10亿token的数据,并对模型训练过程的每一步都进行了修改。最终,该AI助手的回答准确率提升了83%,使得律师们更喜欢这种微调的助手。
3、Distyl
Distyl的微调GPT-4o模型在排行榜上实现了71.83%的执行准确率,并在查询重构、意图分类、思维链和自我纠正等任务中表现出色,尤其是在SQL生成方面表现尤为突出。