8月23日,OpenAI在官网宣布,推出GPT-3.5 Turbo微调功能并更新API,使企业、开发人员可以使用自己的数据,结合业务用例构建专属ChatGPT。据悉,GPT-4的微调功能将于今年秋天推出。OpenAI表示,从早期测试数据来看,GPT-3.5 Turbo的微调版本在某些特定任务上,其性能可以匹配甚至超越GPT-4 的基本功能。
大语言模型的微调是一种在预训练模型的基础上,对特定任务进行深度训练的方法。
微调的基本思想是,先在大规模文本数据上预训练一个大型的语言模型,例如,GPT-3.5,然后,使用特定任务的数据集(如法律、医疗),进一步对模型进行训练,以适应特定的任务。在这个过程中,模型的参数会进行微小的调整,使其在特定业务场景上的性能更好。
例如,如果我们有一个预训练的GPT3.5模型,想让它在法律业务上的表现更好、更专业,可以用海量法律数据集对模型进行微调。经过微调,模型学习到如何更好地解读、生成和预测法律问题。
根据OpenAI的官方微调说明文档,列出了以下常见用例:
- 设置风格、基调、格式等;
- 提高输出的可靠性;
- 纠正未能遵循复杂提示的问题;
- 以特定方式处理多个边缘内容;
- 改进可操纵性;
- 执行难以在提示中阐明的新技能或任务。
例如,改进可操纵性,微调功能允许企业使模型更好地遵循指令,使输出简洁或始终以特定语言进行响应。例如,开发人员可以使用微调来确保模型,在提示使用德语时始终以德语进行响应。除了提高性能之外,微调使企业能够缩短提示时间同时保证性能。GPT-3.5-Turbo微调还可以处理4k tokens,是OpenAI之前微调模型的两倍。
早期测试人员通过对模型本身的指令进行微调,将提示大小减少了高达 90%,从而加快了每个API调用的速度并降低了成本。
AI俱乐部,致力于打造最专业的AI交流社群。
星球将分享:
1、ChatGPT的使用方法,最新资讯,商业价。
2、邀请顶尖行业大佬,每周给大家发现一个商业落地案例。
3、组织星球小伙伴一起参与实战项目,亲身感受AI浪潮。
4、系列课程和训练营,手把手带着大家去实操ChatGPT。
5、一些副业思考、创业案例、落地案例分享。
6、最早期、专业的AI交流社群。探讨未来关于ChatGPT的机遇,帮助大家解决遇到的问题。
如果有小伙伴感兴趣的话,可以一起加入星球哦!