首页 > 科技 > 智能 OpenAI 新动态:改善微调 API,扩展定制模型计划

OpenAI 新动态:改善微调 API,扩展定制模型计划

感谢IT之家网友 Hi_World 的线索投递! IT之家 4 月 5 日消息,OpenAI 公司近日发布新闻稿,宣布改善微调(fine-tuning)API,并进一步扩展定制模型计划。IT之家翻译新闻稿中关于微调 API 的相关改进内容如下基于 Epoch 的 Checkpoint Creation在每次训练 epoch(将训练数据集中的所有样本都过一遍(且仅过一遍)的训练…

感谢IT之家网友 Hi_World 的线索投递!

IT之家 4 月 5 日消息,OpenAI 公司近日发布新闻稿,宣布改善微调(fine-tuning)API,并进一步扩展定制模型计划。

IT之家翻译新闻稿中关于微调 API 的相关改进内容如下

基于 Epoch 的 Checkpoint Creation

在每次训练 epoch(将训练数据集中的所有样本都过一遍(且仅过一遍)的训练过程)过程中,都自动生成一个完整的微调模型检查点,便于减少后续重新训练的需要,尤其是在过拟合(overfitting,指过于紧密或精确地匹配特定数据集,以至于无法良好地拟合其他数据或预测未来的观察结果的现象)的情况下。

Comparative Playground

用于比较模型质量和性能的全新并排游乐场用户界面,允许对多个模型的输出进行人工评估,或根据单个提示词微调 snapshots。

第三方集成:

支持与第三方平台的集成(本周开始与 Weights and Biases 集成),让开发人员能够将详细的微调数据共享给堆栈的其他部分。

更全面的验证指标:

能够计算整个验证数据集(而不是抽样批次)的损失和准确性等指标,从而更好地了解模型质量。

Hyperparameter 配置

从仪表板配置可用超参数的功能(而非仅通过应用程序接口或 SDK)

改善微调控制面板

可以配置超参数、查看更详细的训练指标以及从以前的配置重新运行作业的功能。

扩展定制模型计划

OpenAI 为进一步扩展定制模型计划,还推出了辅助微调服务。开发者可以寻求 OpenAI 专业团队成员的帮助,针对特定领域训练和优化模型,附加 Hyperparameter 和各种参数高效微调 (PEFT) 方法。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

投诉水文 我要纠错
本文来自网络,不代表头条在线-头条新闻网立场。
上一篇目标 10 年培养 9500 万 AI 人才,思科牵头微软等 8 家公司组建新联盟
下一篇 返回列表
头条新闻网

来源: IT之家

本文来源于IT之家。包含文章,图片,视频等资源归属于原作者所有。如有侵权请联系gridf@126.com处理。紧急处理联系电话:15144810328

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部