即刻成为鸿蒙应用开发者,解锁职业发展新机遇!点击了解~ 了解详情
写点什么

OpenAI 模型家族更新:GPT-4 训练数据至 2023 年 12 月

  • 2024-02-20
    北京
  • 本文字数:2086 字

    阅读完需:约 7 分钟

大小:1013.39K时长:05:45
OpenAI模型家族更新:GPT-4训练数据至2023年12月

近日,OpenAI 宣布 GPT-3.5-turbo、GPT-4 以及 GPT-4-turbo-preview 等均指向最新模型版本。用户可以发送请求并查看响应对象来验证自己正在使用哪种模型。响应结果中包含所使用的特定模型版本(例如 GPT-3.5-turbo-0613)。

 

OpenAI 还提供静态模型版本,开发人员可以在模型更新发布后的三个月内继续使用原有模型。随着模型更新的加快,OpenAI 还开放了评估贡献通道,由用户针对不同用例协同进行模型改进。

 

感兴趣的朋友请参阅 OpenAI Evals repo:

https://github.com/openai/evals

 

关于弃用模型的更多详细信息,请参阅 OpenAI 官网上的弃用页面:

https://platform.openai.com/docs/deprecations

 

GPT-4 与 GPT-4 Turbo

 

GPT-4 是一套大型多模态模型(可接收文本或图像输入,并输出文本结果),目前通过 OpenAI API 向付费客户开放。

 

与 GPT-3.5-turbo 一样,GPT-4 针对聊天进行了优化,因此可通过聊天完成以往必须借助 Chat Completions API 才能处理的任务。OpenAI 在文本生成指南中专门介绍了如何使用 GPT-4:

https://platform.openai.com/docs/guides/text-generation

 

模型

说明

上下文窗口

训练数据

GPT-4-0125-preview

新模型

更新的GPT-4 Turbo

这套最新GPT-4模型旨在减少模型在任务中途停运的“偷懒”问题,最多可返回4096个输出tokens。了解更多(https://openai.com/blog/new-embedding-models-and-api-updates)。

128,000 tokens

截至2023年12月

GPT-4-turbo-preview

目前指向GPT-4-0125-preview。

128,000 tokens

截至2023年12月

GPT-4-1106-preview

GPT-4 Turbo模型在指令跟踪、JSON模式、可重现输出、并行函数调用等方面做出改进,最多可返回4096个输出tokens。此模型仍处于预览阶段。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

128,000 tokens

截至2023年4月

GPT-4-vision-preview

除了GPT-4 Turbo所具备的各项功能之外,这套GPT-4模型还具备理解图像内容的能力。目前指向GPT-4-1106-vision-preview。

128,000 tokens

截至2023年4月

GPT-4-1106-vision-preview

除了GPT-4 Turbo所具备的各项功能之外,这套GPT-4模型还具备理解图像内容的能力。最多可返回4096个输出tokens。此模型仍处于预览阶段。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

128,000 tokens

截至2023年4月

GPT-4

当前指向GPT-4-0613。具体参阅模型持续升级(https://platform.openai.com/docs/models/continuous-model-upgrades)。

8,192 tokens

截至2021年9月

GPT-4-0613

2023年6月13日的GPT-4快照,改进了函数调用支持。

8,192 tokens

截至2021年9月

GPT-4-32k

目前指向GPT-4-32k-0613。具体参阅模型持续升级(https://platform.openai.com/docs/models/continuous-model-upgrades)。此模型从未对外开放,取而代之的是GPT-4 Turbo。

32,768 tokens

截至2021年9月

GPT-4-32k-0613

2023年6月13日的GPT-4-32k快照,改进了函数调用支持。此模型从未对外开放,取而代之的是GPT-4 Turbo。

32,768 tokens

截至2021年9月

对于大部分基本任务,GPT-4 和 GPT-3.5 模型间的差异并不明显。但在需要较复杂推理能力的情况下,GPT-4 则拥有超越 OpenAI 此前各类模型的表现。

 

GPT-3.5 Turbo

 

GPT-3.5 Turbo 模型能够理解并生成自然语言或者代码,针对 Chat Completions API 进行了聊天优化,但也同样适用于非聊天任务。

模型

说明

上下文窗口

训练数据

GPT-3.5-turbo-0125

新模型

更新的GPT 3.5 Turbo

最新的GPT-3.5 Turbo模型在响应请求时拥有更高的准确度,同时修复了可能在非英文语言函数调用中导致文本编码问题的bug。最多可返回4096个输出tokens。了解更多(https://openai.com/blog/new-embedding-models-and-api-updates#:~:text=Other%20new%20models%20and%20lower%20pricing)。

 

16,385 tokens

截至2021年9月

GPT-3.5-turbo

目前指向GPT-3.5-turbo-0613。这套GPT-3.5-turbo模型已经于2月16日由GPT-3.5-turbo-0613升级至GPT-3.5-turbo-0125。

4,096 tokens

截至2021年9月

GPT-3.5-turbo-1106

GPT-3.5 Turbo模型,在指令跟踪、JSON模式、可重现输出、并行函数调用等方面做出改进。最多可返回4096个输出tokens。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

16,385 tokens

截至2021年9月

GPT-3.5-turbo-instruct

与GPT-3时代的其他模型功能类似,与旧版Completions端点兼容,但不兼容Chat Completions。

4,096 tokens

截至2021年9月

GPT-3.5-turbo-16k

旧模型

 目前指向 GPT-3.5-turbo-16k-0613。

16,385 tokens

截至2021年9月

GPT-3.5-turbo-0613

旧模型

 2023年6月13日的GPT-3.5-turbo快照,将于2024年6月13日弃用。

4,096 tokens

截至2021年9月

GPT-3.5-turbo-16k-0613

旧模型

2023年6月13日的GPT-3.5-16k-turbo快照,将于2024年6月13日弃用。

16,385 tokens

截至2021年9月

 

DALL·E

 

DALL-E 是一套 AI 系统,能够根据自然语言的描述创建出逼真的图像与艺术效果。DALL-E 3 目前支持根据提示词生成拥有特定尺寸的新图像。DALL-E 2 还支持对现有图像进行编辑、或为用户上传的图像生成变体等功能。

 

DALL-E 3 可通过 OpenAI 的 Images API 同 DALL-E 2 配合使用。用户可通过 ChatGPT Plus 服务体验 DALL-E 3。

 

模型

说明

dall-e-3

新模型

 DALL·E 3

2023年11月发布的最新DALL-E模型。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

dall-e-2

2022年11月发布的上代DALL-E模型。作为DALL-E的第二个迭代版本,拥有比初代模型更真实、更准确及4倍分辨率的图像生成能力。

 

TTS

 

TTS 是一种 AI 模型,能够将文本转换为听感自然顺畅的语音。OpenAI 提供两种不同模型变量,其中 tts-1 针对实时文本到语音用例进行了优化,tts-1-hd 则针对输出质量进行了优化。这些模型均可通过 Audio API 中的 Speech 端点配合使用。

模型

说明

tts-1

新模型

 Text-to-speech 1

最新文本转语音模型,针对速度进行了优化。

tts-1-hd

新模型

 Text-to-speech 1 HD

最新文本转语音模型,针对速度进行了优化。

 

Whisper

 

Whisper 是一种通用语音识别模型,在包含多种音频的大型数据集上训练而成。它也是一套多任务模型,能够执行多语种语音识别、语音翻译与理解等任务。Whisper v2-large 模型目前可通过 API 调用,模型名称为 Whisper-1。

 

目前,Whisper 的开源版本与 OpenAI 通过 API 提供的版本完全一致。但 API 版本的推理过程经过优化,因此 Whisper 在 API 上的运行速度要比其他方式快得多。

 

关于 Whisper 的更多技术细节,请参阅此论文:

https://arxiv.org/abs/2212.04356

 

Embeddings

 

Embeddings 是指文本的数字表示,可用于衡量两段文本之间的相关性。Embeddings 即嵌入,往往在搜索、聚类、推荐、异常检测和分类任务中拥有良好表现。

 

感兴趣的朋友可以在 OpenAI 的公告博文中了解关于最新嵌入模型的更多信息:

https://openai.com/blog/new-embedding-models-and-api-updates

模型

说明

输出大小

text-embedding-3-large

新模型

 Embedding V3 large

适用于英语和非英语任务的最强嵌入模型。

3,072

text-embedding-3-small

新模型

 Embedding V3 small

拥有超越二代ada嵌入模型的更强性能。

1,536

text-embedding-ada-002

最强大的二代嵌入模型,全面取代了16种初代模型。

1,536

 

Moderation

 

Moderation 审核模型负责检查内容是否符合 OpenAI 的使用政策。这些模型提供分类功能,用于查找以下类别的内容:仇恨、仇恨/威胁、自残、性、性/未成年人、暴力及暴力/图像。

 

更多具体信息请参阅 OpenAI 审核指南:

https://platform.openai.com/docs/guides/moderation/overview

 

审核模型可接受任意大小的输入,将输入自动拆分成 4096 个 tokens 的块。如果总输入超过 32768 个 tokens,则使用截断技术处理。在极少数情况下,此类模型可能会在审核检查中忽略少量 tokens。

 

每条指向审核端点的请求仅显示各类别的最大值。例如,如果一个 4k tokens 块的分类得分为 0.9901,而另一个块的得分为 0.1901,则 API 响应结果将仅显示明显更高的 0.9901。

模型

说明

最大TOKENS

text-moderation-latest

目前指向text-moderation-007。

32,768

text-moderation-stable

目前指向text-moderation-007。

32,768

text-moderation-007

在所有分类任务中最强大的审核模型。

32,768

 

GPT base

 

GPT base 模型能够理解并生成自然语言或者代码,但并未接受指令遵循方面的训练。这些模型旨在替代 OpenAI 之前的 GPT-3 base 基础模型,且使用旧版 Completions API。OpenAI 推荐大多数用户直接使用 GPT-3.5 或者 GPT-4。

模型

说明

最大TOKENS

训练数据

babbage-002

替代ada与babbage基础模型。

16,384 tokens

截至2021年9月

davinci-002

替代GPT-3 curie与davinci基础模型。

16,384 tokens

截至2021年9月

 

使用政策

 

在用户数据处理上,OpenAI 强调用户数据始终归用户所有。

 

自 2023 年 3 月 1 日起,发送至 OpenAI API 的数据将不会被用于训练或改进 OpenAI 模型(除非用户明确表示同意 )。但若选择参与改进,那么模型可能随时间推移更加契合的用例。

 

为了帮助识别滥用行为,API 数据最多可保留 30 天,之后将被删除(除非法律另行要求)。对于用例较为敏感的可信客户,OpenAI 亦提供零数据保留选项。在零数据保留情况下,请求与响应主体不会被持久保存在任何日志记录当中,而仅放置在内存内以支持服务需求。请注意,此数据政策不适用于 OpenAI 提供的非 API 消费级服务,例如 ChatGPT 或 DALl-E Labs。

 

端点默认使用政策

 

端点

数据是否被用于训练

默认保留周期

是否符合零保留条件

/v1/chat/completions*

30天

是,但图像输入除外*

/v1/files

直至客户主动删除

/v1/assistants

直至客户主动删除

/v1/threads

60天

/v1/threads/messages

60天

/v1/threads/runs

60天*

/v1/threads/runs/steps

60天*

/v1/images/generations

30天

/v1/images/edits

30天

/v1/images/variations

30天

/v1/embeddings

30天

/v1/audio/transcriptions

零数据保留

-

/v1/audio/translations

零数据保留

-

/v1/audio/speech

30天

/v1/fine_tuning/jobs

直至客户主动删除

/v1/moderations

零数据保留

-

/v1/completions

30天

* 通过 GPT-4-vison-preview 模型输入的图像不符合零保留条件。

* 对于 Assistants API,OpenAI 仍在 beta 期间评估默认保留周期。预计 beta 结束后将确定沿用默认的保留周期。

 

关于更多详细信息,请参阅 OpenAI 的 API 数据使用政策:

https://openai.com/policies/api-data-usage-policies

 

模型端点兼容性

 

端点

最新模型

/v1/assistants

支持除GPT-3.5-turbo-0301之外的所有模型。检索工具需要匹配GPT-4-turbo-preview(及日期更早的模型版本)或者GPT-3.5-turbo-1106(以及后续版本)。

/v1/audio/transcriptions

whisper-1

/v1/audio/translations

whisper-1

/v1/audio/speech

tts-1, tts-1-hd

/v1/chat/completions

GPT-4及日期更早的模型版本,GPT-4-turbo-preview及日期更早的模型版本,GPT-4-vision-preview,GPT-4-32k及日期更早的模型版本,GPT-3.5-turbo及日期更早的模型版本,GPT-3.5-turbo-16k及日期更早的模型版本,GPT-3.5-turbo的各微调版本。

/v1/completions (Legacy)

GPT-3.5-turbo-instruct, babbage-002, davinci-002

/v1/embeddings

text-embedding-3-small, text-embedding-3-large, text-embedding-ada-002

/v1/fine_tuning/jobs

GPT-3.5-turbo, babbage-002, davinci-002

/v1/moderations

text-moderation-stable, text-moderation-latest

/v1/images/generations

dall-e-2, dall-e-3

此列表不包含已被 OpenAI 弃用的各模型版本:

https://platform.openai.com/docs/deprecations

 

相关链接:

https://platform.openai.com/docs/models/GPT-4-and-GPT-4-turbo

 

2024-02-20 16:5612096

评论

发布
暂无评论
发现更多内容

顶级!13位专家力荐Spring5为企业级开发提供一站式方案

996小迁

Java spring 编程 架构 面试

electron实战练习-三个文件实现一个命令行终端

OBKoro1

node.js Electron electron实战 命令行终端 electron学习

最近线上发生的两个坑爹锅

艾小仙

后端

废弃fastjson!大型项目迁移Gson保姆级攻略

Zhendong

Java json Gson Fastjson

Redis 用的很溜,了解过它用的什么协议吗?

古时的风筝

redis RESP Redis 协议

2020DevOps状态报告——变更管理

禅道项目管理

DevOps 运维 开发 趋势 自动化测试

工业传感器:工业互联网的第一道门

工业互联网

新思科技静态应用安全测试解决方案获得Forrester Wave认可

InfoQ_434670063458

新思科技 Forrester Wave 静态应用安全测试

低代码开发平台的技术路线

Sam678678

备战2O2I新年资料

ios 面试

我以为自己够牛逼了,直到看到了Alibaba专家的面试笔记,我学习了三个月,却入职京东,税前36K

Java架构之路

Java 程序员 架构 面试 编程语言

WebRTC ICE 状态与提名处理

阿里云CloudImagine

阿里云 WebRTC 通信 流媒体开发 流媒体传输

普通人必须掌握的五个必学理财知识

v16629866266

GrowingIO Design 组件库搭建之开发工具

GrowingIO技术专栏

设计 大前端

keycloak集群化的思考

程序那些事

架构设计 架构师 权限系统 程序那些事 集群服务

一周信创舆情观察(1.4~1.10)

统小信uos

如何对AD和Exchange进行安全加固满足护网需要?

嘉为蓝鲸

安全 asm AD 邮件系统 权限

Java 程序经验小结:用私有构造器或者枚举类型强化Singleton属性

后台技术汇

28天写作

架构师训练营第二周作业 - 命题作业

阿德儿

mysql字符串字段索引优化

瞌睡的李先生

MySQL 索引

安卓开发在线!字节跳动Android研发岗这些知识点内部泄露出来了,已拿到offer

欢喜学安卓

android 程序员 面试 移动开发

盘点2020 | 人生是一场马拉松-OBKoro1的2020年年终总结

OBKoro1

2020 大前端 年终总结 OBKoro1

数字货币量化对冲搬砖套利交易软件APP系统开发

系统开发

架构师训练营第二周作业 - 学习总结

阿德儿

又出神作!阿里技术官再出山,操作性超强的Spring事务+AOP实践手册

比伯

Java 编程 程序员 架构 面试

阿里P8内部架构核心学习知识笔记在各大互联网上流传,限时开放下载

Java架构之路

Java 程序员 架构 面试 编程语言

springboot整合Shiro

Java架构师迁哥

新鲜出炉!阿里内部开源SpringCloud Alibaba全解(全彩版)全网首发

Java架构追梦

Java 学习 架构 面试 SpringCloud Alibaba

阿里中间件团队技术官手撸笔记,全新演绎“Kafka部署实战”,已开源

Java架构之路

Java 程序员 架构 面试 编程语言

快速入门案例实战:电商网站商品管理(一)

escray

elasticsearch elastic 28天写作 死磕Elasticsearch 60天通过Elastic认证考试

细节决定成败!致Android高级工程师的一封信,实战解析

欢喜学安卓

android 程序员 面试 移动开发

OpenAI模型家族更新:GPT-4训练数据至2023年12月_生成式 AI_核子可乐_InfoQ精选文章
OSZAR »