GPT-4-Turbo 正式版本发布 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
spoock1024
V2EX    OpenAI

GPT-4-Turbo 正式版本发布

  •  
  •   spoock1024 2024-04-10 10:17:46 +08:00 5239 次点击
    这是一个创建于 553 天前的主题,其中的信息可能已经有所发展或是发生改变。

    原文链接: GPT-4-Turbo 正式版本发布!GPT-4-Turbo 新功能体验! ChatGPT5 即将发布!

    就在刚刚,OpenAI 发布最新模型 GPT- Turbo with Vision ,GPT-4-Turbo 正式版本发布!

    正式版本的名称又叫 gpt-4-turbo-2024-04-09

    就在刚刚,ChatGPT 发布最新模型 GPT-4 Turbo with Vision ,在去年 ChatGPT 已经推出多个 GPT-4 Turbo 预览版本,今天终于发布正式版。

    OpenAI 糊涂呀!其他家的大模型出个功能巴不得天天热搜。这么重要的时刻,你就只是简单的发个推文,轻描淡写的公告了下。

    虽然 GPT-4-Turbo 发布已久,但一直以“预览版”的方式提供。而就在刚才,OpenAI 发布了 GPT-4-Turbo 的正式版。

    按照 ChatGPT Plus 升级教程 可以很方便升级到 ChatGPT Plus ,同样可以第一时间享受到 GPT-4 Turbo 最新功能。

    GPT-4 Turbo 新功能

    伴随着 GPT-4-Turbo 正式版本的发布,也有一些新的功能一并推出了。

    referer:https://platform.openai.com/docs/models/gpt-4-turbo-and-gpt-4

    新功能

    全面开放

    可通过“gpt-4-turbo”来使用此模型,最新版本为“gpt-4-turbo-2024-04-09”

    基础能力更新

    按官方说法称之为Majorly improved GPT-4 Turbo model,视觉请求支持 JSON 格式和函数调用方式

    自带读图能力

    新的接口可以直接读取图片,无需使用 4v 接口

    128K 上下文

    和其他 GPT-4 Turbo 预览版一样,GPT-4 Turbo 正式版的上下文窗口仍是 128,000 tokens 。

    训练数据更新

    目前 GPT-4-Turbo 正式版本的训练数据已经更新到了 2023 年的 12 月份。

    我第一时间尝试了 GPT-4-Turbo 正式版本,真的很香!!!

    价格

    价格方面,和之前的 GPT-4-Turbo 预览版保持一致。

    输入是$10.00 / 100 万 tokens 。输出是$30.00 / 100 万 tokens 。 读图最低 是$0.00085 / 图。

    可谓是加量不加价了。

    referer:https://openai.com/pricing

    频率限制

    以最高级 Tire 5 为例,在官方说明中:

    • 最高并发:10000 次/ 分钟
    • 最高处理:1500,000 tokens / 分钟

    referer:https://platform.openai.com/docs/guides/rate-limits/usage-tiers?cOntext=tier-five

    查看限制

    但是我登录了我的后台查看了我的当前限制,发现还是这样的配置。说明 OpenAI 目前还在灰度限制,还没有完全放开。

    • 最高并发:3,000 次/ 分钟

    • 最高处理:250,000 tokens / 分钟

    referer: https://platform.openai.com/account/limits

    GPT-4 Turbo 历史版本

    距离 OpenAI 在 2023 年 4 月份推出 ChatGPT 4 以来到现在 GPT-4 Turbo 版本正式版本推出,其中一共推出了很多中间过渡版本或者是预览版本。

    下面通过一个图表进行说明。

    总结

    OpenAI 终于发布了 GPT-4-Turbo 的正式版本了。

    现在 GPT-4-Turbo 正式版本的训练数据已经到了 2023 年 12 月份,并且上下文长度也到了 128K 。实用能力进一步大大提高。

    最近 OpenAI 频繁发布新功能和新能力,想必应该是感受到了其他大模型带来的压力,同时也是为后面的 ChatGPT5 的发布进行预热,让大家持续性保持对于 OpenAI 和 ChatGPT 的关注。

    11 条回复    2024-04-11 22:14:27 +08:00
    gap
        1
    gap  
       2024-04-10 11:23:17 +08:00
    还是 Claude haiku 香一些
    Solix
        2
    Solix  
       2024-04-10 11:26:00 +08:00 via iPhone
    正式版发布说明要马上发布下一代预览版
    spoock1024
        3
    spoock1024  
    OP
       2024-04-10 11:31:36 +08:00
    @gaobh 确实,ChatGPT5 估计就要发布了
    zeromovie
        4
    zeromovie  
      &nsp;2024-04-10 11:44:29 +08:00
    网页版已经可以用了嘛
    7VO54YYGvw3LOF9U
        5
    7VO54YYGvw3LOF9U  
       2024-04-10 11:53:01 +08:00 via iPhone
    随便啦
    penzi
        6
    penzi  
       2024-04-10 11:56:55 +08:00 via iPhone
    解决复杂问题的能力是越来越烂了,这种规模越大,成本越高,完全没有边际成本递减效应的业务,估计过几年也得完蛋了。
    CloudyKumori
        7
    CloudyKumori  
       2024-04-10 12:58:52 +08:00
    Plus 现在好像还是训练数据截止到 2023 年 4 月的那个模型
    coffsolo
        8
    coffsolo  
       2024-04-10 15:04:02 +08:00
    试了一下,plus 还是 4
    GuluMashimaro
        9
    GuluMashimaro  
       2024-04-10 17:04:09 +08:00
    但是话说,我感觉最近 chatgpt 3.5 的代码能力有提升,是我的幻觉吗?
    YongXMan
        10
    YongXMan  
       2024-04-10 19:05:25 +08:00
    和 preview 区别有多大
    shao666
        11
    shao666  
       2024-04-11 22:14:27 +08:00
    plus 还是只有 4 这个选项,网页版怎么用 GPT-4 Turbo 哈
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     873 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 24ms UTC 21:12 PVG 05:12 LAX 14:12 JFK 17:12
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86