4大亮揭密果AI模型 有架化反速度率 - 科技新 - PChome Online 新

4大亮揭密果AI模型 有架化反速度率


4大亮揭密果AI模型 有架化反速度率


果在 WWDC25 全球者大後,近期更一步,公了一份名「Apple Intelligence Foundation Language Models Tech Report 2025」的技告。其中深入剖析了些新模型在、化估程中的,一揭《Apple Intelligence》背後「大」的神秘面。者孟琦/


果在 WWDC25 全球者大後,近期更一步,公了一份名「Apple Intelligence Foundation Language Models Tech Report 2025」的技告。其中深入剖析了些新模型在、化估程中的,一揭《Apple Intelligence》背後「大」的神秘面。


[caption id="attachment_183548" align="alignnone" width="2048"]
4大亮揭密果AI模型 有架化反速度率
果近期布了AI模型的多方面,包括其架、料源、、後、工具使用等。(示意/AI生成)[/caption]


份技性高但值非凡的告,巨靡地述了新模型的架、源、、後、工具使用、性能化及基等多面。其中4大亮,可一果 AI 的尖端技:


[caption id="attachment_183547" align="alignnone" width="1079"]
4大亮揭密果AI模型 有架化反速度率
Apple 基模型的建模概述。(/截取自果智慧基言模型技告 2025)[/caption]


置端模型:在巧中大性能


果的置端模型(即供者使用的那款)有 30 。然而,份新告揭示了其部巧妙的:模型被分割成。 1 包含了 Transformer 的 62.5%,而 2 包含了剩的 37.5% Transformer ,但值得注意的是, 2 移除了和值投影。


新了性的效能提升。透的分割,置端模型所需的存少了 37.5%,同首次出元(Token)所需的也短了 37.5%。管行了分割,果其方式保了模型的整性能和出品不受影。


技策略的背後,是果期以在化本地 AI 性能上的探索。年前,果就曾研究如何在受限的上,透在 RAM 和快存之按需交大型言模型(LLM)部分容,行比容量更大的模型。然最的解方案有所不同,但充分展了果致力於在量上提供高性能 AI 的心。


延伸:

果新一代iPad Pro配置前置?合M5晶片穰都

iOS 26的7大革新AI功能!升你的智慧生活


端模型:「私有算」量身打造的精妙架


於其伺服器端模型,果其「私有算」(Private Cloud Compute)平台量身打造了一特的自架,名「平行道家混合模型」(Parallel-Track Mixture-of-Experts, PT-MoE)。


而言之,「家混合模型」(MoE)是突破性的 AI 模型。它不再依一大、一的模型理所有任,而是其分解多小的子路,或之「家」。些「家」只在理其相的任才被激活。例,如果您的提示烹相,那只有烹域的家被醒算,而其他家保持休眠。模化使得整模型然依然大,但其速度更快,且往往更精,避免了所有提示都必通一大一模型而致的效率低下。


果在此基上,一步新,建了一新型的 Transformer,命名「平行道 Transformer」,透 MoE 行展。的 Transformer 模型通常透一堆的次逐一理元。然而,果的打破了理模式,模型分解多平行道。每道都能立理元,在特定行同步。


更精妙的是,在每平行道部,果用 MoE 取代了部分常 Transformer。意味著每元只需激活少家,而其家保持置。由於每道都有其的局部家,模型有效避免了中,所有算必跨越整系而造成的理瓶。


此外,果加入了一巧妙的,旨在平衡局部上下文理解全局宏野,之「交全局局部注意力」(Interleaving Global and Local Attention Layers)。最,一切技的合,成就了一高度模化、高效且可展的 AI 模型,它不行速度更快、源消耗更少,同也保持了卓越的智能水平。


多言能力:全球用的基石


《Apple Intelligence》初期布,英之外言支援的局限性曾是其受批的焦。此,果在其新模型中大幅提升了多言支援能力。


告示,果在程中多言的使用量 8% 大幅提升至 30%。些源包括自然生的容和透生成技造的合成容。同,果其分器(Tokeniser)的容量大了50%,使其模型在能15不同的元,相於之前的10有了著增。


果表示,些改使得其模型在非英基中取得了「著步」,尤其是在化微之後。值得注意的是,告中,估是透母使用者的提示行的(而非翻),同了模型在地境中的性和回的自然度。意味著未像「作工具」(Writing Tools)的功能,在其他受支援言中的表更加可靠和地道。


源解析:多元化、高量私保


一如其首批模型,果新模型的主要自爬取。但果明指出,其 Applebot 爬格遵守 robots.txt 排除,表示如果站者不希望果抓取其容,可以透定告知,Applebot 便停止抓取。


以下是果新模型源的成:




  • 公可用:


    管果未具量化比例,但其的最大部分自 Applebot 爬取的容。了保品,果用了多制,除低品、不安全或不相的容,包括垃圾件面、薄或模板化的文本以及格式的容。



  • 授:


    果在告中要提及部分是出版商得授。早前界曾指出,果正 Condé Nast(旗下有《客》、《尚》、《》等)、NBC 新以及 IAC(旗下有《人物》、《每日野》和《美好家花》等)行容授判,因此些料很可能已入其集。



  • 合成:


    果透小型模型和自管生成合成,尤其用於、程式、指令微以及言任。然告未明合成在集中的比,但其在微、化和提升多言支援等步中扮演了重要角色。

    值得澄清的是,合成非「空捏造」或「容」,而是透演算法有中生成具特定性、的全新,於不足、增模型健性至重要。




  • 了提升像理解能力,果收集了超 100 像-合,其中包括透光字符(OCR)幕截中提取的文字,以及手。

    此外,果利用自身的模型生成了外且更富的像。去有果曾 Shutterstock 行像容授判,因此部分授像素材也可能已用於此目的



料源:9to5mac


篇文章 4大亮揭密果AI模型 有架化反速度率 最早出於 科技-掌握科技新、科技最新

Google新-PChome Online新


最新科技新
人科技新
行版
ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86