<a href="https://mashdigi.com/apple-releases-open-source-natural-language-model-openelm-which-will-be-used-in-terminal-devices-such-as-iphone/" title="https://mashdigi.com/apple-releases-open-source-natural-language-model-openelm-which-will-be-used-in-terminal-devices-such-as-iphone/" ><span style="color:#808080;">【此文章來自:Mashdigi】</span></a><br /> <br /> 在 Google、微軟、Meta 等業者接連推出多款對應人工智慧應用的大型自然語言模型,同時也推出可在終端裝置離線運作的自然語言模型之後,蘋果稍早也宣布推出名為 OpenELM 的開源自然語言模型,同樣標榜能在終端裝置上運作。<br /> <br /> <img src="https://timgm.eprice.com.tw/tw/mobile/img/2024-04/26/5809163/eprice_1_1d47a09419c6fd171a5233f9396a89b6.jpg" title="蘋果釋出開源自然語言模型 OpenELM,將能用於 IPhone 等終端裝置" alt="蘋果釋出開源自然語言模型 OpenELM,將能用於 IPhone 等終端裝置" border="0" / /><br /> <br /> <!-- for ePriceTW --> <ins class="adsbygoogle" data-ad-client="ca-pub-9386838430591421" data-ad-slot="7238007871" style="display:inline-block;width:728px;height:90px"> </ins> <script> (adsbygoogle = window.adsbygoogle || []).push({}); </script><br /> <br /> OpenELM 已經透過 Hugging Face 託管平台對外提供下載使用,並且包含 4 款已經預先完成訓練,以及 4 款針對指令最佳化調整版本,分別對應 2.7 億組、4.5 億組、11 億組與 30 億組參數規模,相較市面多數以 70 億組參數在終端裝置運作的自然語言模型都還要小,因此能有更流暢執行效率表現。<br /> <br /> 而蘋果目前以提供模型權重檔、範例程式碼形式授權,並且提供多個訓練檢查點、模型效能數據,以及相關操作指引,授權範圍並未限制商用或進行修改。另外,蘋果更說明 OpenELM 訓練數據來源包含在 Reddit、維基百科、arXiv.org 等公開資料,並且透過約 1.8 兆個代幣數據進行預先訓練,但強調此模型並未加上任何安全保證,因此可能會有做出回應不準確、有害、帶有偏見,或是令人反感內容。<br /> <br /> 蘋果在去年公布針對其晶片產品打造的高效能機器學習框架 MLX,後續也與美國哥倫比亞大學研究人員公布開源多模大型自然語言模型<a href="https://mashdigi.com/apple-and-columbia-university-recently-announced-the-open-source-multi-modal-large-scale-natural-language-model-ferret/" title="https://mashdigi.com/apple-and-columbia-university-recently-announced-the-open-source-multi-modal-large-scale-natural-language-model-ferret/" >「Ferret」</a> (雪貂),而此次公布的 OpenELM 則是以開源形式對外提供使用,同時也可能應用在自有產品,例如 iPhone、Mac 等。<br />
在 Google、微軟、Meta 等業者接連推出多款對應人工智慧應用的大型自然語言模型,同時也推出可在終端裝置離線運作的自然語言模型之後,蘋果稍早也宣布推出名為 OpenELM 的開源自然語言模型,同樣標榜能在終端裝置上運作。
OpenELM 已經透過 Hugging Face 託管平台對外提供下載使用,並且包含 4 款已經預先完成訓練,以及 4 款針對指令最佳化調整版本,分別對應 2.7 億組、4.5 億組、11 億組與 30 億組參數規模,相較市面多數以 70 億組參數在終端裝置運作的自然語言模型都還要小,因此能有更流暢執行效率表現。
而蘋果目前以提供模型權重檔、範例程式碼形式授權,並且提供多個訓練檢查點、模型效能數據,以及相關操作指引,授權範圍並未限制商用或進行修改。另外,蘋果更說明 OpenELM 訓練數據來源包含在 Reddit、維基百科、arXiv.org 等公開資料,並且透過約 1.8 兆個代幣數據進行預先訓練,但強調此模型並未加上任何安全保證,因此可能會有做出回應不準確、有害、帶有偏見,或是令人反感內容。
蘋果在去年公布針對其晶片產品打造的高效能機器學習框架 MLX,後續也與美國哥倫比亞大學研究人員公布開源多模大型自然語言模型「Ferret」 (雪貂),而此次公布的 OpenELM 則是以開源形式對外提供使用,同時也可能應用在自有產品,例如 iPhone、Mac 等。