成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

研究表明對于生成式人工智能模型來說大小很重要

人工智能
生成式人工智能的未來可能依賴于企業使用的每個應用程序的更小的語言模型,這些模型既靈活又可定制,也更安全。

生成式人工智能的未來可能依賴于企業使用的每個應用程序的更小的語言模型,這些模型既靈活又可定制,也更安全。

隨著組織繼續采用生成式人工智能(GenAI)工具和平臺,并探索它們如何創造效率和提高員工生產力,他們也在努力應對這項技術的高成本和復雜性。

生成式人工智能和人工智能的基礎是語言模型、算法和神經網絡,它們為OpenAI公司的ChatGPT和谷歌的Bard等聊天機器人提供動力。目前最流行和廣泛使用的模型被稱為大型語言模型(LLM)。

大型語言模型(LLM)的規模可能很大。該技術與大量不同的信息庫聯系在一起,模型包含數十億(有時甚至是數萬億)個參數(或變量),這些參數(或變量)可能使它們既不準確,也不適合領域任務或垂直行業使用。

小型語言模型(slm)得到了迅速的發展,有些人甚至認為它已經成為主流的企業技術。slm被設計為能夠很好地執行較簡單的任務;對于資源有限的組織來說,它們更容易訪問和使用;他們天生更安全,因為他們生活在一個完全自我管理的環境中;它們可以針對特定領域和數據安全進行微調;而且比型語言模型(LLM)更便宜。

IDC人工智能研究小組副總裁Ritu Jyoti表示,小型語言模型(slm)非常適合那些希望構建可在本地設備上運行的應用程序(而不是在云端)的組織。Jyoti說。“在任務不需要大量推理或需要快速響應的情況下。”

與其相反,大型語言模型(LLM)更適合那些需要協調復雜任務的應用,這些任務涉及高級推理、數據分析和更好地理解場景。

小型語言模型(slm)可以使用開源人工智能框架從零開始構建,這意味著組織可以為任何目的創建高度可定制的人工智能工具,而無需獲得許可,它可以研究系統如何工作并檢查其組件,它可以為任何目的修改系統,包括改變其輸出。

開源提供了更多的自由和定制

人工智能原型開發商NewtupleTechnologies公司首席執行官DhirajNambiar表示,小型語言模型(slm)的采用率正在增長,因為它們可以進行微調或定制訓練,并且在狹窄的任務范圍內表現出色,有時可以與大型llm相媲美。”

例如,他說,現在有一些小型語言模型(slm)在光學字符識別(OCR)類型的任務和文本到SQL的任務上做得“很好”。Nambiar說,“一些開源軟件顯示出與型語言模型(LLM)相當的性能。”

事實上,目前最流行的型語言模型(slm)都是開源的,IDC的Jyoti指出。它們包括:

  • meta的Llama3
  • 微軟的Phi-3
  • 谷歌的杰瑪
  • mitralAI的Mixtral8x7B
  • 蘋果的OpenELM

最流行的非開源slm(專有的,不能免費供公眾使用)包括:

  • DeepSeekAI的編碼器
  • 微軟的Phi-2
  • 微軟的Orca-2

Jyoti說:“這些模型通常在特定組織中使用,或者作為商業服務的一部分提供,在提供高級功能的同時保持對其分發和使用的控制。”

人工智能模型從輸入推斷出它將產生的輸出,例如預測、內容、建議或可以影響物理或虛擬環境的決策。不同的人工智能系統在部署后的自主性和適應性水平各不相同。

用最簡單的術語來說,小型語言模型(SLM)是輕量級的生成式人工智能模型。管理咨詢和軟件開發公司Version1人工智能實驗室的高級技術研究員羅斯RosemaryThomas表示,這里的“小”指的是模型神經網絡的大小、參數的數量和用于訓練的數據量。她說,雖然一些小型語言模型(SLM)實現可能需要大量的計算和內存資源,但有幾個可以在單個GPU上運行,并且有超過50億個參數。

Thomas在最近的一篇文章中指出,其中包括谷歌雙子座納米,微軟的Orca-2-7b和Orca-2-13b,Meta的Llama-2–13b等。

Thomas表示,由于對更高效模型的需求以及對模型的訓練和設置速度的需求,小型語言模型(slm)的采用正在增長。她說:“由于計算資源、訓練時間和特定應用需求等實際考慮,小型語言模型(slm)越來越受歡迎。在過去的幾年里,小型語言模型(slm)變得越來越重要,特別是在可持續性和效率至關重要的情況下。”

與llm相比,最關鍵的區別在于規模。較大的模型在來自不同來源的大量數據上進行訓練,使它們能夠捕獲廣泛的語言模式,而小型語言模型(slm)更緊湊,并且在較小的(通常是專有的)上進行訓練。數據集。這允許更快的訓練和推理時間。

大型語言模型(LLM)還需要更多的計算資源和更長的訓練時間。Thomas說:“這使得小型語言模型(slm)成為資源有限或需要快速實現的應用程序的更實用的選擇。”

Thomas表示,盡管型語言模型(LLM)在內容生成、語言翻譯和理解復雜查詢等任務上表現出色,但如果進行了正確的微調,小型模型也可以達到類似的性能。

她說,“小型語言模型(slm)對于特定領域的任務特別有效,因為它們的尺寸更小,推理時間更快。”

建造還是購買?

考慮使用開源框架從零開始構建自己的人工智能模型的組織應該明白,調整現有模型既昂貴又耗時,Nambiar說。“構建自己的人工智能模型有很多方法,從從頭開始構建到對現有開源模型進行微調;前者需要精心設置GPU、TPU,需要訪問大量數據,還需要大量的專業知識。所需的軟件和硬件堆棧是可用的,然而,主要的障礙將是剩余的組件。

我強烈建議,對于特定領域的用例,最好‘微調’現有的小型語言模型(slm)或LLM,而不是從頭開始構建一個。現在有許多開源小型語言模型(slm)可用,其中許多都有非常允許的許可證。這是目前構建自己的模型的方法。這廣泛適用于所有變壓器型號。”

紅帽公司高級副總裁兼首席營收官AndrewBrown,說,這不應該是一個孤注一擲的SLM戰略。首先,訓練一個單一的通用AI模型需要大量的資源。

他說,“一些最大的型號可能需要大約10,000個gpu,而這些型號可能已經過時了。事實上,研究表明,到2026年,訓練人工智能的成本將相當于美國的GDP,即22萬億美元。一般的首席信息官沒有美國GDP水平的IT預算,也沒有成千上萬的閑置GPU。那么,答案是什么?由開源創新驅動的專業化、小型人工智能模型。”

根據Nambiar的說法,比較不同人工智能提供商的成本面臨的一大挑戰是使用不同的術語進行定價——OpenAI使用令牌,谷歌使用字符,Cohere使用“代”、“分類”和“總結單位”的組合。Nambiar的公司為商業自動化構建人工智能。

Nambiar確定了“每1000個代幣的價格”來評估不同的價格。

為業務目的微調LLM意味著組織依賴AI提供商來托管基礎設施。Nambiar說,企業應該根據基礎設施和人力資源來規劃一個兩到四個月的項目。Nambiar說,成本通常起價在5萬美元以上。

微調小型語言模型(slm)通常會更昂貴,因為如果一個組織托管開源模型,它將需要啟動基礎設施(GPU和/或TPU服務)以及在微調和人工成本上花費精力。他說,“假設它會比大型語言模型(LLM)更貴。”

干凈的數據帶來可靠的結果

無論是構建自己的SLM還是使用基于云的小型語言模型(slm),數據質量對于準確性至關重要。與大型語言模型(LLM)一樣,小模特仍然可能成為幻覺的受害者;當人工智能模型產生錯誤或誤導性信息時,通常是由于有缺陷的訓練數據或算法。但是,它們可以更容易地進行調整,并且更有可能更深入地了解組織的專有數據。

與大型語言模型(LLM)一樣,檢索增強生成(RAG)技術可以通過定制模型來減少幻覺的可能性,從而使響應變得更加準確。

同時,由于它們的規模和數據集較小,與大型語言模型(LLM)相比,小型語言模型(slm)不太可能捕獲更廣泛的語言模式,這可能會降低它們的有效性。雖然小型語言模型(slm)可以針對特定任務進行微調,但llm往往擅長于更復雜、定義不太明確的查詢,因為它們可以從中提取大量數據。

Thomas說:“簡而言之,小型語言模型(slm)為特定領域和任務提供了更高效、更經濟的替代方案,特別是在微調以充分發揮其潛力的情況下,而大型語言模型(LLM)仍然是廣泛應用的強大模型。”

Digital.ai公司北美地區首席技術官AdamKentosh,表示,小型語言模型(slm)對于清理數據和微調數據存儲非常重要,以獲得更好的性能、可持續性、降低業務風險和偏見。

根據Kentosh的說法,人工智能計劃已經陷入了“幻滅的低谷”,這是可以通過解決數據質量問題來避免的。

到2028年,由于成本、復雜性和部署中的技術債務,超過50%的從頭開始構建大型語言模型(LLM)的企業將放棄他們的努力。

Kentosh說:“我們繼續面對現有客戶的最大挑戰之一是數據源的多樣化,甚至在軟件開發的共同領域也是如此。例如,大多數公司擁有兩個或更多的敏捷規劃解決方案。此外,在發布軟件方面幾乎沒有一致性。這使得數據預處理變得非常重要,這是許多公司歷來不擅長的事情。”

根據Nambiar的說法,為微調模型獲得精心策劃的、特定于領域的數據并不是一項微不足道的任務。他說,“變壓器模型需要一種特定類型的快速響應對數據,而這種數據很難獲得。”

Nambiar說,一旦一個組織決定對自己的小型語言模型(slm)進行微調,它就必須不斷投資,以保持來自最先進模型的基準。隨著每一個新的大型語言模型(LLM)模型的發布,推理能力的標準都在提高,因此,如果你要創建自己的微調小型語言模型(slm),也必須提高這個模型的推理能力,否則你的模型就沒有用例了。”

Brown,表示,開源人工智能模型現在并不罕見,今年早些時候Meta等行業巨頭都在倡導其Llama模型開源的重要性。他說:“這對組織來說是個好消息,因為這些開源模型提供了很多好處,比如防止供應商鎖定,允許廣泛的合作伙伴生態系統,性能的可承受性等等。但不幸的是,如果你沒有數據科學家來處理這個模型,這些都不重要。”

大多數組織最多只能雇傭少數數據科學家,無論是由于合格人才的稀缺,還是由于雇傭他們的成本。Brown說,“這在有效訓練和調整模型方面造成了瓶頸。”

轉向混合部署?

Brown指出,首席信息官們長期以來一直在遠離單一技術——從21世紀初從UNIX向Linux的轉變開始。他認為人工智能正處于類似的轉折點,并認為類似于混合云的混合戰略對部署人工智能模型最有利。雖然大型的,有些不固定的大型語言模型(LLM)是當今的焦點,但未來的IT環境是50%的應用程序和50%的小型語言模型(slm)。

Brown說,“數據無處不在,無論是內部部署、云端還是邊緣。因此,數據本質上是混合的,因為人工智能需要在你的數據所在的地方運行,它也必須是混合的。事實上,我們經常告訴客戶和合作伙伴:人工智能是最終的混合工作負載。”

他繼續說道,“從本質上講,首席信息官將擁有與應用程序一樣多的人工智能模型。這意味著訓練需要更快,調優需要加快,成本需要降低。這一挑戰的關鍵在于開源。就像它使計算民主化一樣,開源將為人工智能帶來民主化。”

責任編輯:華軒 來源: 機房360
相關推薦

2011-09-05 16:48:06

ubuntu可用性易學性

2024-12-06 13:44:04

2018-11-28 09:00:00

人工智能AI敵對式AI

2025-06-27 03:00:00

2021-08-31 22:41:32

人工智能教育無人駕駛

2023-11-27 18:17:19

2023-08-02 18:26:31

2023-09-04 06:57:41

人工智能系統網絡

2024-12-10 08:38:15

2023-05-05 14:02:59

人工智能聊天機器人

2023-09-08 16:20:48

人工智能

2024-04-07 10:03:41

人工智能大型語言模型AI

2023-09-20 16:21:42

2023-05-17 17:32:25

2023-11-03 14:23:28

人工智能云技術

2023-08-14 10:38:39

2023-11-07 10:20:22

人工智能AI

2023-08-29 11:36:49

2022-02-26 19:05:01

AI人工智能機器學習

2024-04-11 07:00:00

人工智能
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美一区二区三区视频 | 日韩欧美一区二区三区免费看 | 国产一级一级毛片 | 亚洲视频在线一区 | 欧美精产国品一二三区 | 91麻豆精品国产91久久久久久 | 热99视频 | 成人小视频在线观看 | 国产农村妇女毛片精品久久麻豆 | 国产亚洲区 | 国产一区二区a | 成人亚洲在线 | 羞羞的视频免费在线观看 | 亚洲女人天堂网 | 久久久久高清 | 日韩精品不卡 | 亚洲交性 | 亚洲欧美日韩成人在线 | 一区中文字幕 | 欧美激情综合 | 国产成人精品亚洲日本在线观看 | 免费一看一级毛片 | 欧美成人精品一区二区三区 | 精品视频一区二区 | 国产高清自拍视频在线观看 | 国内精品视频在线观看 | 国产乱精品一区二区三区 | 亚洲精品日韩欧美 | 欧美一区二区三区视频 | 天天操网| 欧美一级α片 | 精品国产乱码久久久久久蜜柚 | 久久久国产一区 | 宅男噜噜噜66一区二区 | 成人免费视频在线观看 | 久久亚洲一区二区三区四区 | 91成人| 国产精品久久久精品 | 亚洲精品综合 | 天天射色综合 | 国产精品久久久久久久久免费软件 |