📢 Gate廣場 #NERO发帖挑战# 秀觀點贏大獎活動火熱開啓!
Gate NERO生態周來襲!發帖秀出NERO項目洞察和活動實用攻略,瓜分30,000NERO!
💰️ 15位優質發帖用戶 * 2,000枚NERO每人
如何參與:
1️⃣ 調研NERO項目
對NERO的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與NERO生態周相關活動,並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
NERO熱門活動(帖文需附以下活動連結):
NERO Chain (NERO) 生態周:Gate 已上線 NERO 現貨交易,爲回饋平台用戶,HODLer Airdrop、Launchpool、CandyDrop、餘幣寶已上線 NERO,邀您體驗。參與攻略見公告:https://www.gate.com/announcements/article/46284
高質量帖子Tips:
教程越詳細、圖片越直觀、互動量越高,獲獎幾率越大!
市場見解獨到、真實參與經歷、有帶新互動者,評選將優先考慮。
帖子需原創,字數不少於250字,且需獲得至少3條有效互動
大模型長文本能力飆升 40萬token或僅是起點
長文本能力成爲大模型新"標配",40萬token或只是開始
大模型正以驚人的速度提升其長文本處理能力,從4000 token到40萬token,這一能力似乎已成爲衡量大模型公司技術實力的新標準。
國際上,OpenAI通過多次升級將GPT-3.5的上下文輸入長度從4千提升至1.6萬token,GPT-4則從8千增至3.2萬token。Anthropic更是一舉將上下文長度擴展到10萬token。LongLLaMA甚至將這一數字推至25.6萬token以上。
國內方面,初創公司月之暗面推出的Kimi Chat支持輸入20萬漢字,約合40萬token。港中文和MIT合作開發的LongLoRA技術可將7B模型的文本長度拓展到10萬token,70B模型則達到3.2萬token。
目前,包括OpenAI、Anthropic、Meta和月之暗面在內的衆多頂級大模型公司和研究機構都將拓展上下文長度作爲技術升級的重點方向。
這些公司無一例外都是資本市場的寵兒。OpenAI獲得近120億美元投資,Anthropic估值有望達300億美元,而成立僅半年的月之暗面已完成兩輪共計近20億元融資。
長文本技術的突破意味着模型的閱讀理解能力大幅提升。從最初難以讀完一篇公衆號文章,到現在可以輕鬆閱讀一本長篇小說,甚至處理復雜的專業文獻。這項技術也正推動大模型在金融、司法、科研等領域的應用落地。
然而,文本長度並非越長越好。研究表明,模型對上下文內容的有效利用比單純增加長度更爲關鍵。盡管如此,當前的探索似乎還遠未觸及"臨界點",40萬token可能僅僅是一個開始。
長文本技術不僅解決了大模型早期面臨的一些問題,還增強了其功能,成爲推動產業應用的關鍵技術之一。這標志着大模型進入了從LLM到Long LLM的新階段。
長文本技術的應用已體現在多個方面:快速分析長文章、提取財報關鍵信息、實現文字到代碼的直接轉換、復雜的角色扮演對話等。這些功能顯示出大模型正朝着專業化、個性化和深度化的方向發展。
然而,長文本技術也面臨"不可能三角"困境:文本長度、注意力和算力之間的權衡。文本越長,越難聚焦關鍵信息;注意力有限時,短文本又難以完整傳達復雜信息;處理長文本又需要大量算力,提高了成本。
目前主要有三種解決方案:借助外部工具輔助處理、優化自注意力機制計算、利用模型優化方法。這些方法各有優缺點,旨在找到文本長度、注意力和算力之間的最佳平衡點。
盡管長文本技術仍面臨諸多挑戰,但它無疑是大模型發展的重要方向之一。隨着技術的不斷進步,我們有理由期待更強大、更智能的長文本處理能力的出現。