
1 月 17 日,上海人工智能實(shí)驗(yàn)室聯(lián)合多所高校和企業(yè)的研發(fā)團(tuán)隊,推出了具有?200K 上下文窗口能力的開源 AI 模型:書生·浦語 InternLM2 7B 和 20B,它們在推理、數(shù)學(xué)、代碼理解、對話體驗(yàn)等方面均展現(xiàn)出卓越的能力。
InternLM2 項目旨在構(gòu)建一個強(qiáng)大而靈活的 AI 模型,以支持廣泛的研究和應(yīng)用場景。項目團(tuán)隊匯聚了來自不同領(lǐng)域的專家,他們的共同努力使得 InternLM2 在發(fā)布之初就展現(xiàn)出了卓越的性能和潛力。

InternLM2 系列包含兩種模型:InternLM2 7B 基礎(chǔ)模型和 InternLM2 20B 聊天模型 。7B 模型研究和應(yīng)用效率較高,20B 模型功能更強(qiáng)大,可以支持更復(fù)雜的場景。
InternLM2 系列模型的特點(diǎn)包括:
1. 200K 上下文窗口:?InternLM2 系列模型在處理長文本方面的能力得到了顯著提升。它能夠在 200K 的上下文窗口中近乎完美地進(jìn)行信息檢索,這在 LongBench 和 L -Eval 等長上下文任務(wù)中表現(xiàn)得尤為突出。通過 LMDeploy,用戶可以體驗(yàn)到這一強(qiáng)大的上下文推理能力。
2. 綜合性能提升:?InternLM2 系列模型在多個維度上都有顯著的性能提升。特別是在推理、數(shù)學(xué)、代碼理解、對話體驗(yàn)、指令遵循和創(chuàng)意寫作等方面,它在同類規(guī)模的開源模型中處于領(lǐng)先地位。在某些評估中,InternLM2-Chat-20B 甚至可能與 ChatGPT(GPT-3.5)相媲美或超越。
3. 代碼解釋器與數(shù)據(jù)分析:?InternLM2-Chat-20B 模型借助代碼解釋器,在 GSM8K 和 MATH 等任務(wù)上展現(xiàn)出與 GPT- 4 相仿的性能。此外,InternLM2-Chat 還具備數(shù)據(jù)分析功能,這為模型的應(yīng)用提供了更多的實(shí)用價值。
4. 更強(qiáng)的工具使用能力:?InternLM2 在工具使用方面的能力得到了整體升級。基于更強(qiáng)的指令理解、工具篩選和結(jié)果反思能力,新版模型能夠更可靠地支持復(fù)雜智能體的搭建,并能有效地進(jìn)行多輪調(diào)用工具,完成較復(fù)雜的任務(wù)。
自 2023 年 9 月 20 日 InternLM-20B 發(fā)布以來,該系列模型不斷迭代,為智能對話、自動化編程、數(shù)據(jù)分析等領(lǐng)域帶來了新的可能。隨著技術(shù)的不斷進(jìn)步和社區(qū)的積極參與,我們期待 InternLM2 能夠在未來發(fā)揮更大的作用,為人類社會帶來更多的便利和智慧。
項目網(wǎng)址:
https://github.com/InternLM/InternLM
官方網(wǎng)址:
https://internlm.intern-ai.org.cn/