
人工智能大模型是指擁有超大規(guī)模參數(shù)(通常在十億個(gè)以上)、超強(qiáng)計(jì)算資源的機(jī)器學(xué)習(xí)模型,能夠處理海量數(shù)據(jù),完成各種復(fù)雜任務(wù),如自然語(yǔ)言處理、圖像識(shí)別等。
為了加速大模型的訓(xùn)練,需要大量的數(shù)據(jù)和計(jì)算資源,因此常常使用分布式計(jì)算框架。深入研究和優(yōu)化是必要的,因?yàn)檫@些模型的訓(xùn)練過(guò)程非常復(fù)雜,需要考慮數(shù)據(jù)分布、特征選擇和模型結(jié)構(gòu)等方面的因素。
AI 大模型的應(yīng)用場(chǎng)景非常豐富,可適用于多個(gè)領(lǐng)域,如智能客服、智能家居、自動(dòng)駕駛、語(yǔ)音識(shí)別、自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)等。AI 大模型在這些應(yīng)用中發(fā)揮作用,可以提高人們的工作效率和生活質(zhì)量,使各種任務(wù)能夠更快速、更準(zhǔn)確地完成。
大模型的訓(xùn)練過(guò)程是根據(jù)大量的輸入數(shù)據(jù),通過(guò)算法調(diào)整模型中龐大的參數(shù)來(lái)優(yōu)化模型性能。在訓(xùn)練過(guò)程中,模型會(huì)根據(jù)輸入數(shù)據(jù)進(jìn)行反向傳播和優(yōu)化,以最小化損失函數(shù)并更新參數(shù),在訓(xùn)練收斂時(shí),參數(shù)會(huì)趨于穩(wěn)定,這意味著模型已經(jīng)學(xué)習(xí)到了最佳的參數(shù)設(shè)置,模型也就具備了相應(yīng)的能力。這意味著模型在給定的輸入下,將會(huì)產(chǎn)生一致的輸出。這種確定性是基于訓(xùn)練數(shù)據(jù)的特征和模型結(jié)構(gòu)所決定的,即決定模型訓(xùn)練能力的因素主要有輸入的數(shù)據(jù)和模型算法參數(shù)的設(shè)計(jì)。
因此,模型的性能和功能不僅取決于模型參數(shù)的確定,還取決于訓(xùn)練數(shù)據(jù)的質(zhì)量、模型架構(gòu)的選擇等。
根據(jù)以上定義和理解不難推斷出 AI 大模型的特點(diǎn):
- 大量的參數(shù):
- 上下文理解和生成
- 強(qiáng)大的泛化能力
- 計(jì)算資源需求大
- 遷移學(xué)習(xí)能力
- 預(yù)訓(xùn)練與微調(diào)
- 多領(lǐng)域應(yīng)用
借此機(jī)會(huì),今天小編給大家推薦 15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目,無(wú)論是企業(yè)自建,還是解決方案提供商,或者學(xué)習(xí)借鑒、接私或創(chuàng)業(yè)賺錢(qián),這些免費(fèi)的 15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目都是不錯(cuò)的,希望對(duì)更多粉絲們有所幫助。同時(shí)送給大家最真摯輕輕的問(wèn)候,深深的祝福,愿你一帆風(fēng)順,二龍騰飛,三羊開(kāi)泰,四季平安,五福臨門(mén),六六大順,七星高照,八方來(lái)財(cái),九九同心,十全十美,百事亨通,千事吉祥,萬(wàn)事如意。
接下來(lái)小編給大家介紹一些免費(fèi)的 15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目,喜歡的小伙們記得點(diǎn)個(gè)贊和收藏。
全文大綱
- GPTs prompts?–?2023 年 11 月份 OpenAI 發(fā)布的 GPTs 可以讓 ChatGPT 使用者量身打造自己的 AI 助手的工具。
- upscayl– 基于 AI 算法放大和增強(qiáng)低分辨率圖像的圖像,讓你的圖片變高清。
- llm-course?–?大型語(yǔ)言模型課程。
- OpenVoice?–?即時(shí)語(yǔ)音克隆大模型。
- LLaMA-Factory?–?大模型微調(diào)框架。
- FaceChain?– 是一個(gè)可以用來(lái)打造個(gè)人數(shù)字形象的深度學(xué)習(xí)模型工具。
- gateway?–?大模型 API 網(wǎng)關(guān)。
- TinyLlama?–?一個(gè)擁有 11 億參數(shù)的 Llama 模型,采用了與 Llama 2 完全相同的架構(gòu)和分詞器。
- crewAI?–?是一個(gè)用于編排角色扮演的自主 AI agent,能夠在復(fù)雜任務(wù)上無(wú)縫合作。
- jan?–?號(hào)稱(chēng) ChatGPT 的開(kāi)源替代品,可在你的計(jì)算機(jī)上離線(xiàn)且私密的運(yùn)行大模型。
- AppAgent?–?是一個(gè)創(chuàng)新的基于大型語(yǔ)言模型(LLM)的多模態(tài)代理框架,設(shè)計(jì)用于操作智能手機(jī)應(yīng)用程序。
- auto_job__find__chatgpt__rpa– 使用 ChatGPT 制作一個(gè)自動(dòng)投簡(jiǎn)歷的開(kāi)源工具。
- audio2photoreal?– 這個(gè)項(xiàng)目可以從音頻生成逼真的人物形象,該項(xiàng)目包含了訓(xùn)練代碼、測(cè)試代碼、預(yù)訓(xùn)練的動(dòng)作模型以及數(shù)據(jù)集。
- Awesome-gptlike-shellsite?–?深入探索了精選的”套殼站”和必備 ChatGPT 應(yīng)用 API 資源。
- CopilotKit?– AI 聊天機(jī)器人工具。
GPTs – 2023 年 11 月份 OpenAI 發(fā)布的 GPTs 可以讓 ChatGPT 使用者量身打造自己的 AI 助手的工具。
Github:https://github.com/linexjlin/GPTs
介紹
在 2023 年 11 月份期間,在 OpenAI?Devday 發(fā)布會(huì)上給大家隆重介紹了 GPTs。
GPTs 是 OpenAI 的最新創(chuàng)新,專(zhuān)為任何渴望按照自己喜歡的方式定制 AI 的人而設(shè)計(jì)。無(wú)論是要簡(jiǎn)化日常工作、學(xué)習(xí)新的愛(ài)好,還是要提升工作場(chǎng)所的效率,GPTs 都可以提供定制化 AI 能力。
這些不是普通的、一刀切的人工智能。GPTs 就像個(gè)人的 ChatGPT 增強(qiáng)版。它們都是為了能夠通過(guò)一系列符合獨(dú)特需求的技能、知識(shí)和任務(wù)來(lái)對(duì)人工智能進(jìn)行編程。
GPTs 是人工智能敘事中的顛覆者,它們擴(kuò)展了插件的基本概念,以提供顯著增強(qiáng)的定制功能。借助 GPTs,您不僅可以向人工智能發(fā)出指令,還可以打造一個(gè)根據(jù)您的個(gè)人需求進(jìn)行復(fù)雜定制的個(gè)人助理。
但 GPTs 發(fā)布初期有過(guò)漏洞,創(chuàng)建該 GPTs 時(shí)預(yù)置的 Prompt 只要兩句提示詞就能套走。不過(guò)該漏洞目前已經(jīng)修復(fù),但有人第一時(shí)間將近百個(gè) GPTs 的 Prompt 進(jìn)行了保存,發(fā)布在了 GitHub。具體如下圖:
upscayl- 基于 AI 算法放大和增強(qiáng)低分辨率圖像的圖像,讓你的圖片變高清。
官網(wǎng):https://www.upscayl.org/
Github:https://github.com/upscayl/upscayl
介紹
upscayl- 基于 AI 算法放大和增強(qiáng)低分辨率圖像的圖像,讓你的圖片變高清,在 Github 上 Stat 22k,非常受大家喜歡。同時(shí)用戶(hù)使用 upscayl 無(wú)需重新部署,官方直接提供了跨不同系統(tǒng)的客戶(hù)端,比如 Linux、Windows、Mac 的客戶(hù)端進(jìn)行下載。
快速安裝
git clone https://github.com/upscayl/upscayl
cd upscayl
# INSTALL DEPENDENCIES
npm install
# RUN THE DEVELOPMENT SERVER LOCALLY
## YOUR LOGS WILL NOW APPEAR IN THE TERMINAL
npm run start
# INSTALL DEPENDENCIES
npm install
# PACKAGE THE APP
npm run dist
# PUBLISH THE APP, MAKE SURE TO ADD GH_TOKEN= IN SHELL
npm run publish-app
效果圖:
llm-course – 大型語(yǔ)言模型課程。
Github:https://github.com/mlabonne/llm-course
介紹
Large Language Model Course(大型語(yǔ)言模型課程)是一個(gè)開(kāi)源項(xiàng)目,該課程分為三個(gè)部分:
- LLM 基礎(chǔ):涵蓋了數(shù)學(xué)、Python 和神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)。
- LLM 科學(xué)家:專(zhuān)注于學(xué)習(xí)如何使用最新技術(shù)構(gòu)建最佳的大型語(yǔ)言模型。
- LLM 工程師:專(zhuān)注于如何創(chuàng)建基于大型語(yǔ)言模型的解決方案并部署它們。
第一部分:機(jī)器學(xué)習(xí)數(shù)學(xué)
在掌握機(jī)器學(xué)習(xí)之前,了解為這些算法提供動(dòng)力的基本數(shù)學(xué)概念是很重要的。
- 線(xiàn)性代數(shù):這對(duì)于理解許多算法至關(guān)重要,尤其是那些用于深度學(xué)習(xí)的算法。關(guān)鍵概念包括向量、矩陣、行列式、特征值和特征向量、向量空間和線(xiàn)性變換。
- 微積分:許多機(jī)器學(xué)習(xí)算法涉及連續(xù)函數(shù)的優(yōu)化,這需要了解導(dǎo)數(shù)、積分、極限和級(jí)數(shù)。多元微積分和梯度的概念也很重要。
- 概率和統(tǒng)計(jì)學(xué):這些對(duì)于理解模型如何從數(shù)據(jù)中學(xué)習(xí)和做出預(yù)測(cè)至關(guān)重要。關(guān)鍵概念包括概率論、隨機(jī)變量、概率分布、期望、方差、協(xié)方差、相關(guān)性、假設(shè)檢驗(yàn)、置信區(qū)間、最大似然估計(jì)和貝葉斯推斷。
第二部分:用于機(jī)器學(xué)習(xí)的 Python
Python 是一種強(qiáng)大而靈活的編程語(yǔ)言,由于其可讀性、一致性和強(qiáng)大的數(shù)據(jù)科學(xué)庫(kù)生態(tài)系統(tǒng),它特別適合機(jī)器學(xué)習(xí)。
- Python 基礎(chǔ)知識(shí):Python 編程需要對(duì)基本語(yǔ)法、數(shù)據(jù)類(lèi)型、錯(cuò)誤處理和面向?qū)ο缶幊逃泻芎玫睦斫狻?/li>
- 數(shù)據(jù)科學(xué)庫(kù):它包括熟悉 NumPy 用于數(shù)值運(yùn)算,Pandas 用于數(shù)據(jù)操作和分析,Matplotlib 和 Seaborn 用于數(shù)據(jù)可視化。
- 數(shù)據(jù)預(yù)處理:這涉及到特征縮放和歸一化、處理缺失數(shù)據(jù)、異常值檢測(cè)、分類(lèi)數(shù)據(jù)編碼,以及將數(shù)據(jù)拆分為訓(xùn)練、驗(yàn)證和測(cè)試集。
- 機(jī)器學(xué)習(xí)庫(kù):熟練掌握 Scikit learn 是一個(gè)提供多種監(jiān)督和非監(jiān)督學(xué)習(xí)算法的庫(kù),這一點(diǎn)至關(guān)重要。了解如何實(shí)現(xiàn)線(xiàn)性回歸、邏輯回歸、決策樹(shù)、隨機(jī)森林、k- 近鄰(k-NN)和 k - 均值聚類(lèi)等算法非常重要。像 PCA 和 t -SNE 這樣的降維技術(shù)也有助于可視化高維數(shù)據(jù)。
第三部分:神經(jīng)網(wǎng)絡(luò)
神經(jīng)網(wǎng)絡(luò)是許多機(jī)器學(xué)習(xí)模型的基本組成部分,尤其是在深度學(xué)習(xí)領(lǐng)域。為了有效地利用它們,全面了解它們的設(shè)計(jì)和機(jī)制是至關(guān)重要的。
- 基礎(chǔ)知識(shí):這包括理解神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),如層、權(quán)重、偏差和激活函數(shù)(sigmoid、tanh、ReLU 等)
- 訓(xùn)練和優(yōu)化:熟悉反向傳播和不同類(lèi)型的損失函數(shù),如均方誤差(MSE)和交叉熵。了解各種優(yōu)化算法,如梯度下降、隨機(jī)梯度下降、RMSprop 和 Adam。
- 過(guò)擬合:理解過(guò)擬合的概念(即模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在看不見(jiàn)的數(shù)據(jù)上表現(xiàn)不佳),并學(xué)習(xí)各種正則化技術(shù)(丟棄、L1/L2 正則化、提前停止、數(shù)據(jù)擴(kuò)充)來(lái)防止它。
- 實(shí)現(xiàn)多層感知器(MLP):使用 PyTorch 構(gòu)建 MLP,也稱(chēng)為全連接網(wǎng)絡(luò)。
第四部分:自然語(yǔ)言處理
NLP 是人工智能的一個(gè)迷人分支,它彌合了人類(lèi)語(yǔ)言和機(jī)器理解之間的差距。從簡(jiǎn)單的文本處理到理解語(yǔ)言細(xì)微差別,NLP 在翻譯、情感分析、聊天機(jī)器人等許多應(yīng)用程序中發(fā)揮著至關(guān)重要的作用。
- 文本預(yù)處理:學(xué)習(xí)各種文本預(yù)處理步驟,如標(biāo)記化(將文本拆分為單詞或句子)、詞干化(將單詞簡(jiǎn)化為詞根形式)、詞尾化(類(lèi)似于詞干,但考慮上下文)、停止單詞刪除等。
- 特征提取技術(shù):熟悉將文本數(shù)據(jù)轉(zhuǎn)換為機(jī)器學(xué)習(xí)算法可以理解的格式的技術(shù)。關(guān)鍵方法包括單詞袋(BoW)、術(shù)語(yǔ)頻率逆文檔頻率(TF-IDF)和 n -grams。
- 單詞嵌入:?jiǎn)卧~嵌入是一種允許具有相似含義的單詞具有相似表示的單詞表示形式。關(guān)鍵方法包括 Word2Verc、GloVe 和 FastText。
- 遞歸神經(jīng)網(wǎng)絡(luò)(RNN):了解 RNN 的工作原理,RNN 是一種設(shè)計(jì)用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。探索 LSTM 和 GRU,這兩種 RNN 變體能夠?qū)W習(xí)長(zhǎng)期依賴(lài)關(guān)系。
具體如下圖:

OpenVoice – 即時(shí)語(yǔ)音克隆大模型。
Github:https://github.com/myshell-ai/OpenVoice
介紹
正如官方在論文和網(wǎng)站中詳細(xì)介紹的那樣,OpenVoice 的優(yōu)勢(shì)有三個(gè)方面:
- 準(zhǔn)確的色調(diào)克隆。OpenVoice 可以準(zhǔn)確地克隆參考音色,并生成多種語(yǔ)言和口音的語(yǔ)音。
- 靈活的語(yǔ)音風(fēng)格控制。OpenVoice 能夠?qū)φZ(yǔ)音風(fēng)格(如情緒和口音)以及其他風(fēng)格參數(shù)(包括節(jié)奏、停頓和語(yǔ)調(diào))進(jìn)行精細(xì)控制。
- 零樣本跨語(yǔ)言語(yǔ)音克隆。生成語(yǔ)音的語(yǔ)言和參考語(yǔ)音的語(yǔ)言都不需要在大規(guī)模的說(shuō)話(huà)者多語(yǔ)言訓(xùn)練數(shù)據(jù)集中呈現(xiàn)。
LLaMA-Factory – 大模型微調(diào)框架。
Github:https://github.com/hiyouga/LLaMA-Factory
介紹
今天給大家介紹一下大模型訓(xùn)練和評(píng)估平臺(tái),是一個(gè)易于使用的大型語(yǔ)言模型(LLM)微調(diào)框架。項(xiàng)目名稱(chēng)叫做 LLaMA-Factory。該項(xiàng)目整合了目前主要的開(kāi)源大模型。
主要包含 Baichuan、Baichuan2、BLOOM、BLOOMZ、ChatGLM3、Falcon、InternLM、LLaMA、LLaMA-2、Mistral、Phi-1.5、Qwen、XVERSE 等模型。
LLaMA-Factory 還是一個(gè)非常強(qiáng)大的 大模型訓(xùn)練和評(píng)估平臺(tái)整合了目前主要的開(kāi)源大模型, 這樣大家只要通過(guò) 魔塔社區(qū)或者 huggingface 上下載模型就可以了,不需要花時(shí)間在各個(gè)模型的 web_demo.py、cli_demo.py、train_demo.py 直接來(lái)回切換了。
性能指標(biāo)
與 ChatGLM 官方的 P-Tuning 微調(diào)相比,LLaMA-Factory 的 LoRA 微調(diào)提供了?3.7 倍 的加速比,同時(shí)在廣告文案生成任務(wù)上取得了更高的 Rouge 分?jǐn)?shù)。結(jié)合 4 比特量化技術(shù),LLaMA-Factory 的 QLoRA 微調(diào)進(jìn)一步降低了 GPU 顯存消耗。
FaceChain – 是一個(gè)可以用來(lái)打造個(gè)人數(shù)字形象的深度學(xué)習(xí)模型工具。
Github:https://github.com/modelscope/facechain
介紹
FaceChain 是一個(gè)可以用來(lái)打造個(gè)人數(shù)字形象的深度學(xué)習(xí)模型工具。用戶(hù)僅需要提供最低一張照片即可獲得獨(dú)屬于自己的個(gè)人形象數(shù)字替身。
FaceChain 支持在 gradio 的界面中使用模型訓(xùn)練和推理能力、支持資深開(kāi)發(fā)者使用 python 腳本進(jìn)行訓(xùn)練推理,也支持在 sd webui 中安裝插件使用;
算法介紹
基本原理
個(gè)人寫(xiě)真模型的能力來(lái)源于 Stable Diffusion 模型的文生圖功能,輸入一段文本或一系列提示詞,輸出對(duì)應(yīng)的圖像。我們考慮影響個(gè)人寫(xiě)真生成效果的主要因素:寫(xiě)真風(fēng)格信息,以及用戶(hù)人物信息。
為此,我們分別使用線(xiàn)下訓(xùn)練的風(fēng)格 LoRA 模型和線(xiàn)上訓(xùn)練的人臉 LoRA 模型以學(xué)習(xí)上述信息。
LoRA 是一種具有較少可訓(xùn)練參數(shù)的微調(diào)模型,在 Stable Diffusion 中,可以通過(guò)對(duì)少量輸入圖像進(jìn)行文生圖訓(xùn)練的方式將輸入圖像的信息注入到 LoRA 模型中。
因此,個(gè)人寫(xiě)真模型的能力分為訓(xùn)練與推斷兩個(gè)階段,訓(xùn)練階段生成用于微調(diào) Stable Diffusion 模型的圖像與文本標(biāo)簽數(shù)據(jù),得到人臉 LoRA 模型;推斷階段基于人臉 LoRA 模型和風(fēng)格 LoRA 模型生成個(gè)人寫(xiě)真圖像。
訓(xùn)練階段
輸入:用戶(hù)上傳的包含清晰人臉區(qū)域的圖像
輸出:人臉 LoRA 模型
描述:首先,我們分別使用基于朝向判斷的圖像旋轉(zhuǎn)模型,以及基于人臉檢測(cè)和關(guān)鍵點(diǎn)模型的人臉精細(xì)化旋轉(zhuǎn)方法處理用戶(hù)上傳圖像,得到包含正向人臉的圖像;接下來(lái),我們使用人體解析模型和人像美膚模型,以獲得高質(zhì)量的人臉訓(xùn)練圖像;隨后,我們使用人臉屬性模型和文本標(biāo)注模型,結(jié)合標(biāo)簽后處理方法,產(chǎn)生訓(xùn)練圖像的精細(xì)化標(biāo)簽;最后,我們使用上述圖像和標(biāo)簽數(shù)據(jù)微調(diào) Stable Diffusion 模型得到人臉 LoRA 模型。
推斷階段
輸入:訓(xùn)練階段用戶(hù)上傳圖像,預(yù)設(shè)的用于生成個(gè)人寫(xiě)真的輸入提示詞
輸出:個(gè)人寫(xiě)真圖像
描述:首先,我們將人臉 LoRA 模型和風(fēng)格 LoRA 模型的權(quán)重融合到 Stable Diffusion 模型中;接下來(lái),我們使用 Stable Diffusion 模型的文生圖功能,基于預(yù)設(shè)的輸入提示詞初步生成個(gè)人寫(xiě)真圖像;隨后,我們使用人臉融合模型進(jìn)一步改善上述寫(xiě)真圖像的人臉細(xì)節(jié),其中用于融合的模板人臉通過(guò)人臉質(zhì)量評(píng)估模型在訓(xùn)練圖像中挑選;最后,我們使用人臉識(shí)別模型計(jì)算生成的寫(xiě)真圖像與模板人臉的相似度,以此對(duì)寫(xiě)真圖像進(jìn)行排序,并輸出排名靠前的個(gè)人寫(xiě)真圖像作為最終輸出結(jié)果。
效果圖
gateway – 大模型 API 網(wǎng)關(guān)。
Github:https://github.com/Portkey-AI/gateway
介紹
Portkey 的 AI gateway 是您的應(yīng)用程序和托管 LLM 之間的接口。它通過(guò)統(tǒng)一的 API 將 API 請(qǐng)求簡(jiǎn)化為 OpenAI、Anthropic、Mistral、LLama2、Anyscale、Google Gemini 等。
特性
- ? Blazing fast(快 9.9 倍),占地面積?。ㄒ寻惭b約 45kb)
- ? 跨多個(gè)模型、提供程序和密鑰的負(fù)載平衡
- ??失敗重試策略
- ??LLM 接口備用策略
- ? 根據(jù)需要插入中間件
效果圖
TinyLlama – 一個(gè)擁有 11 億參數(shù)的 Llama 模型,采用了與 Llama 2 完全相同的架構(gòu)和分詞器。
Github:https://github.com/jzhang38/TinyLlama
介紹
TinyLlama 一個(gè)擁有 11 億參數(shù)的 Llama 模型,采用了與 Llama 2 完全相同的架構(gòu)和分詞器。這意味著 TinyLlama 可以在許多基于 Llama 的開(kāi)源項(xiàng)目中插入并播放。
此外,TinyLlama 是緊湊型的,只有 1.1B 的參數(shù)。這種緊湊性使其能夠滿(mǎn)足大量需要有限計(jì)算和內(nèi)存占用的應(yīng)用程序。
效果圖
crewAI – 是一個(gè)用于編排角色扮演的自主 AI agent,能夠在復(fù)雜任務(wù)上無(wú)縫合作。
Github:https://github.com/joaomdmoura/crewAI
介紹
用于編排角色扮演、自主人工智能代理的前沿框架。通過(guò)培養(yǎng)協(xié)作智能,CrewAI 使特工能夠無(wú)縫協(xié)作,處理復(fù)雜任務(wù)。
為什么要用 crewAI?
人工智能協(xié)作的力量太大了。CrewAI 旨在使人工智能代理能夠承擔(dān)角色,共享目標(biāo),并在一個(gè)有凝聚力的單位中運(yùn)作——很像一個(gè)潤(rùn)滑良好的團(tuán)隊(duì)。
無(wú)論您是在構(gòu)建智能助理平臺(tái)、自動(dòng)化客戶(hù)服務(wù)集成還是多智能體研究團(tuán)隊(duì),CrewAI 都為復(fù)雜的多智能體交互提供了骨干。
特性
- agent:具有自己的角色、背景故事、目標(biāo)和記憶的專(zhuān)用團(tuán)隊(duì)成員。
- 任務(wù):給定代理應(yīng)完成的小型、專(zhuān)注的任務(wù)。
- 工具:agent 使用的設(shè)備,用于高效完成任務(wù)。
- 團(tuán)隊(duì):agent、任務(wù)和流程相遇的容器層,在這里進(jìn)行工作。
jan – 號(hào)稱(chēng) ChatGPT 的開(kāi)源替代品,可在你的計(jì)算機(jī)上離線(xiàn)且私密的運(yùn)行大模型。
官網(wǎng):https://jan.ai/
Github:https://github.com/janhq/jan
介紹
jan 該項(xiàng)目最近才發(fā)布一個(gè)多月,現(xiàn)在 Github Star 7.6k。非常受開(kāi)發(fā)者喜歡。號(hào)稱(chēng) ChatGPT 的開(kāi)源替代品,可在你的計(jì)算機(jī)上離線(xiàn)且私密的運(yùn)行大模型。
目前在 Windows、Mac、Linux 上提供了客戶(hù)端可以下載。從 PC 到 GPU,Jan 可以在任何硬件上進(jìn)行運(yùn)行。比如英偉達(dá) GPU、Apple M 系列芯片、Inter。
基于該開(kāi)源項(xiàng)目,你可以創(chuàng)建多個(gè)對(duì)話(huà),每一個(gè)對(duì)話(huà)基于的大模型、最大的 Tokens 可以自行配置。

AppAgent – 是一個(gè)創(chuàng)新的基于大型語(yǔ)言模型(LLM)的多模態(tài)代理框架,設(shè)計(jì)用于操作智能手機(jī)應(yīng)用程序。
Github:https://github.com/mnotgod96/AppAgent
介紹
我們介紹了一種新的基于 LLM 的多模式代理框架,旨在操作智能手機(jī)應(yīng)用程序。
我們的框架使代理能夠通過(guò)簡(jiǎn)化的動(dòng)作空間操作智能手機(jī)應(yīng)用程序,模仿類(lèi)似人類(lèi)的互動(dòng),如敲擊和滑動(dòng)。這種新穎的方法繞過(guò)了對(duì)系統(tǒng)后端訪(fǎng)問(wèn)的需求,從而擴(kuò)大了其在各種應(yīng)用程序中的適用性。
我們的代理功能的核心是其創(chuàng)新的學(xué)習(xí)方法。代理通過(guò)自主探索或觀(guān)察人類(lèi)演示來(lái)學(xué)習(xí)導(dǎo)航和使用新應(yīng)用程序。這個(gè)過(guò)程生成一個(gè)知識(shí)庫(kù),代理在不同的應(yīng)用程序中執(zhí)行復(fù)雜任務(wù)時(shí)參考該知識(shí)庫(kù)。
效果圖
auto_job__find__chatgpt__rpa- 使用 ChatGPT 制作一個(gè)自動(dòng)投簡(jiǎn)歷的開(kāi)源工具。
Github:https://github.com/Frrrrrrrrank/auto_job__find__chatgpt__rpa
介紹
這是一個(gè)完全免費(fèi)的腳本,只需要你們自己配置好 openai 的 api 即可
希望您能給我點(diǎn)個(gè)?star
如果在這個(gè)寒冷的招聘季,這個(gè)腳本能給您一些幫助,帶來(lái)一些溫暖,將讓我非常榮幸
希望不要有人拿著我的腳本去割韭菜,都已經(jīng)被逼到用這種腳本投簡(jiǎn)歷的地步了,身上也沒(méi)啥油水可榨了吧。
操作步驟
- 請(qǐng)首先配置好 openai 的 api(使用.env 文件或者在代碼中配置)
- 將 pdf 簡(jiǎn)歷上傳到文件夾 auto_job_find 里,命名為?“my_cover.pdf”
- 將需要的包安裝好
- 執(zhí)行 write_response.py
audio2photoreal – 這個(gè)項(xiàng)目可以從音頻生成逼真的人物形象,該項(xiàng)目包含了訓(xùn)練代碼、測(cè)試代碼、預(yù)訓(xùn)練的動(dòng)作模型以及數(shù)據(jù)集。
Github:https://github.com/facebookresearch/audio2photoreal
該項(xiàng)目還沒(méi)有發(fā)布兩個(gè)星期在 Github 上 Star 2.2k。
audio2photoreal 開(kāi)源項(xiàng)目由 Facebook Research 開(kāi)源。這個(gè)項(xiàng)目可以從音頻生成逼真的人物形象,該項(xiàng)目包含了訓(xùn)練代碼、測(cè)試代碼、預(yù)訓(xùn)練的動(dòng)作模型以及數(shù)據(jù)集。
效果圖
Awesome-gptlike-shellsite – 深入探索了精選的”套殼站”和必備 ChatGPT 應(yīng)用 API 資源。
Github:https://github.com/bleedline/Awesome-gptlike-shellsite
介紹
深入探索精選的套殼站和必備 API 資源。本項(xiàng)目為初學(xué)者和經(jīng)驗(yàn)豐富的運(yùn)營(yíng)者提供一站式指南,涵蓋常見(jiàn)問(wèn)題解答和基礎(chǔ)攻略,助您邁向套殼站副業(yè)成功之路。
目前項(xiàng)目接受優(yōu)質(zhì)的 AI 站點(diǎn)部署資源,包括但不限于 API,套殼站,云服務(wù)器,可以加入開(kāi)發(fā)者們的鏈接。
去哪里找殼比較好:Github 上有一些開(kāi)源的項(xiàng)目,我們?yōu)榇蠹艺砹艘恍?,但是更多需求還需自己去尋找合適的 ” 殼 ”。
千言萬(wàn)語(yǔ),不然一張長(zhǎng)圖,具體如下圖:
CopilotKit – AI 聊天機(jī)器人工具。
Github:https://github.com/CopilotKit/CopilotKit
介紹
CopilotKit 是一個(gè)用于在 react web 應(yīng)用中構(gòu)建應(yīng)用內(nèi) AI 聊天機(jī)器人和 AI 驅(qū)動(dòng)的文本區(qū)域的庫(kù)。
CopilotKit 是一個(gè)開(kāi)源平臺(tái),它提供了兩個(gè)核心組件:CopilotPortal 和 CopilotTextarea。這兩個(gè)組件共同工作,為用戶(hù)提供了一個(gè)無(wú)縫的 AI 增強(qiáng)體驗(yàn)。
CopilotPortal是一個(gè)能夠“看到”當(dāng)前應(yīng)用狀態(tài)并執(zhí)行操作的AI 聊天機(jī)器人。它不僅能夠與應(yīng)用的前端和后端進(jìn)行通信,還能通過(guò)插件與第三方服務(wù)如 Salesforce 和 Dropbox 等進(jìn)行交互。想象一下,你的用戶(hù)可以在應(yīng)用內(nèi)直接與 AI 對(duì)話(huà),獲取即時(shí)的幫助和操作指導(dǎo),這無(wú)疑將極大地提升用戶(hù)體驗(yàn)和效率。
CopilotTextarea 是一個(gè)智能文本編輯器,它能夠提供上下文感知的自動(dòng)補(bǔ)全、AI 編輯以及從零開(kāi)始生成內(nèi)容的功能。這意味著用戶(hù)在編寫(xiě)文本時(shí),CopilotTextarea 能夠根據(jù)上下文提供合適的建議,甚至自動(dòng)完成句子。這種智能化的編輯體驗(yàn)將極大地提高文本創(chuàng)作的效率和質(zhì)量。
特性
- 支持多種流行的 AI 模型, 如 ChatGPT、Anthropic、Cohere 等
- 易于集成到現(xiàn)有的 react 應(yīng)用中
- 提供應(yīng)用內(nèi)聊天界面和 AI 驅(qū)動(dòng)的富文本組件
- 靈活的配置選項(xiàng)和回調(diào)函數(shù)
- 支持自定義 UI 和樣式
- 開(kāi)源, 免費(fèi)使用
CopilotKit 使開(kāi)發(fā)者可以非常方便地在他們的 web 應(yīng)用中加入 AI 功能, 如讓用戶(hù)與聊天機(jī)器人互動(dòng)、提供 AI 輔助的文本輸入等。它抽象了底層的 AI 服務(wù)調(diào)用邏輯, 開(kāi)發(fā)者只需簡(jiǎn)單配置就可以使用。
總結(jié)
總而言之,AI 大模型代表了人工智能領(lǐng)域的一次突破。它們通過(guò)巨大的參數(shù)規(guī)模和強(qiáng)大的學(xué)習(xí)能力,將人工智能技術(shù)帶入了一個(gè)全新的階段。盡管 AI 大模型面臨一些挑戰(zhàn),但隨著技術(shù)的不斷進(jìn)步和發(fā)展,相信這些模型將在未來(lái)的各個(gè)領(lǐng)域中發(fā)揮重要作用,為人類(lèi)帶來(lái)更多的便利和創(chuàng)新。