97久久精品无码一区二区天美,开裆裤羞辱调教高h绳子,欧美成人brazzers,成人免费午夜性大片,成人国产一区二区精品小说

15個(gè)沖上熱搜的AI大模型Github開(kāi)源項(xiàng)目

人工智能大模型是指擁有超大規(guī)模參數(shù)(通常在十億個(gè)以上)、超強(qiáng)計(jì)算資源的機(jī)器學(xué)習(xí)模型,能夠處理海量數(shù)據(jù),完成各種復(fù)雜任務(wù),如自然語(yǔ)言處理、圖像識(shí)別等。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

為了加速大模型的訓(xùn)練,需要大量的數(shù)據(jù)和計(jì)算資源,因此常常使用分布式計(jì)算框架。深入研究和優(yōu)化是必要的,因?yàn)檫@些模型的訓(xùn)練過(guò)程非常復(fù)雜,需要考慮數(shù)據(jù)分布、特征選擇和模型結(jié)構(gòu)等方面的因素。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

AI 大模型的應(yīng)用場(chǎng)景非常豐富,可適用于多個(gè)領(lǐng)域,如智能客服、智能家居、自動(dòng)駕駛、語(yǔ)音識(shí)別、自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)等。AI 大模型在這些應(yīng)用中發(fā)揮作用,可以提高人們的工作效率和生活質(zhì)量,使各種任務(wù)能夠更快速、更準(zhǔn)確地完成。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

大模型的訓(xùn)練過(guò)程是根據(jù)大量的輸入數(shù)據(jù),通過(guò)算法調(diào)整模型中龐大的參數(shù)來(lái)優(yōu)化模型性能。在訓(xùn)練過(guò)程中,模型會(huì)根據(jù)輸入數(shù)據(jù)進(jìn)行反向傳播和優(yōu)化,以最小化損失函數(shù)并更新參數(shù),在訓(xùn)練收斂時(shí),參數(shù)會(huì)趨于穩(wěn)定,這意味著模型已經(jīng)學(xué)習(xí)到了最佳的參數(shù)設(shè)置,模型也就具備了相應(yīng)的能力。這意味著模型在給定的輸入下,將會(huì)產(chǎn)生一致的輸出。這種確定性是基于訓(xùn)練數(shù)據(jù)的特征和模型結(jié)構(gòu)所決定的,即決定模型訓(xùn)練能力的因素主要有輸入的數(shù)據(jù)和模型算法參數(shù)的設(shè)計(jì)。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

因此,模型的性能和功能不僅取決于模型參數(shù)的確定,還取決于訓(xùn)練數(shù)據(jù)的質(zhì)量、模型架構(gòu)的選擇等。

根據(jù)以上定義和理解不難推斷出 AI 大模型的特點(diǎn):

  • 大量的參數(shù):
  • 上下文理解和生成
  • 強(qiáng)大的泛化能力
  • 計(jì)算資源需求大
  • 遷移學(xué)習(xí)能力
  • 預(yù)訓(xùn)練與微調(diào)
  • 多領(lǐng)域應(yīng)用

借此機(jī)會(huì),今天小編給大家推薦 15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目,無(wú)論是企業(yè)自建,還是解決方案提供商,或者學(xué)習(xí)借鑒、接私或創(chuàng)業(yè)賺錢(qián),這些免費(fèi)的 15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目都是不錯(cuò)的,希望對(duì)更多粉絲們有所幫助。同時(shí)送給大家最真摯輕輕的問(wèn)候,深深的祝福,愿你一帆風(fēng)順,二龍騰飛,三羊開(kāi)泰,四季平安,五福臨門(mén),六六大順,七星高照,八方來(lái)財(cái),九九同心,十全十美,百事亨通,千事吉祥,萬(wàn)事如意。

接下來(lái)小編給大家介紹一些免費(fèi)的 15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目,喜歡的小伙們記得點(diǎn)個(gè)贊和收藏。

全文大綱

  1. GPTs prompts?–?2023 年 11 月份 OpenAI 發(fā)布的 GPTs 可以讓 ChatGPT 使用者量身打造自己的 AI 助手的工具。
  2. upscayl– 基于 AI 算法放大和增強(qiáng)低分辨率圖像的圖像,讓你的圖片變高清。
  3. llm-course?–?大型語(yǔ)言模型課程。
  4. OpenVoice?–?即時(shí)語(yǔ)音克隆大模型。
  5. LLaMA-Factory?–?大模型微調(diào)框架。
  6. FaceChain?– 是一個(gè)可以用來(lái)打造個(gè)人數(shù)字形象的深度學(xué)習(xí)模型工具。
  7. gateway?–?大模型 API 網(wǎng)關(guān)。
  8. TinyLlama?–?一個(gè)擁有 11 億參數(shù)的 Llama 模型,采用了與 Llama 2 完全相同的架構(gòu)和分詞器。
  9. crewAI?–?是一個(gè)用于編排角色扮演的自主 AI agent,能夠在復(fù)雜任務(wù)上無(wú)縫合作。
  10. jan?–?號(hào)稱(chēng) ChatGPT 的開(kāi)源替代品,可在你的計(jì)算機(jī)上離線(xiàn)且私密的運(yùn)行大模型。
  11. AppAgent?–?是一個(gè)創(chuàng)新的基于大型語(yǔ)言模型(LLM)的多模態(tài)代理框架,設(shè)計(jì)用于操作智能手機(jī)應(yīng)用程序。
  12. auto_job__find__chatgpt__rpa– 使用 ChatGPT 制作一個(gè)自動(dòng)投簡(jiǎn)歷的開(kāi)源工具。
  13. audio2photoreal?– 這個(gè)項(xiàng)目可以從音頻生成逼真的人物形象,該項(xiàng)目包含了訓(xùn)練代碼、測(cè)試代碼、預(yù)訓(xùn)練的動(dòng)作模型以及數(shù)據(jù)集。
  14. Awesome-gptlike-shellsite?–?深入探索了精選的”套殼站”和必備 ChatGPT 應(yīng)用 API 資源。
  15. CopilotKit?– AI 聊天機(jī)器人工具。

GPTs – 2023 年 11 月份 OpenAI 發(fā)布的 GPTs 可以讓 ChatGPT 使用者量身打造自己的 AI 助手的工具。

Github:https://github.com/linexjlin/GPTs

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

在 2023 年 11 月份期間,在 OpenAI?Devday 發(fā)布會(huì)上給大家隆重介紹了 GPTs。

GPTs 是 OpenAI 的最新創(chuàng)新,專(zhuān)為任何渴望按照自己喜歡的方式定制 AI 的人而設(shè)計(jì)。無(wú)論是要簡(jiǎn)化日常工作、學(xué)習(xí)新的愛(ài)好,還是要提升工作場(chǎng)所的效率,GPTs 都可以提供定制化 AI 能力。

這些不是普通的、一刀切的人工智能。GPTs 就像個(gè)人的 ChatGPT 增強(qiáng)版。它們都是為了能夠通過(guò)一系列符合獨(dú)特需求的技能、知識(shí)和任務(wù)來(lái)對(duì)人工智能進(jìn)行編程。

GPTs 是人工智能敘事中的顛覆者,它們擴(kuò)展了插件的基本概念,以提供顯著增強(qiáng)的定制功能。借助 GPTs,您不僅可以向人工智能發(fā)出指令,還可以打造一個(gè)根據(jù)您的個(gè)人需求進(jìn)行復(fù)雜定制的個(gè)人助理。

但 GPTs 發(fā)布初期有過(guò)漏洞,創(chuàng)建該 GPTs 時(shí)預(yù)置的 Prompt 只要兩句提示詞就能套走。不過(guò)該漏洞目前已經(jīng)修復(fù),但有人第一時(shí)間將近百個(gè) GPTs 的 Prompt 進(jìn)行了保存,發(fā)布在了 GitHub。具體如下圖:

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

upscayl- 基于 AI 算法放大和增強(qiáng)低分辨率圖像的圖像,讓你的圖片變高清。

官網(wǎng):https://www.upscayl.org/

Github:https://github.com/upscayl/upscayl

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

upscayl- 基于 AI 算法放大和增強(qiáng)低分辨率圖像的圖像,讓你的圖片變高清,在 Github 上 Stat 22k,非常受大家喜歡。同時(shí)用戶(hù)使用 upscayl 無(wú)需重新部署,官方直接提供了跨不同系統(tǒng)的客戶(hù)端,比如 Linux、Windows、Mac 的客戶(hù)端進(jìn)行下載。

快速安裝

git clone https://github.com/upscayl/upscayl
cd upscayl

# INSTALL DEPENDENCIES
npm install

# RUN THE DEVELOPMENT SERVER LOCALLY
## YOUR LOGS WILL NOW APPEAR IN THE TERMINAL
npm run start

# INSTALL DEPENDENCIES
npm install

# PACKAGE THE APP
npm run dist

# PUBLISH THE APP, MAKE SURE TO ADD GH_TOKEN= IN SHELL
npm run publish-app

效果圖:

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

llm-course – 大型語(yǔ)言模型課程。

Github:https://github.com/mlabonne/llm-course

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

Large Language Model Course(大型語(yǔ)言模型課程)是一個(gè)開(kāi)源項(xiàng)目,該課程分為三個(gè)部分:

  • LLM 基礎(chǔ):涵蓋了數(shù)學(xué)、Python 和神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)。
  • LLM 科學(xué)家:專(zhuān)注于學(xué)習(xí)如何使用最新技術(shù)構(gòu)建最佳的大型語(yǔ)言模型。
  • LLM 工程師:專(zhuān)注于如何創(chuàng)建基于大型語(yǔ)言模型的解決方案并部署它們。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

第一部分:機(jī)器學(xué)習(xí)數(shù)學(xué)

在掌握機(jī)器學(xué)習(xí)之前,了解為這些算法提供動(dòng)力的基本數(shù)學(xué)概念是很重要的。

  • 線(xiàn)性代數(shù):這對(duì)于理解許多算法至關(guān)重要,尤其是那些用于深度學(xué)習(xí)的算法。關(guān)鍵概念包括向量、矩陣、行列式、特征值和特征向量、向量空間和線(xiàn)性變換。
  • 微積分:許多機(jī)器學(xué)習(xí)算法涉及連續(xù)函數(shù)的優(yōu)化,這需要了解導(dǎo)數(shù)、積分、極限和級(jí)數(shù)。多元微積分和梯度的概念也很重要。
  • 概率和統(tǒng)計(jì)學(xué):這些對(duì)于理解模型如何從數(shù)據(jù)中學(xué)習(xí)和做出預(yù)測(cè)至關(guān)重要。關(guān)鍵概念包括概率論、隨機(jī)變量、概率分布、期望、方差、協(xié)方差、相關(guān)性、假設(shè)檢驗(yàn)、置信區(qū)間、最大似然估計(jì)和貝葉斯推斷。

第二部分:用于機(jī)器學(xué)習(xí)的 Python

Python 是一種強(qiáng)大而靈活的編程語(yǔ)言,由于其可讀性、一致性和強(qiáng)大的數(shù)據(jù)科學(xué)庫(kù)生態(tài)系統(tǒng),它特別適合機(jī)器學(xué)習(xí)。

  • Python 基礎(chǔ)知識(shí):Python 編程需要對(duì)基本語(yǔ)法、數(shù)據(jù)類(lèi)型、錯(cuò)誤處理和面向?qū)ο缶幊逃泻芎玫睦斫狻?/li>
  • 數(shù)據(jù)科學(xué)庫(kù):它包括熟悉 NumPy 用于數(shù)值運(yùn)算,Pandas 用于數(shù)據(jù)操作和分析,Matplotlib 和 Seaborn 用于數(shù)據(jù)可視化。
  • 數(shù)據(jù)預(yù)處理:這涉及到特征縮放和歸一化、處理缺失數(shù)據(jù)、異常值檢測(cè)、分類(lèi)數(shù)據(jù)編碼,以及將數(shù)據(jù)拆分為訓(xùn)練、驗(yàn)證和測(cè)試集。
  • 機(jī)器學(xué)習(xí)庫(kù):熟練掌握 Scikit learn 是一個(gè)提供多種監(jiān)督和非監(jiān)督學(xué)習(xí)算法的庫(kù),這一點(diǎn)至關(guān)重要。了解如何實(shí)現(xiàn)線(xiàn)性回歸、邏輯回歸、決策樹(shù)、隨機(jī)森林、k- 近鄰(k-NN)和 k - 均值聚類(lèi)等算法非常重要。像 PCA 和 t -SNE 這樣的降維技術(shù)也有助于可視化高維數(shù)據(jù)。

第三部分:神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)是許多機(jī)器學(xué)習(xí)模型的基本組成部分,尤其是在深度學(xué)習(xí)領(lǐng)域。為了有效地利用它們,全面了解它們的設(shè)計(jì)和機(jī)制是至關(guān)重要的。

  • 基礎(chǔ)知識(shí):這包括理解神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),如層、權(quán)重、偏差和激活函數(shù)(sigmoid、tanh、ReLU 等)
  • 訓(xùn)練和優(yōu)化:熟悉反向傳播和不同類(lèi)型的損失函數(shù),如均方誤差(MSE)和交叉熵。了解各種優(yōu)化算法,如梯度下降、隨機(jī)梯度下降、RMSprop 和 Adam。
  • 過(guò)擬合:理解過(guò)擬合的概念(即模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在看不見(jiàn)的數(shù)據(jù)上表現(xiàn)不佳),并學(xué)習(xí)各種正則化技術(shù)(丟棄、L1/L2 正則化、提前停止、數(shù)據(jù)擴(kuò)充)來(lái)防止它。
  • 實(shí)現(xiàn)多層感知器(MLP):使用 PyTorch 構(gòu)建 MLP,也稱(chēng)為全連接網(wǎng)絡(luò)。

第四部分:自然語(yǔ)言處理

NLP 是人工智能的一個(gè)迷人分支,它彌合了人類(lèi)語(yǔ)言和機(jī)器理解之間的差距。從簡(jiǎn)單的文本處理到理解語(yǔ)言細(xì)微差別,NLP 在翻譯、情感分析、聊天機(jī)器人等許多應(yīng)用程序中發(fā)揮著至關(guān)重要的作用。

  • 文本預(yù)處理:學(xué)習(xí)各種文本預(yù)處理步驟,如標(biāo)記化(將文本拆分為單詞或句子)、詞干化(將單詞簡(jiǎn)化為詞根形式)、詞尾化(類(lèi)似于詞干,但考慮上下文)、停止單詞刪除等。
  • 特征提取技術(shù):熟悉將文本數(shù)據(jù)轉(zhuǎn)換為機(jī)器學(xué)習(xí)算法可以理解的格式的技術(shù)。關(guān)鍵方法包括單詞袋(BoW)、術(shù)語(yǔ)頻率逆文檔頻率(TF-IDF)和 n -grams。
  • 單詞嵌入:?jiǎn)卧~嵌入是一種允許具有相似含義的單詞具有相似表示的單詞表示形式。關(guān)鍵方法包括 Word2Verc、GloVe 和 FastText。
  • 遞歸神經(jīng)網(wǎng)絡(luò)(RNN):了解 RNN 的工作原理,RNN 是一種設(shè)計(jì)用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。探索 LSTM 和 GRU,這兩種 RNN 變體能夠?qū)W習(xí)長(zhǎng)期依賴(lài)關(guān)系。

具體如下圖:

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

OpenVoice – 即時(shí)語(yǔ)音克隆大模型。

Github:https://github.com/myshell-ai/OpenVoice

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

正如官方在論文和網(wǎng)站中詳細(xì)介紹的那樣,OpenVoice 的優(yōu)勢(shì)有三個(gè)方面:

  • 準(zhǔn)確的色調(diào)克隆。OpenVoice 可以準(zhǔn)確地克隆參考音色,并生成多種語(yǔ)言和口音的語(yǔ)音。
  • 靈活的語(yǔ)音風(fēng)格控制。OpenVoice 能夠?qū)φZ(yǔ)音風(fēng)格(如情緒和口音)以及其他風(fēng)格參數(shù)(包括節(jié)奏、停頓和語(yǔ)調(diào))進(jìn)行精細(xì)控制。
  • 零樣本跨語(yǔ)言語(yǔ)音克隆。生成語(yǔ)音的語(yǔ)言和參考語(yǔ)音的語(yǔ)言都不需要在大規(guī)模的說(shuō)話(huà)者多語(yǔ)言訓(xùn)練數(shù)據(jù)集中呈現(xiàn)。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

LLaMA-Factory – 大模型微調(diào)框架。

Github:https://github.com/hiyouga/LLaMA-Factory

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

今天給大家介紹一下大模型訓(xùn)練和評(píng)估平臺(tái),是一個(gè)易于使用的大型語(yǔ)言模型(LLM)微調(diào)框架。項(xiàng)目名稱(chēng)叫做 LLaMA-Factory。該項(xiàng)目整合了目前主要的開(kāi)源大模型。

主要包含 Baichuan、Baichuan2、BLOOM、BLOOMZ、ChatGLM3、Falcon、InternLM、LLaMA、LLaMA-2、Mistral、Phi-1.5、Qwen、XVERSE 等模型。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

LLaMA-Factory 還是一個(gè)非常強(qiáng)大的 大模型訓(xùn)練和評(píng)估平臺(tái)整合了目前主要的開(kāi)源大模型, 這樣大家只要通過(guò) 魔塔社區(qū)或者 huggingface 上下載模型就可以了,不需要花時(shí)間在各個(gè)模型的 web_demo.py、cli_demo.py、train_demo.py 直接來(lái)回切換了。

性能指標(biāo)

與 ChatGLM 官方的 P-Tuning 微調(diào)相比,LLaMA-Factory 的 LoRA 微調(diào)提供了?3.7 倍 的加速比,同時(shí)在廣告文案生成任務(wù)上取得了更高的 Rouge 分?jǐn)?shù)。結(jié)合 4 比特量化技術(shù),LLaMA-Factory 的 QLoRA 微調(diào)進(jìn)一步降低了 GPU 顯存消耗。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

FaceChain – 是一個(gè)可以用來(lái)打造個(gè)人數(shù)字形象的深度學(xué)習(xí)模型工具。

Github:https://github.com/modelscope/facechain

介紹

FaceChain 是一個(gè)可以用來(lái)打造個(gè)人數(shù)字形象的深度學(xué)習(xí)模型工具。用戶(hù)僅需要提供最低一張照片即可獲得獨(dú)屬于自己的個(gè)人形象數(shù)字替身。

FaceChain 支持在 gradio 的界面中使用模型訓(xùn)練和推理能力、支持資深開(kāi)發(fā)者使用 python 腳本進(jìn)行訓(xùn)練推理,也支持在 sd webui 中安裝插件使用;

算法介紹

基本原理

個(gè)人寫(xiě)真模型的能力來(lái)源于 Stable Diffusion 模型的文生圖功能,輸入一段文本或一系列提示詞,輸出對(duì)應(yīng)的圖像。我們考慮影響個(gè)人寫(xiě)真生成效果的主要因素:寫(xiě)真風(fēng)格信息,以及用戶(hù)人物信息。

為此,我們分別使用線(xiàn)下訓(xùn)練的風(fēng)格 LoRA 模型和線(xiàn)上訓(xùn)練的人臉 LoRA 模型以學(xué)習(xí)上述信息。

LoRA 是一種具有較少可訓(xùn)練參數(shù)的微調(diào)模型,在 Stable Diffusion 中,可以通過(guò)對(duì)少量輸入圖像進(jìn)行文生圖訓(xùn)練的方式將輸入圖像的信息注入到 LoRA 模型中。

因此,個(gè)人寫(xiě)真模型的能力分為訓(xùn)練與推斷兩個(gè)階段,訓(xùn)練階段生成用于微調(diào) Stable Diffusion 模型的圖像與文本標(biāo)簽數(shù)據(jù),得到人臉 LoRA 模型;推斷階段基于人臉 LoRA 模型和風(fēng)格 LoRA 模型生成個(gè)人寫(xiě)真圖像。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

訓(xùn)練階段

輸入:用戶(hù)上傳的包含清晰人臉區(qū)域的圖像

輸出:人臉 LoRA 模型

描述:首先,我們分別使用基于朝向判斷的圖像旋轉(zhuǎn)模型,以及基于人臉檢測(cè)和關(guān)鍵點(diǎn)模型的人臉精細(xì)化旋轉(zhuǎn)方法處理用戶(hù)上傳圖像,得到包含正向人臉的圖像;接下來(lái),我們使用人體解析模型和人像美膚模型,以獲得高質(zhì)量的人臉訓(xùn)練圖像;隨后,我們使用人臉屬性模型和文本標(biāo)注模型,結(jié)合標(biāo)簽后處理方法,產(chǎn)生訓(xùn)練圖像的精細(xì)化標(biāo)簽;最后,我們使用上述圖像和標(biāo)簽數(shù)據(jù)微調(diào) Stable Diffusion 模型得到人臉 LoRA 模型。

推斷階段

輸入:訓(xùn)練階段用戶(hù)上傳圖像,預(yù)設(shè)的用于生成個(gè)人寫(xiě)真的輸入提示詞

輸出:個(gè)人寫(xiě)真圖像

描述:首先,我們將人臉 LoRA 模型和風(fēng)格 LoRA 模型的權(quán)重融合到 Stable Diffusion 模型中;接下來(lái),我們使用 Stable Diffusion 模型的文生圖功能,基于預(yù)設(shè)的輸入提示詞初步生成個(gè)人寫(xiě)真圖像;隨后,我們使用人臉融合模型進(jìn)一步改善上述寫(xiě)真圖像的人臉細(xì)節(jié),其中用于融合的模板人臉通過(guò)人臉質(zhì)量評(píng)估模型在訓(xùn)練圖像中挑選;最后,我們使用人臉識(shí)別模型計(jì)算生成的寫(xiě)真圖像與模板人臉的相似度,以此對(duì)寫(xiě)真圖像進(jìn)行排序,并輸出排名靠前的個(gè)人寫(xiě)真圖像作為最終輸出結(jié)果。

效果圖

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

gateway – 大模型 API 網(wǎng)關(guān)。

Github:https://github.com/Portkey-AI/gateway

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

Portkey 的 AI gateway 是您的應(yīng)用程序和托管 LLM 之間的接口。它通過(guò)統(tǒng)一的 API 將 API 請(qǐng)求簡(jiǎn)化為 OpenAI、Anthropic、Mistral、LLama2、Anyscale、Google Gemini 等。

特性

  • ? Blazing fast(快 9.9 倍),占地面積?。ㄒ寻惭b約 45kb)
  • ? 跨多個(gè)模型、提供程序和密鑰的負(fù)載平衡
  • ??失敗重試策略
  • ??LLM 接口備用策略
  • ? 根據(jù)需要插入中間件

效果圖

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

TinyLlama – 一個(gè)擁有 11 億參數(shù)的 Llama 模型,采用了與 Llama 2 完全相同的架構(gòu)和分詞器。

Github:https://github.com/jzhang38/TinyLlama

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

TinyLlama 一個(gè)擁有 11 億參數(shù)的 Llama 模型,采用了與 Llama 2 完全相同的架構(gòu)和分詞器。這意味著 TinyLlama 可以在許多基于 Llama 的開(kāi)源項(xiàng)目中插入并播放。

此外,TinyLlama 是緊湊型的,只有 1.1B 的參數(shù)。這種緊湊性使其能夠滿(mǎn)足大量需要有限計(jì)算和內(nèi)存占用的應(yīng)用程序。

效果圖

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

crewAI – 是一個(gè)用于編排角色扮演的自主 AI agent,能夠在復(fù)雜任務(wù)上無(wú)縫合作。

Github:https://github.com/joaomdmoura/crewAI

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

用于編排角色扮演、自主人工智能代理的前沿框架。通過(guò)培養(yǎng)協(xié)作智能,CrewAI 使特工能夠無(wú)縫協(xié)作,處理復(fù)雜任務(wù)。

為什么要用 crewAI?

人工智能協(xié)作的力量太大了。CrewAI 旨在使人工智能代理能夠承擔(dān)角色,共享目標(biāo),并在一個(gè)有凝聚力的單位中運(yùn)作——很像一個(gè)潤(rùn)滑良好的團(tuán)隊(duì)。

無(wú)論您是在構(gòu)建智能助理平臺(tái)、自動(dòng)化客戶(hù)服務(wù)集成還是多智能體研究團(tuán)隊(duì),CrewAI 都為復(fù)雜的多智能體交互提供了骨干。

特性

  • agent:具有自己的角色、背景故事、目標(biāo)和記憶的專(zhuān)用團(tuán)隊(duì)成員。
  • 任務(wù):給定代理應(yīng)完成的小型、專(zhuān)注的任務(wù)。
  • 工具:agent 使用的設(shè)備,用于高效完成任務(wù)。
  • 團(tuán)隊(duì):agent、任務(wù)和流程相遇的容器層,在這里進(jìn)行工作。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

jan – 號(hào)稱(chēng) ChatGPT 的開(kāi)源替代品,可在你的計(jì)算機(jī)上離線(xiàn)且私密的運(yùn)行大模型。

官網(wǎng):https://jan.ai/

Github:https://github.com/janhq/jan

介紹

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

jan 該項(xiàng)目最近才發(fā)布一個(gè)多月,現(xiàn)在 Github Star 7.6k。非常受開(kāi)發(fā)者喜歡。號(hào)稱(chēng) ChatGPT 的開(kāi)源替代品,可在你的計(jì)算機(jī)上離線(xiàn)且私密的運(yùn)行大模型。

目前在 Windows、Mac、Linux 上提供了客戶(hù)端可以下載。從 PC 到 GPU,Jan 可以在任何硬件上進(jìn)行運(yùn)行。比如英偉達(dá) GPU、Apple M 系列芯片、Inter。

基于該開(kāi)源項(xiàng)目,你可以創(chuàng)建多個(gè)對(duì)話(huà),每一個(gè)對(duì)話(huà)基于的大模型、最大的 Tokens 可以自行配置。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

AppAgent – 是一個(gè)創(chuàng)新的基于大型語(yǔ)言模型(LLM)的多模態(tài)代理框架,設(shè)計(jì)用于操作智能手機(jī)應(yīng)用程序。

Github:https://github.com/mnotgod96/AppAgent

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

我們介紹了一種新的基于 LLM 的多模式代理框架,旨在操作智能手機(jī)應(yīng)用程序。

我們的框架使代理能夠通過(guò)簡(jiǎn)化的動(dòng)作空間操作智能手機(jī)應(yīng)用程序,模仿類(lèi)似人類(lèi)的互動(dòng),如敲擊和滑動(dòng)。這種新穎的方法繞過(guò)了對(duì)系統(tǒng)后端訪(fǎng)問(wèn)的需求,從而擴(kuò)大了其在各種應(yīng)用程序中的適用性。

我們的代理功能的核心是其創(chuàng)新的學(xué)習(xí)方法。代理通過(guò)自主探索或觀(guān)察人類(lèi)演示來(lái)學(xué)習(xí)導(dǎo)航和使用新應(yīng)用程序。這個(gè)過(guò)程生成一個(gè)知識(shí)庫(kù),代理在不同的應(yīng)用程序中執(zhí)行復(fù)雜任務(wù)時(shí)參考該知識(shí)庫(kù)。

效果圖

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

auto_job__find__chatgpt__rpa- 使用 ChatGPT 制作一個(gè)自動(dòng)投簡(jiǎn)歷的開(kāi)源工具。

Github:https://github.com/Frrrrrrrrank/auto_job__find__chatgpt__rpa

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

這是一個(gè)完全免費(fèi)的腳本,只需要你們自己配置好 openai 的 api 即可

希望您能給我點(diǎn)個(gè)?star

如果在這個(gè)寒冷的招聘季,這個(gè)腳本能給您一些幫助,帶來(lái)一些溫暖,將讓我非常榮幸

希望不要有人拿著我的腳本去割韭菜,都已經(jīng)被逼到用這種腳本投簡(jiǎn)歷的地步了,身上也沒(méi)啥油水可榨了吧。

操作步驟

  1. 請(qǐng)首先配置好 openai 的 api(使用.env 文件或者在代碼中配置)
  2. 將 pdf 簡(jiǎn)歷上傳到文件夾 auto_job_find 里,命名為?“my_cover.pdf”
  3. 將需要的包安裝好
  4. 執(zhí)行 write_response.py

audio2photoreal – 這個(gè)項(xiàng)目可以從音頻生成逼真的人物形象,該項(xiàng)目包含了訓(xùn)練代碼、測(cè)試代碼、預(yù)訓(xùn)練的動(dòng)作模型以及數(shù)據(jù)集。

Github:https://github.com/facebookresearch/audio2photoreal

該項(xiàng)目還沒(méi)有發(fā)布兩個(gè)星期在 Github 上 Star 2.2k。

audio2photoreal 開(kāi)源項(xiàng)目由 Facebook Research 開(kāi)源。這個(gè)項(xiàng)目可以從音頻生成逼真的人物形象,該項(xiàng)目包含了訓(xùn)練代碼、測(cè)試代碼、預(yù)訓(xùn)練的動(dòng)作模型以及數(shù)據(jù)集。

效果圖

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

Awesome-gptlike-shellsite – 深入探索了精選的”套殼站”和必備 ChatGPT 應(yīng)用 API 資源。

Github:https://github.com/bleedline/Awesome-gptlike-shellsite

介紹

深入探索精選的套殼站和必備 API 資源。本項(xiàng)目為初學(xué)者和經(jīng)驗(yàn)豐富的運(yùn)營(yíng)者提供一站式指南,涵蓋常見(jiàn)問(wèn)題解答和基礎(chǔ)攻略,助您邁向套殼站副業(yè)成功之路。

目前項(xiàng)目接受優(yōu)質(zhì)的 AI 站點(diǎn)部署資源,包括但不限于 API,套殼站,云服務(wù)器,可以加入開(kāi)發(fā)者們的鏈接。

去哪里找殼比較好:Github 上有一些開(kāi)源的項(xiàng)目,我們?yōu)榇蠹艺砹艘恍?,但是更多需求還需自己去尋找合適的 ” 殼 ”。

千言萬(wàn)語(yǔ),不然一張長(zhǎng)圖,具體如下圖:

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

CopilotKit – AI 聊天機(jī)器人工具。

Github:https://github.com/CopilotKit/CopilotKit

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

介紹

CopilotKit 是一個(gè)用于在 react web 應(yīng)用中構(gòu)建應(yīng)用內(nèi) AI 聊天機(jī)器人和 AI 驅(qū)動(dòng)的文本區(qū)域的庫(kù)。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

CopilotKit 是一個(gè)開(kāi)源平臺(tái),它提供了兩個(gè)核心組件:CopilotPortal 和 CopilotTextarea。這兩個(gè)組件共同工作,為用戶(hù)提供了一個(gè)無(wú)縫的 AI 增強(qiáng)體驗(yàn)。

CopilotPortal是一個(gè)能夠“看到”當(dāng)前應(yīng)用狀態(tài)并執(zhí)行操作的AI 聊天機(jī)器人。它不僅能夠與應(yīng)用的前端和后端進(jìn)行通信,還能通過(guò)插件與第三方服務(wù)如 Salesforce 和 Dropbox 等進(jìn)行交互。想象一下,你的用戶(hù)可以在應(yīng)用內(nèi)直接與 AI 對(duì)話(huà),獲取即時(shí)的幫助和操作指導(dǎo),這無(wú)疑將極大地提升用戶(hù)體驗(yàn)和效率。

CopilotTextarea 是一個(gè)智能文本編輯器,它能夠提供上下文感知的自動(dòng)補(bǔ)全、AI 編輯以及從零開(kāi)始生成內(nèi)容的功能。這意味著用戶(hù)在編寫(xiě)文本時(shí),CopilotTextarea 能夠根據(jù)上下文提供合適的建議,甚至自動(dòng)完成句子。這種智能化的編輯體驗(yàn)將極大地提高文本創(chuàng)作的效率和質(zhì)量。

特性

  • 支持多種流行的 AI 模型, 如 ChatGPT、Anthropic、Cohere 等
  • 易于集成到現(xiàn)有的 react 應(yīng)用中
  • 提供應(yīng)用內(nèi)聊天界面和 AI 驅(qū)動(dòng)的富文本組件
  • 靈活的配置選項(xiàng)和回調(diào)函數(shù)
  • 支持自定義 UI 和樣式
  • 開(kāi)源, 免費(fèi)使用

CopilotKit 使開(kāi)發(fā)者可以非常方便地在他們的 web 應(yīng)用中加入 AI 功能, 如讓用戶(hù)與聊天機(jī)器人互動(dòng)、提供 AI 輔助的文本輸入等。它抽象了底層的 AI 服務(wù)調(diào)用邏輯, 開(kāi)發(fā)者只需簡(jiǎn)單配置就可以使用。

15 個(gè)沖上熱搜的 AI 大模型 Github 開(kāi)源項(xiàng)目

總結(jié)

總而言之,AI 大模型代表了人工智能領(lǐng)域的一次突破。它們通過(guò)巨大的參數(shù)規(guī)模和強(qiáng)大的學(xué)習(xí)能力,將人工智能技術(shù)帶入了一個(gè)全新的階段。盡管 AI 大模型面臨一些挑戰(zhàn),但隨著技術(shù)的不斷進(jìn)步和發(fā)展,相信這些模型將在未來(lái)的各個(gè)領(lǐng)域中發(fā)揮重要作用,為人類(lèi)帶來(lái)更多的便利和創(chuàng)新。

正文完
 0
老馬
版權(quán)聲明:本站原創(chuàng)文章,由 老馬 于2024-02-13發(fā)表,共計(jì)9155字。
轉(zhuǎn)載說(shuō)明:本站提供的一切軟件、教程、電子書(shū)、視頻、圖片、音樂(lè)、文字以及所有內(nèi)容信息僅供個(gè)人學(xué)習(xí)、研究或欣賞;不得將上述內(nèi)容用于商業(yè)或者非法用途,否則,一切后果請(qǐng)用戶(hù)自負(fù)。本站信息來(lái)自網(wǎng)友分享及網(wǎng)絡(luò)收集整理,版權(quán)爭(zhēng)議與本站無(wú)關(guān)。您必須在下載后的24個(gè)小時(shí)之內(nèi),從您的電腦或手機(jī)中徹底刪除上述內(nèi)容。如果您喜歡相關(guān)內(nèi)容信息,請(qǐng)支持正版,進(jìn)行購(gòu)買(mǎi)注冊(cè),以得到更好的正版服務(wù)。我們非常重視版權(quán)問(wèn)題,如有侵權(quán)請(qǐng)郵件與我們聯(lián)系處理。敬請(qǐng)諒解!侵刪請(qǐng)致信E-mail:tntwl@qq.com
評(píng)論(沒(méi)有評(píng)論)