Fine-Tune Model
模型微調工作流程
- 準備資料集(訓練資料)
- 準備基礎模型
- 匯入資料集
- 開始微調作業 (Fine-Tune)
- 評估新模型損失曲線
- 以新模型做實際推論
準備資料集
開始微調模型之前,您必須先建立用來微調模型的資料集。為獲得最佳效能,資料集內的範例必須具有高品質、多元且代表真實輸入和輸出的要素。
格式
資料集中包含的範例應符合您預期的實際工作環境流量。如果您的資料集含有特定格式、關鍵字、操作說明或資訊,則實際工作環境資料的格式應相同,並含有相同的指示。
例如,如果資料集中的範例包含 "
question:
" 和 "context:
",則實際工作環境流量也應一併設定包含 "question:
" 和 "context:
" 的格式,且順序應與資料集範例中的順序相同。如果您排除結構定義,即使資料集的範例包含確切的問題,模型將無法辨識模式。在資料集中的每個範例中加入提示或前置碼,也有助於改善調整後模型的效能。請注意,如果資料集中包含提示或前置碼,那麼在推論時向已調整的模型發出提示時,也應包含該提示或前置碼。
Tools & Platform
Unsloth
Unsloth - Easily finetune & train LLMs
微調模型專用的 Python 函式庫,在地端使用 GPU 資源對各種 Open Source 模型進行微調作業。
- GitHub: https://github.com/unslothai/unsloth
- Video: https://www.youtube.com/watch?v=LPmI-Ok5fUc
- Video: 最新Mistral V3模型,免費微調模型 勞基法實作 #ai #llm #mistral #mistral7b #finetune #人工智能 #人工智慧 #nlp #embedding - YouTube
Atlas
Atlas by NOMIC - 資料集(非結構化資料)品質檢測服務
AnythingLLM
具有 Chat/Fine-Tune/Multi-Model 多功能的平台
CoLab
Model
Gemini-Pro
要微調 Gemini-Pro 模型,有三種不同方式呼叫 Gemini API 來做微調作業,Google AI Studio、Python SDK、REST API (curl)。