Skip to main content

LLM Models

Chinese LLMs
Code LLMs
LLM Evaluation
Function Calling LLMs
Content Safty
  • Google ShieldGemma
    ShieldGemma則是個安全分類模型,可額外部署在模型的輸入及輸出端,用以過濾有害內容,它主要篩選4大領域的內容,包括仇恨言論、騷擾、裸露的色情內容,以及危險內容。