Skip to main content

LLM Models

Chinese LLMs
Code LLMs
Benchmark
  • PromptBench: A Unified Library for Evaluating and Understanding Large Language Models.
Function Calling LLMs
Content Safty
  • Google ShieldGemma
    ShieldGemma則是個安全分類模型,可額外部署在模型的輸入及輸出端,用以過濾有害內容,它主要篩選4大領域的內容,包括仇恨言論、騷擾、裸露的色情內容,以及危險內容。