繁中

免費使用 mixtral-8x7b 在線

Mixtral-8x7B 是由 Mistral AI 開發的先進大規模語言模型 (LLM)。它是一種稀疏專家混合 (SMoE) 模型,以其生成人類品質的文本、翻譯語言、撰寫不同類型的創意內容以及以信息性方式回答問題的能力而聞名。
mixtral-8x7b
開始
免費研究預覽。AIChat可能會產生關於人物、地點或事實的不準確信息。