跳过内容

GPT4All 监控

GPT4All 集成了 OpenLIT OpenTelemetry 自动检测功能,以对您的 LLM 应用程序和 GPU 硬件进行实时监控。

监控可以通过自动生成的跟踪和指标来增强您的 GPT4All 部署,用于:

  • 性能优化:分析延迟、成本和令牌使用情况,以确保您的 LLM 应用程序高效运行,快速识别并解决性能瓶颈。

  • 用户交互洞察:捕获每个提示和响应,以更好地理解用户行为和使用模式,从而改善用户体验和参与度。

  • 详细的 GPU 指标:监控重要的 GPU 参数,如利用率、内存消耗、温度和功耗,以保持最佳硬件性能并避免潜在问题。

设置监控

设置监控

使用 OpenLIT,您可以自动监控 LLM 部署的跟踪和指标

pip install openlit
from gpt4all import GPT4All
import openlit

openlit.init()  # start
# openlit.init(collect_gpu_stats=True)  # Optional: To configure GPU monitoring

model = GPT4All(model_name='orca-mini-3b-gguf2-q4_0.gguf')

# Start a chat session and send queries
with model.chat_session():
    response1 = model.generate(prompt='hello', temp=0)
    response2 = model.generate(prompt='write me a short poem', temp=0)
    response3 = model.generate(prompt='thank you', temp=0)

    print(model.current_chat_session)

可视化

OpenLIT UI

连接到 OpenLIT 的 UI,开始探索收集到的 LLM 性能指标和跟踪。请访问 OpenLIT 快速入门指南 获取详细的步骤说明。

Grafana、DataDog 和其他集成

您还可以将 OpenLIT 收集的数据发送到 Grafana 和 DataDog 等流行的监控工具。有关设置这些连接的详细说明,请参阅 OpenLIT 连接指南