Fonctionnalites
Privacy-first
Vos donnees restent sur votre environnement. Compatible GDPR.
One-line setup
Une seule ligne de code pour instrumenter tous vos appels LLM.
Auto-instrumentation
Support automatique pour OpenAI SDK. Anthropic et Gemini bientot.
Backends flexibles
Export JSONL local ou Google Sheets en temps reel.
Quick Start
from hilt import instrument, uninstrument
from openai import OpenAI
# Enable automatic logging
instrument(backend="local", filepath="logs/chat.jsonl")
client = OpenAI()
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "Hello!"}],
)
print(response.choices[0].message.content)
# Stop logging when done
uninstrument()Apres l'appel instrument(), tous les prompts et completions sont automatiquement enregistres avec latence, tokens, cout et codes de statut.
Colonnes disponibles
Selectionnez les colonnes dont vous avez besoin pour la conformite ou les dashboards.
| Colonne | Description |
|---|---|
| timestamp | Horodatage ISO (UTC) |
| conversation_id | Identifiant de thread stable |
| event_id | UUID unique de l'evenement |
| speaker | human / agent |
| action | Type: prompt, completion, system |
| message | Contenu normalise (500 chars max) |
| tokens_in | Tokens du prompt |
| tokens_out | Tokens de la completion |
| cost_usd | Cout monetise (6 decimales) |
| latency_ms | Latence wall-clock |
| model | Label provider/model |
Options de stockage
JSONL local (defaut)
instrument( backend="local", filepath="logs/app.jsonl" )
- • Privacy-first: donnees locales
- • Compatible Pandas, Spark, etc.
Google Sheets (temps reel)
instrument( backend="sheets", sheet_id="1abc...", credentials_path="creds.json" )
- • Ideal pour support, QA, couts
- • Installer: pip install "hilt[sheets]"
Roadmap
Auto-instrumentation OpenAI SDK
Auto-instrumentation Anthropic Claude
Auto-instrumentation Google Gemini
Auto-instrumentation LangGraph
