🔍
Search AI
search-ai.pl
Strona głównaRoutery AILiteLLM
LI

LiteLLM

0(0)·Routery AI
Darmowy (open-source MIT)Odwiedź stronę →

O narzędziu

LiteLLM to narzędzie open-source (licencja MIT) w Pythonie, które daje dostęp do ponad 100 dostawców modeli AI przez jedno API. Można je uruchomić na własnym serwerze, co daje pełną kontrolę nad danymi. Oferuje zarządzanie budżetem na klucze API, limity zapytań, rozkładanie obciążenia i automatyczne przełączanie dostawców. Używane przez tysiące firm do ujednolicenia dostępu do modeli. Idealne dla zespołów DevOps i platform.

📋

Zastosowanie

  • Ujednolicenie dostępu do wielu providerów LLM w firmie.
  • Zarządzanie budżetami i limitami per zespół/klucz API.
  • Load balancing i fallbacki między providerami.
  • Proxy dla lokalnych modeli (Ollama, vLLM).
  • Audyt i logowanie wszystkich zapytań LLM.

Funkcje dodatkowe

  • OpenAI-compatible proxy.
  • Budget management per key/user/team.
  • Rate limiting i load balancing.
  • Automatyczne fallbacki.
  • Caching.
  • Logging do Langfuse, Helicone, Weights and Biases.

✓ Zalety

+Open-source MIT, pełna kontrola kodu
+100+ providerów LLM przez jedno API
+Self-hosted, dane nie opuszczają infrastruktury
+Budget management i rate limiting per klucz API

✗ Wady

Wymaga self-hostingu i utrzymania infrastruktury
Konfiguracja bardziej techniczna niż hosted rozwiązania
Brak natywnego UI marketplace
🧠

Dostępne modele

  • OpenAI (GPT-4o, GPT-4o-mini).
  • Anthropic (Claude 3.5).
  • Google (Gemini).
  • AWS Bedrock.
  • Azure OpenAI.
  • Hugging Face.
  • Ollama.
  • VLLM.
  • 100+ providerów.
💰

Cennik

  • Self-hosted: DARMOWY (MIT license).
  • Enterprise: custom (SSO, premium support, SLA).
🔗

API i integracje

  • OpenAI-compatible REST API.
  • Python SDK.
  • Integracja z Langfuse, Helicone, Prometheus.
  • Docker deployment.
  • Kubernetes Helm chart.

Szczegóły

CenaDarmowy (open-source MIT)
KategoriaRoutery AI
Open-sourceMITSelf-hosted100+ providerówPythonBudget management