🔍
Search AI
search-ai.pl
Strona głównaInferencja LokalnaLM Studio
LM

LM Studio

0(0)·Inferencja Lokalna
Darmowy (do użytku osobistego)Odwiedź stronę →

O narzędziu

LM Studio to aplikacja desktopowa z graficznym interfejsem do uruchamiania modeli AI lokalnie. Ma wbudowane pobieranie modeli z Hugging Face i obsługę formatu GGUF. Wspiera karty graficzne AMD (Vulkan) obok NVIDIA. Uruchamia lokalny serwer z API kompatybilnym z OpenAI. Oferuje interfejs czatu z historią rozmów. Idealne dla osób, które chcą korzystać z lokalnego AI bez używania terminala.

📋

Zastosowanie

  • Lokalne AI z graficznym interfejsem.
  • Pobieranie i testowanie modeli z Hugging Face.
  • Prywatny chatbot na własnym komputerze.
  • Local server dla integracji z aplikacjami.
  • Porównywanie modeli side-by-side.

Funkcje dodatkowe

  • GUI chat interface.
  • Model browser (Hugging Face).
  • Local server (OpenAI-compatible API).
  • Vulkan backend (AMD + NVIDIA).
  • Chat history.
  • Model comparison.
  • Preset configurations.
  • Quantization selection.

✓ Zalety

+Graficzny interfejs, zero terminala
+Pobieranie modeli z Hugging Face jednym kliknięciem
+Wsparcie AMD GPU (Vulkan) obok NVIDIA
+Local server z OpenAI-compatible API

✗ Wady

Darmowy tylko do użytku osobistego
Zamknięte źródło (nie open-source)
Wolniejszy niż llama.cpp CLI
🧠

Dostępne modele

  • Wszystkie modele GGUF z Hugging Face.
  • Llama 3.1.
  • Mistral.
  • Gemma 2.
  • Phi-3.
  • Qwen 2.5.
  • CodeLlama.
  • DeepSeek.
  • Tysiące modeli z jednym kliknięciem.
💰

Cennik

  • Darmowy: użytek osobisty.
  • Business: licencja komercyjna (kontakt).
🔗

API i integracje

  • OpenAI-compatible local server (REST API).
  • Integracja z Continue.dev, Open WebUI, LangChain.
  • Python i TypeScript SDK.

Szczegóły

CenaDarmowy (do użytku osobistego)
KategoriaInferencja Lokalna
Desktop GUIHugging FaceVulkanAMDLocal serverGGUF