LM Studio

LM Studio

Technology, Information and Internet

Discover, download, and run local LLMs.

About us

Download and run local LLMs on your computer 👾

Website
https://lmstudio.ai
Industry
Technology, Information and Internet
Company size
2-10 employees
Headquarters
Brooklyn
Type
Educational
Founded
2023

Locations

Employees at LM Studio

Updates

  • LM Studio reposted this

    View profile for Julien Chaumond, graphic

    CTO at Hugging Face

    This is game-changer for my local ML workflows: LM Studio 0.3.4 ships with Apple MLX 🚢🍎 Run on-device LLMs super fast, 100% locally and offline on your Apple Silicon Mac. Includes: > run Llama 3.2 1B at ~250 tok/sec (!) on M3 > enforce structured JSON responses (via .txt's outlines 🔥) > use via chat UI, or from your own code > run multiple models simultaneously > download any model from Hugging Face The video below is at 1x speed. via Yagil Burowski and LM Studio based on terrific work from Awni Hannun and the community! 🦾

  • LM Studio reposted this

    View profile for Leonard Park, graphic

    Experienced LegalTech Product Manager and Attorney | Passionate about leveraging AI/LLMs

    If you have an Apple silicon computer with a decent amount of RAM, you can get a quantized Meta Llama 3.1 8B running with a drag-and-drop installer from LM Studio (https://lmstudio.ai/) in about five minutes, where four of those minutes is just downloading the model weights within the app from Hugging Face. It has a built-in ChatGPT-like interface, as well as some built-in PDF ingestion and embedding features to create a simple RAG system, that's a bit wonky but fun to play with. 4-bit Llama 3.1 8B is better than expected as a model running locally, although it isn't going to impress anyone used to closed model performance.

  • LM Studio reposted this

    View profile for Yagil Burowski, graphic

    Building LM Studio (lmstudio.ai)

    LM Studio 0.3.4 just shipped with support for Apple MLX! 🚢 🍎 Run on-device LLMs on Apple Silicon Macs extremely fast, locally & offline. Includes: > run Llama 3.2 1B at ~250 tok/sec (!) on M3 > use via chat UI -or- local server (OpenAI-like endpoints) > ability to enforce structured JSON responses (Rémi Louf's outlines) > run Vision LLMs like LLaVA (thanks to Prince Canuma's mlx-vlm) > LM Studio's MLX engine is open source! Announcement: https://lmstudio.ai/mlx Github: https://lnkd.in/eXeMhF6g Download: https://lnkd.in/ekZMtGqe Special thanks to Awni Hannun 🦾🙏 Video at 1x speed.

  • LM Studio reposted this

    View profile for Daniel Alisch, graphic

    Managing Consultant und Teamleiter bei mindsquare GmbH

    Ein Erfahrungsbericht: Lokale LLM mit LM Studio einrichten und warum es für mich ein Game-Changer war 🖥️🧠 Einleitung Als technikbegeisterter KI-Enthusiast hatte ich schon immer den Wunsch, eine lokale Language Learning Model (LLM) bei mir zu Hause einzurichten. Einer der Hauptgründe war mein Sicherheitsbedenken, ob meine Daten, die ich über APIs mit großen Anbietern wie OpenAI teile, möglicherweise zum Trainieren ihrer Modelle verwendet werden. Zwar gibt OpenAI an, dass die Daten nicht fürs Anlernen genutzt, sondern lediglich zur Überprüfung auf unangemessene Anfragen gespeichert werden – dennoch wollte ich mehr Kontrolle über meine eigenen Daten haben. Das Problem Die Idee, eine lokale LLM zu betreiben, klang spannend, aber ist das nicht recht aufwändig? Die meisten verfügbaren Optionen erfordern umfangreiche Kenntnisse in der Serverkonfiguration und Modellbereitstellung. Zudem sind viele Lösungen für den produktiven Einsatz oder die Forschung konzipiert, aber weniger für den unkomplizierten Gebrauch durch technisch interessierte Privatpersonen. Die Lösung: LM Studio Hier kam LM Studio ins Spiel – eine One-Click-Lösung, die es unglaublich einfach macht, eine lokale LLM aufzusetzen. Mit nur wenigen Klicks wird ein Service direkt auf dem PC erstellt, der über REST APIs angesprochen werden kann. Wichtig ist, CORS muss aktiviert werden. LM Studio bot mir genau die einfache und unkomplizierte Lösung, die ich gesucht hatte. - Schnelle Einrichtung: Es dauert nur wenige Minuten, die LLM lokal bereitzustellen. Keine komplizierten Befehle, kein manuelles Setup. - Volle Kontrolle: Da die LLM lokal auf meinem PC läuft, weiß ich genau, was mit meinen Daten geschieht. Ich bin nicht auf die Angaben eines Dritten angewiesen. - Flexibilität: Die Möglichkeit, über REST APIs direkt auf das Modell zuzugreifen, gibt mir die Freiheit, verschiedene Anwendungen und Tools nahtlos zu integrieren. Die Vorteile für mich Der größte Vorteil, den ich in der Einrichtung einer lokalen LLM mit LM Studio gefunden habe, war die absolute Kontrolle über meine Daten. Ich musste mir keine Sorgen mehr machen, dass sensible Informationen möglicherweise irgendwohin gesendet oder gespeichert werden, wo ich keinen Einfluss darauf habe. Zudem war ich überrascht, wie benutzerfreundlich und effizient das Setup mit LM Studio ist. Mit minimalem Aufwand konnte ich eine eigene LLM betreiben, die zu meinen Anforderungen passt – ideal für persönliche Projekte oder Experimente mit KI-Technologien. Warum es für Sie interessant sein könnte Für alle, die sich mit KI beschäftigen, ihre Daten aber lieber in ihren eigenen vier Wänden behalten wollen, bietet eine lokale LLM eine großartige Alternative zu großen Cloud-Anbietern. LM Studio macht den Einstieg unglaublich einfach und gibt Ihnen die Kontrolle über Ihre eigenen Daten zurück – und das mit minimalem technischem Aufwand. Vielleicht lohnt es sich, einmal darüber nachzudenken, ob eine lokale LLM auch für Ihre Bedürfnisse passen könnte? 😊

    • No alternative text description for this image
    • No alternative text description for this image
    • No alternative text description for this image
  • LM Studio reposted this

    View profile for Ramine Roane, graphic

    Making AI ubiquitous | Corporate Vice President @ AMD

    Day 1 success! Llama-3.2 3B ran smoothly out of the box on an #AMD Ryzen AI #laptop processor with integrated #Radeon GPU. 👀 Watch as it’s solving a #physics problem real-time (in less than 7 seconds). #Endpoint #AI just leveled up! Thanks to our partner LM Studio for turning around this demo within 4h of the llama-3.2 launch!! 🚀

  • View organization page for LM Studio, graphic

    1,777 followers

    Introducing LM Studio 0.3.0 - discover, download and run local LLMs! LM Studio is the easiest way to run LLMs locally on your computer. Within minutes you can be chatting with the leading open-source models like Llama 3.1, Gemma 2, and Phi 3. And there’s never been a better time to get started. From an entirely refreshed interface, to chatting with documents using RAG, to support for new languages, this is a whole new LM Studio. What’s Included: - Built-in Chat with Documents (aka RAG) 📑 - Total UI overhaul (with all the same customization features you know & love) 🎨 - Automatic GPU detection + offload 🎛️ - UI now also available in Spanish, German, French, Norwegian, Turkish, & Russian 🗺️ - Conversation management (folders, notes, chat cloning + branching) 📁 - OpenAI-compatible Structured Output API 🛠️ - Load & serve multiple LLMs on the network 👯 .. and tons more! 👾

Similar pages