Eigene Dokumente befragen — vollständig offline.
LokLM speichert deine Dokumente verschlüsselt auf dem Gerät und beantwortet Fragen über eine Chat-Oberfläche — mit klickbaren Quellenverweisen. Keine Cloud, keine externen KI-APIs.
Was LokLM kann
Eine Desktop-Anwendung für alle, die Antworten mit verlässlichen Quellen brauchen — ohne ihre Daten aus der Hand zu geben.
-
Vollständig offline
Modelle laufen lokal. Kein Account, kein Telemetrie-Ping, keine API-Aufrufe an externe Anbieter.
-
Klickbare Quellenverweise
Jede Antwort enthält Belege aus deinen eigenen Dokumenten — direkt anklickbar bis zur Originalstelle.
-
PDF, Markdown, Text, Code
Importiere Dokumente in den gängigen Formaten und organisiere sie in Arbeitsbereichen.
-
Verschlüsselter Vault
Argon2id-Passwort-Hashing, AES-GCM-Verschlüsselung pro Datei, Wiederherstellung über 18-Wort-Phrase.
-
Daten bleiben bei dir
Alles wird in einer einzigen Vault-Datei gespeichert — leicht zu sichern, leicht zu migrieren.
-
Quelltext einsehbar
MIT-Lizenz. Audit, fork, beitragen — der gesamte Code ist auf GitHub einsehbar.
Download
Aktuelle Version. Verifiziere die SHA-256-Prüfsumme vor der Installation.
Version
v0.1.2
Veröffentlicht
2026-05-17
Größe
103 MB
Erste Installation lädt ca. 20 GB Modelldateien. Stabile Verbindung empfohlen.
SHA-256 — LokLM-Setup-0.1.2.exe
f18dd8da2dafe129fd7ae715f6bfc77f19d57cc36554bd441a21733d846e85dd Systemanforderungen
Windows 10/11 (x64)
RAM
16 GB RAM empfohlen
Disk
25 GB freier Speicher