Lokaler KI-Wissensassistent

Eigene Dokumente befragen — vollständig offline.

LokLM speichert deine Dokumente verschlüsselt auf dem Gerät und beantwortet Fragen über eine Chat-Oberfläche — mit klickbaren Quellenverweisen. Keine Cloud, keine externen KI-APIs.

100% offline Lokale Verschlüsselung Open Source · MIT
Funktionen

Was LokLM kann

Eine Desktop-Anwendung für alle, die Antworten mit verlässlichen Quellen brauchen — ohne ihre Daten aus der Hand zu geben.

  • Vollständig offline

    Modelle laufen lokal. Kein Account, kein Telemetrie-Ping, keine API-Aufrufe an externe Anbieter.

  • Klickbare Quellenverweise

    Jede Antwort enthält Belege aus deinen eigenen Dokumenten — direkt anklickbar bis zur Originalstelle.

  • PDF, Markdown, Text, Code

    Importiere Dokumente in den gängigen Formaten und organisiere sie in Arbeitsbereichen.

  • Verschlüsselter Vault

    Argon2id-Passwort-Hashing, AES-GCM-Verschlüsselung pro Datei, Wiederherstellung über 18-Wort-Phrase.

  • Daten bleiben bei dir

    Alles wird in einer einzigen Vault-Datei gespeichert — leicht zu sichern, leicht zu migrieren.

  • Quelltext einsehbar

    MIT-Lizenz. Audit, fork, beitragen — der gesamte Code ist auf GitHub einsehbar.

Download

Download

Aktuelle Version. Verifiziere die SHA-256-Prüfsumme vor der Installation.

Version

v0.1.2

Veröffentlicht

2026-05-17

Größe

103 MB

windows

103 MB

Für Windows herunterladen

macos

Bald verfügbar

linux

Bald verfügbar

Erste Installation lädt ca. 20 GB Modelldateien. Stabile Verbindung empfohlen.

SHA-256 — LokLM-Setup-0.1.2.exe

f18dd8da2dafe129fd7ae715f6bfc77f19d57cc36554bd441a21733d846e85dd

Systemanforderungen

Windows 10/11 (x64)

RAM

16 GB RAM empfohlen

Disk

25 GB freier Speicher