hcs-llm-autotrainer-web v2 beta

Von Idee zu Tiny-LLM-Experiment im Browser – Schritt für Schritt.

GPU: -- Autosave: --
Schnellstart (2 Minuten)
  1. Idee eingeben und Plan erstellen
  2. Im Dataset-Tab mindestens 3 Quellen hinzufügen
  3. Dataset bauen und Tokenizer trainieren
  4. Training starten und danach im Assist testen

        

Dataset Pipeline


          
idle

Tasks

Logs


        

Beginner LLM Playground

Standard ist Gemma GGUF quantized (Beginner-Workflow). Falls Laden fehlschlägt, nutze StarterLM ohne Download.

StarterLM Ideal für Anfänger: kein Setup, läuft sofort lokal im Browser.
Bereit.

          


          

Backup & Export

Lokale Backups aktiv.

Run Comparison

Hilfe & Erklärungen

Was ist diese App?

Eine lokale Browser-App für Tiny-LLM-Experimente: Idee → Daten → Tokenizer → Training → Test.

LLM-Modi erklärt

Gemma GGUF = realistischere Antworten (Download nötig). StarterLM = sofort startklar ohne Download.

Dataset Tipps

Nutze gemischte Quellen, kurze saubere Texte und mindestens 2.000 Tokens für stabile Resultate.

Training Tipps

Beginne mit tiny/small Preset und 200–400 Steps. Vergleiche Runs und ändere jeweils nur 1 Parameter.

Mini-Glossar
  • Loss: Fehlerwert (niedriger ist besser)
  • Val: Qualität auf Validierungsdaten
  • Tokenizer: zerlegt Text in Tokens
  • Checkpoint: Zwischenstand des Trainings

Sprache auswählen