Die leichtere lokale Chat-Oberflaeche in SindByte fuer direkte Ausfuehrung nach der Vergleichsphase.

LMChat

LMChat ist der schnelle Chat-Schreibtisch in SindByte: Modell waehlen, fokussierten Prompt starten, Bild anhangen, bei Bedarf IQ-Helfer ziehen und ohne das schwerere Mehr-Modell-Setup von Dialog-LAB weiterarbeiten.

Ein-Modell-Fokus
Provider- und Modellwahl
IQ-Helfer Handoffs
Attachments
Transkription bei Konfiguration
Dialog-LAB Begleiter

Das aktuelle Config-Audit zeigt 237 Feature-Flag-Eintraege in 19 MCP-Familien. Mit den zwei Core-/Runtime-Routen ergibt sich eine host-aufrufbare Oberflaeche von 239 Tools. LMChat sitzt auf genau dieser Runtime und bleibt selbst dann hilfreich, wenn Registrierungsfilter den publizierten Katalog bewusst klein halten.

LMChat Live-Oberflaeche
Live LMChat aus dem aktuellen Build. Ideal, wenn direkte Prompts, Modellwechsel und schnelle Folgeaktionen wichtig sind, ohne die volle Vergleichslab-Logik zu oeffnen.

Wofuer LMChat am besten ist

Schnelle Iteration

LMChat ist richtig, wenn Aufgabe und Richtung schon klar sind und Prompts, Dateien oder Screenshots schnell weitergedreht werden sollen.

Modell- und Providerwahl

Zwischen lokalen LM-Flows und konfigurierten externen Routen wechseln, ohne fuer jeden Lauf die Host-Konfiguration neu zu bauen.

Gezielte IQ-Hilfe

Nur dann auf Validate, Multi-Angle Review oder andere IQ-Helfer hochschalten, wenn eine normale Antwort nicht reicht.

LMChat und Dialog-LAB sind nicht dasselbe

Dialog-LAB Live-Oberflaeche
Dialog-LAB ist die schwerere Vergleichsbank. LMChat ist die leichtere Ausfuehrungsflaeche, sobald die Richtung feststeht.

Empfohlenes Operator-Muster

1. Erst vergleichen, wenn du unsicher bist: Starte in Dialog-LAB, wenn Mehr-Modell-Review oder Thinking-Spuren gebraucht werden.
2. Dann in LMChat weiterarbeiten: Gewinner-Prompt, Antwort oder ueberarbeitete Instruktion in LMChat uebernehmen und dort schneller iterieren.
3. Nur bei Bedarf eskalieren: IQ-Helfer, Attachments oder Transkription dazunehmen, wenn mehr als reiner Chat noetig ist.

Praktische Faehigkeiten in der Oberflaeche

Provider- und Modellwechsel

Die gemeinsame Provider/Model-Auswahl verbindet lokale LM-Flows und konfigurierte externe Routen in derselben Produktoberflaeche.

Attachment-basierte Pruefung

Screenshots oder andere Bilder direkt an den Chat haengen, wenn auf echte UI- oder Bildzustande reagiert werden muss.

Transkriptions-Support

Wenn der benoetigte Providerpfad konfiguriert ist, kann LMChat Sprache schneller in Prompts umsetzen.

IQ-Helfer-Paesse

Entwuerfe bei Bedarf durch Validate, Multi-Angle Review oder aehnliche IQ-Helfer schicken und danach in den Chatfluss zurueckkehren.

Workflow-Handoffs

Ein guter LMChat-Prompt kann spaeter Timer-Prompt, Trading-Notiz oder der naechste Tool-Schritt in der Runtime werden.

Auch mit Short Registration sinnvoll

LMChat bleibt nuetzlich, selbst wenn der Host nur einen kompakten Tool-Katalog sieht, weil die Runtime weiterhin eine gefuehrte lokale Chat-Oberflaeche liefert.

Wichtige Workflow-Verknuepfungen

Dialog-LAB Handoff: Dort vergleichen, hier ausfuehren. So bleiben schwere Review-Runden und schnelle Folgearbeit sauber getrennt.
Timer + IQ Handoff: Einen bewaehrten LMChat-Prompt in eine wiederkehrende Routine ueberfuehren, sobald der Ablauf nicht mehr einmalig ist.
Trading- und Bild-Handoff: Freigegebene Formulierungen in Trading-Notizen, Screenshot-Review oder generierte Assets uebernehmen, wenn die breitere Runtime aktiv ist.
Betriebshinweis: LMChat ist absichtlich leichter als Dialog-LAB. Wenn deterministische Mehr-Modell-Vergleiche, Thinking-Spuren oder explizite Round-Control gebraucht werden, zuerst Dialog-LAB verwenden und danach in LMChat zurueckkehren.

Naechster Schritt

Gehe weiter zu den Workflow-Rezepten fuer den Dialog-LAB-zu-LMChat-Handoff oder zur Anleitung, falls Setup und Registrierung noch offen sind.