PowerBASIC Modellbibliothek

Weitere KI-Modell-Downloads

PowerBASIC-fokussierte Qwen 9B DoRA GGUF Modellvarianten fuer lokale KI-Runtimes wie LM Studio, Ollama, llama.cpp-kompatible Tools, KoboldCpp, text-generation-webui und andere lokale GGUF-faehige Inferenzumgebungen.

Wenn du lokal mit KI-Tools arbeitest und den Fokus bewusst auf PowerBASIC-Code legst, sind diese Modelle als gute Zusatzoption gedacht. Wähle die Quantisierung nach deinem verfügbaren RAM/VRAM: Q4_K_M für einen sparsamen Einstieg, Q5_K_M/Q6_K für mehr Qualität oder Q8_0 für maximale Präzision.

Qwen 9B PowerBASIC Modell-Download Visual
Die GGUF-Dateien liegen im gemeinsamen Downloadbereich ausserhalb von AISPR und koennen in LM Studio, Ollama-Imports, llama.cpp-kompatiblen Runnern, KoboldCpp, text-generation-webui und aehnlichen lokalen Modell-Tools verwendet werden.

Einfach starten

Beginne mit Q4_K_M, ausser du weisst sicher, dass dein Rechner genug Speicher fuer groessere Varianten hat.

Qualitaet erhoehen

Nutze Q5_K_M oder Q6_K, wenn du staerkere Ausgabequalitaet willst und mehr Speicher einsetzen kannst.

Referenz-Einsatz

Nutze Q8_0 nur fuer leistungsfaehige Hardware, Archivierung, Konvertierung oder Referenz-Workflows.

Hugging Face

Repository und Modellkarten

Alle aktuellen Modell-Dateien und Release-Informationen liegen in einem Repo mit konsistenten Dateinamen, Metadaten und direkten Download-Links.

Verfuegbare Dateien

Qwen 9B PowerBASIC GGUF Varianten

Online auf Hugging Face: https://huggingface.co/Theogott/pb-qwen3_5-9b-powerbasic-ggufs

Ausgewogen~6.47 GB

Q5_K_M

Ein starker Mittelweg mit besserer Ausgabequalitaet, bleibt aber fuer viele lokale KI-Setups noch gut handhabbar.

PB_qwen3_5_9b_dora-Q5_K_M.gguf

Modell herunterladen
Hoehere Qualitaet~7.36 GB

Q6_K

Geeignet, wenn mehr Speicher fuer staerkere Antworten und stabileres codeorientiertes Verhalten verfuegbar ist.

PB_qwen3_5_9b_dora-Q6_K.gguf

Modell herunterladen
Hohe Praezision~9.53 GB

Q8_0

Fuer leistungsfaehige Hardware, wenn Qualitaet wichtiger ist als Downloadgroesse und Speicherbedarf.

PB_qwen3_5_9b_dora-Q8_0.gguf

Modell herunterladen
Hoechste Praezision~15.34 GB

BF16

Fuer anspruchsvolle Workflows mit hoher Genauigkeit, z. B. Codeanalyse, Konvertierung und detailierte Tests.

PB_qwen3_5_9b_dora-F16.gguf

Modell herunterladen
Jetzt verfuegbar

SPR-Modelle

Online auf Hugging Face: https://huggingface.co/Theogott/pb-qwen3_5-9b-powerbasic-ggufs

SPR GGUF~4+ GB

Q4_K_M

SPR-Variante fuer PowerBASIC-zentrierte Inferenz und lokale Automatisierungs-Workflows.

spr_qwen3_5_9b_dora_q4_k_m.gguf

Modell herunterladen
SPR GGUF~4+ GB

Q4_K_M VRAM-safe

VRAM-schonende Variante mit reduzierter Speicherbelastung bei weiterhin stabilem Verhalten.

spr_qwen3_5_9b_dora_vramsafe_q4_k_m.gguf

Modell herunterladen
SPR GGUF~5+ GB

Q6_K VRAM-safe

Hohe Qualitaet mit kontrollierterem VRAM-Einsatz.

spr_qwen3_5_9b_dora_vramsafe_q6_k.gguf

Modell herunterladen
SPR GGUF~5+ GB

Q8_0 VRAM-safe

Fuer bessere Ausgabequalitaet in lokalen Runtimes mit ausreichend Speicher.

spr_qwen3_5_9b_dora_vramsafe_q8_0.gguf

Modell herunterladen
SPR GGUF~6+ GB

BF16 VRAM-safe

Höhere Präzisionsvariante für anspruchsvolle Inferenz- und Konvertierungs-Workflows.

spr_qwen3_5_9b_dora_vramsafe_bf16.gguf

Modell herunterladen
Wo die Modelle nutzbar sind: Dies sind standardmaessige GGUF Modelldateien fuer lokale Inferenz. Sie koennen in LM Studio, Ollama nach Erstellung/Import eines Modelfiles, llama.cpp-kompatiblen Tools, KoboldCpp, text-generation-webui, Jan, GPT4All-artigen GGUF-Loadern und anderen Runtimes genutzt werden, die GGUF-Modelle akzeptieren. Wenn eine Runtime einen Modellordner erwartet, lege die Datei in deine lokale Modellbibliothek und waehle sie dort aus.