Usare Qiskit Code Assistant in modalità locale
Scopri come installare, configurare e usare uno qualsiasi dei modelli di Qiskit Code Assistant sul tuo computer locale.
- Qiskit Code Assistant è in stato di anteprima e potrebbe subire modifiche.
- Per inviare feedback o contattare il team di sviluppo, usa il canale Qiskit Slack Workspace o i repository GitHub pubblici correlati.
Avvio rapido (consigliato)
Il modo più semplice per iniziare a usare Qiskit Code Assistant in modalità locale è ricorrere agli script di configurazione automatica per l'estensione VS Code o JupyterLab. Questi script installano automaticamente Ollama per eseguire i modelli LLM, scaricano il modello consigliato e configurano l'estensione per te.
Configurazione dell'estensione VS Code
Esegui il comando seguente nel tuo terminale:
bash <(curl -fsSL https://raw.githubusercontent.com/Qiskit/qiskit-code-assistant-vscode/main/setup_local.sh)
Questo script esegue i passaggi seguenti:
- Installa Ollama (se non è già installato)
- Scarica e configura il modello Qiskit Code Assistant consigliato
- Configura l'estensione VS Code per funzionare con la tua installazione locale
Configurazione dell'estensione JupyterLab
Esegui il comando seguente nel tuo terminale:
bash <(curl -fsSL https://raw.githubusercontent.com/Qiskit/qiskit-code-assistant-jupyterlab/main/setup_local.sh)
Questo script:
- Installa Ollama (se non è già installato)
- Scarica e configura il modello Qiskit Code Assistant consigliato
- Configura l'estensione JupyterLab per funzionare con la tua installazione locale
Modelli disponibili
Modelli attuali
Questi sono i modelli più recenti e consigliati per l'uso con Qiskit Code Assistant:
- Qiskit/mistral-small-3.2-24b-qiskit - Rilasciato a ottobre 2025
- qiskit/qwen2.5-coder-14b-qiskit - Rilasciato a giugno 2025
- qiskit/granite-3.3-8b-qiskit - Rilasciato a giugno 2025
- qiskit/granite-3.2-8b-qiskit - Rilasciato a giugno 2025
Modelli GGUF (consigliati per ambienti personali/laptop)
I modelli in formato GGUF sono ottimizzati per l'uso locale e richiedono meno risorse computazionali:
-
mistral-small-3.2-24b-qiskit-GGUF – Rilasciato a ottobre 2025 Addestrato con dati Qiskit fino alla versione 2.1
-
qiskit/qwen2.5-coder-14b-qiskit-GGUF – Rilasciato a giugno 2025 Addestrato con dati Qiskit fino alla versione 2.0
-
qiskit/granite-3.3-8b-qiskit-GGUF – Rilasciato a giugno 2025 Addestrato con dati Qiskit fino alla versione 2.0
-
qiskit/granite-3.2-8b-qiskit-GGUF – Rilasciato a giugno 2025 Addestrato con dati Qiskit fino alla versione 2.0
I modelli open source di Qiskit Code Assistant sono disponibili nei formati safetensors o GGUF e possono essere scaricati da Hugging Face come illustrato di seguito.
Versioni di Qiskit usate per l'addestramento
| Modello | Metriche di benchmark | Data di rilascio | Addestrato sulla versione Qiskit | |||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|
| QiskitHumanEval-Hard | QiskitHumanEval | HumanEval | ASDiv | MathQA | SciQ | MBPP | IFEval | CrowsPairs (inglese) | TruthfulQA (MC1 acc) | |||
| mistral-small-3.2-24b-qiskit | 32.45 | 47.02 | 77.49 | 3.77 | 49.68 | 97.50 | 64.00 | 48.44 | 67.08 | 39.41 | gennaio 2026 | 2.2 |
| qwen2.5-coder-14b-qiskit | 25.17 | 49.01 | 91.46 | 4.21 | 53.90 | 97.00 | 77.60 | 49.64 | 65.18 | 37.82 | giugno 2025 | 2.0 |
| granite-3.3-8b-qiskit | 14.57 | 27.15 | 62.80 | 0.48 | 38.66 | 93.30 | 52.40 | 59.71 | 59.75 | 39.05 | giugno 2025 | 2.0 |
| granite-3.2-8b-qiskit | 9.93 | 24.50 | 57.32 | 0.09 | 41.41 | 96.30 | 51.80 | 60.79 | 66.79 | 40.51 | giugno 2025 | 2.0 |
| granite-8b-qiskit-rc-0.10 | 15.89 | 38.41 | 59.76 | — | — | — | — | — | — | — | febbraio 2025 | 1.3 |
| granite-8b-qiskit | 17.88 | 44.37 | 53.66 | — | — | — | — | — | — | — | novembre 2024 | 1.2 |
Nota: tutti i modelli elencati nella tabella dei benchmark sono stati valutati usando il rispettivo prompt di sistema, definito nel modello su Hugging Face.
Modelli deprecati
Questi modelli non sono più mantenuti attivamente, ma rimangono disponibili:
- qiskit/granite-8b-qiskit-rc-0.10 - Rilasciato a febbraio 2025 (deprecato)
- qiskit/granite-8b-qiskit - Rilasciato a novembre 2024 (deprecato)
Configurazione avanzata
Se preferisci configurare manualmente la tua installazione locale o hai bisogno di un maggiore controllo sul processo di installazione, espandi le sezioni seguenti.
Scarica dal sito web di Hugging Face
Segui questi passaggi per scaricare qualsiasi modello correlato a Qiskit Code Assistant dal sito web di Hugging Face:
- Naviga alla pagina del modello Qiskit desiderato su Hugging Face.
- Vai alla scheda Files and Versions e scarica i file del modello in formato safetensors o GGUF.
Scarica tramite la CLI di Hugging Face
Per scaricare uno qualsiasi dei modelli Qiskit Code Assistant disponibili tramite la CLI di Hugging Face, segui questi passaggi:
-
Installa la CLI di Hugging Face
-
Accedi al tuo account Hugging Face
huggingface-cli login -
Scarica il modello che preferisci dall'elenco precedente
huggingface-cli download <HF REPO NAME> <MODEL PATH> --local-dir <LOCAL PATH>
Distribuzione manuale dei modelli Qiskit Code Assistant in locale tramite Ollama
Esistono più modi per distribuire e interagire con il modello Qiskit Code Assistant scaricato. Questa guida mostra come usare Ollama: sia con l'applicazione Ollama tramite l'integrazione con Hugging Face Hub o un modello locale, sia con il pacchetto llama-cpp-python.
Usare l'applicazione Ollama
L'applicazione Ollama offre una soluzione semplice per eseguire i modelli LLM in locale. È facile da usare, con una CLI che rende piuttosto semplice l'intero processo di configurazione, la gestione dei modelli e l'interazione. È ideale per la sperimentazione rapida e per gli utenti che desiderano gestire meno dettagli tecnici.
Installare Ollama
-
Scarica l'applicazione Ollama
-
Installa il file scaricato
-
Avvia l'applicazione Ollama installata
infoL'applicazione è in esecuzione correttamente quando l'icona di Ollama appare nella barra dei menu del desktop. Puoi anche verificare che il servizio sia in esecuzione visitandohttp://localhost:11434/. -
Prova Ollama nel tuo terminale e inizia a eseguire modelli. Ad esempio:
ollama run hf.co/Qiskit/Qwen2.5-Coder-14B-Qiskit