Questo tutorial mostra come gestire un modello linguistico di grandi dimensioni (LLM) Gemma utilizzando le unità di elaborazione grafica (GPU) su Google Kubernetes Engine (GKE) con il framework di gestione vLLM. In questo tutorial, scaricherai l'istruzione dei parametri 2B e 7B per i modelli Gemma preaddestrati e ottimizzati da Hugging Face ed eseguirai il deployment su un cluster GKE Autopilot o Standard utilizzando un container che esegue vLLM.
Questa guida è un buon punto di partenza se hai bisogno del controllo granulare, della scalabilità, della resilienza, della portabilità e della convenienza economica di Kubernetes gestito durante il deployment e la gestione dei tuoi carichi di lavoro di AI/ML. Se hai bisogno di una piattaforma di IA gestita unificata per creare e gestire rapidamente modelli ML in modo conveniente, ti consigliamo di provare la nostra soluzione di deployment Vertex AI.
Contesto
Se gestisci Gemma utilizzando GPU su GKE con vLLM, puoi implementare una soluzione solida e pronta per l'inferenza pronta per la produzione che vanta tutti i vantaggi di Kubernetes gestito, tra cui scalabilità efficiente e disponibilità superiore. Questa sezione descrive le tecnologie chiave utilizzate in questa guida.
Gemma
Gemma è un insieme di modelli di intelligenza artificiale (AI) generativa, leggeri e disponibili pubblicamente, rilasciati con licenza aperta. Questi modelli di IA possono essere eseguiti su applicazioni, hardware, dispositivi mobili o servizi in hosting. Puoi utilizzare i modelli Gemma per la generazione di testo, ma puoi anche ottimizzarli per attività specializzate.
Per saperne di più, consulta la documentazione di Gemma.
GPU
Le GPU consentono di accelerare carichi di lavoro specifici in esecuzione sui nodi come machine learning ed elaborazione di dati. GKE offre una gamma di opzioni per i tipi di macchine per la configurazione dei nodi, compresi tipi di macchine con GPU NVIDIA H100, L4 e A100.
Prima di utilizzare le GPU in GKE, ti consigliamo di completare il seguente percorso di apprendimento:
- Scopri di più sulla disponibilità attuale della versione GPU
- Scopri di più sulle GPU in GKE
vLLM
vLLM è un framework di gestione LLM open source altamente ottimizzato che può aumentare la velocità effettiva di distribuzione sulle GPU, con funzionalità come:
- Implementazione del trasformatore ottimizzata con PagedAttention
- Batching continuo per migliorare la velocità effettiva di distribuzione complessiva
- Parallelismo tensore e pubblicazione distribuita su più GPU
Per ulteriori informazioni, consulta la documentazione sui modelli vLLM.
Obiettivi
Questa guida è rivolta ai clienti di IA generativa che utilizzano PyTorch, agli utenti nuovi o esistenti di GKE, ingegneri ML, MLOps (DevOps) o amministratori di piattaforma interessati a utilizzare le funzionalità di orchestrazione dei container Kubernetes per gestire LLM su hardware GPU H100, A100 e L4.
Alla fine di questa guida, sarai in grado di:
- Prepara l'ambiente con un cluster GKE in modalità Autopilot o Standard.
- Eseguire il deployment di un container vLLM nel cluster.
- Utilizza vLLM per pubblicare il modello Gemma 2B o 7B tramite curl e un'interfaccia di chat web.
Prima di iniziare
- Accedi al tuo account Google Cloud. Se non conosci Google Cloud, crea un account per valutare le prestazioni dei nostri prodotti in scenari reali. I nuovi clienti ricevono anche 300 $di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.
-
Attiva l'API richiesta.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.
-
Attiva l'API richiesta.
-
Assicurati di disporre dei seguenti ruoli nel progetto: roles/container.admin, roles/iam.serviceAccountAdmin
Verifica i ruoli
-
Nella console Google Cloud, vai alla pagina IAM.
Vai a IAM - Seleziona il progetto.
-
Nella colonna Entità, individua la riga contenente il tuo indirizzo email.
Se il tuo indirizzo email non è in questa colonna, significa che non disponi di alcun ruolo.
- Nella colonna Ruolo per la riga contenente il tuo indirizzo email, controlla se l'elenco dei ruoli include quelli richiesti.
Concedi i ruoli
-
Nella console Google Cloud, vai alla pagina IAM.
Vai a IAM - Seleziona il progetto.
- Fai clic su Concedi l'accesso.
- Nel campo Nuove entità, inserisci il tuo indirizzo email.
- Nell'elenco Seleziona un ruolo, scegli un ruolo.
- Per concedere altri ruoli, fai clic su Aggiungi un altro ruolo e aggiungi ciascun ruolo aggiuntivo.
- Fai clic su Salva.
-
- Crea un account Hugging Face, se non ne hai già uno.
- Assicurati che il tuo progetto disponga di una quota sufficiente per le GPU. Per saperne di più, consulta Informazioni sulle GPU e Quote di allocazione.
Ottieni l'accesso al modello
Per ottenere l'accesso ai modelli Gemma per il deployment su GKE, devi prima firmare il contratto di consenso per la licenza, quindi generare un token di accesso Hugging Face.
Firma il contratto di consenso di licenza
Devi firmare il contratto di consenso per utilizzare Gemma. Segui queste istruzioni:
- Accedi alla pagina del consenso del modello su Kaggle.com.
- Verifica il consenso utilizzando il tuo account Hugging Face.
- Accetta i termini del modello.
Genera un token di accesso
Per accedere al modello tramite Hugging Face, è necessario un token Hugging Face.
Segui questa procedura per generare un nuovo token, se non ne hai già uno:
- Fai clic su Il tuo profilo > Impostazioni > Token di accesso.
- Seleziona New Token (Nuovo token).
- Specifica un nome a tua scelta e un ruolo di almeno "Letto".
- Seleziona Genera un token.
- Copia il token generato negli appunti.
prepara l'ambiente
In questo tutorial utilizzerai Cloud Shell per gestire le risorse ospitate su Google Cloud. Cloud Shell è preinstallato con il software necessario per questo tutorial, tra cui kubectl
e
gcloud CLI.
Per configurare l'ambiente con Cloud Shell, segui questi passaggi:
Nella console Google Cloud, avvia una sessione di Cloud Shell facendo clic su
Attiva Cloud Shell nella console Google Cloud. Viene avviata una sessione nel riquadro inferiore della console Google Cloud.
Imposta le variabili di ambiente predefinite:
gcloud config set project PROJECT_ID export PROJECT_ID=$(gcloud config get project) export REGION=REGION export CLUSTER_NAME=vllm export HF_TOKEN=HF_TOKEN
Sostituisci i seguenti valori:
- PROJECT_ID: il tuo ID progetto Google Cloud.
- REGION: una regione che supporta il tipo di acceleratore da utilizzare, ad esempio
us-central1
per GPU L4. - HF_TOKEN: il token Hugging Face generato in precedenza.
Creazione e configurazione delle risorse Google Cloud
Segui queste istruzioni per creare le risorse richieste.
Crea un cluster GKE e un pool di nodi
Puoi gestire Gemma su GPU in un cluster GKE Autopilot o Standard. Ti consigliamo di utilizzare un cluster Autopilot per un'esperienza Kubernetes completamente gestita. Per scegliere la modalità operativa GKE più adatta ai tuoi carichi di lavoro, vedi Scegliere una modalità operativa di GKE.
Autopilot
In Cloud Shell, esegui questo comando:
gcloud container clusters create-auto ${CLUSTER_NAME} \
--project=${PROJECT_ID} \
--region=${REGION} \
--release-channel=rapid \
--cluster-version=1.28
GKE crea un cluster Autopilot con nodi di CPU e GPU, come richiesto dai carichi di lavoro di cui è stato eseguito il deployment.
Standard
In Cloud Shell, esegui questo comando per creare un cluster standard:
gcloud container clusters create ${CLUSTER_NAME} \ --project=${PROJECT_ID} \ --region=${REGION} \ --workload-pool=${PROJECT_ID}.svc.id.goog \ --release-channel=rapid \ --num-nodes=1
La creazione del cluster potrebbe richiedere diversi minuti.
Esegui questo comando per creare un pool di nodi per il tuo cluster:
gcloud container node-pools create gpupool \ --accelerator type=nvidia-l4,count=2,gpu-driver-version=latest \ --project=${PROJECT_ID} \ --location=${REGION} \ --node-locations=${REGION}-a \ --cluster=${CLUSTER_NAME} \ --machine-type=g2-standard-24 \ --num-nodes=1
GKE crea un singolo pool di nodi contenente due GPU L4 per ciascun nodo.
Creare un secret Kubernetes per le credenziali di Hugging Face
In Cloud Shell, segui questi passaggi:
Configura
kubectl
per comunicare con il tuo cluster:gcloud container clusters get-credentials ${CLUSTER_NAME} --location=${REGION}
Crea un secret Kubernetes che contiene il token Hugging Face:
kubectl create secret generic hf-secret \ --from-literal=hf_api_token=$HF_TOKEN \ --dry-run=client -o yaml | kubectl apply -f -
Esegui il deployment di vLLM
In questa sezione eseguirai il deployment del container vLLM per gestire il modello Gemma che vuoi utilizzare. Per scoprire di più sui modelli preaddestrati e ottimizzati per le istruzioni e su quale selezionare per il tuo caso d'uso, consulta Modelli ottimizzati.
Gemma 2B-it
Segui queste istruzioni per eseguire il deployment del modello ottimizzato per l'istruzione Gemma 2B.
Crea il seguente manifest
vllm-2b-it.yaml
:Applica il manifest:
kubectl apply -f vllm-2b-it.yaml
Gemma 7B-it
Segui queste istruzioni per eseguire il deployment del modello ottimizzato per le istruzioni di Gemma 7B.
Crea il seguente manifest
vllm-7b-it.yaml
:Applica il manifest:
kubectl apply -f vllm-7b-it.yaml
Gemma 2B
Segui queste istruzioni per eseguire il deployment del modello preaddestrato Gemma 2B.
Crea il seguente manifest
vllm-2b.yaml
:Applica il manifest:
kubectl apply -f vllm-2b.yaml
Gemma 7B
Segui queste istruzioni per eseguire il deployment del modello preaddestrato Gemma 7B.
Crea il seguente manifest
vllm-7b.yaml
:Applica il manifest:
kubectl apply -f vllm-7b.yaml
Un pod nel cluster scarica i pesi del modello da Hugging Face e avvia il motore di gestione.
Attendi che il deployment sia disponibile:
kubectl wait --for=condition=Available --timeout=700s deployment/vllm-gemma-deployment
Visualizza i log del deployment in esecuzione:
kubectl logs -f -l app=gemma-server
La risorsa Deployment scarica i dati del modello. Questa procedura può richiedere alcuni minuti. L'output è simile al seguente:
INFO 01-26 19:02:54 model_runner.py:689] Graph capturing finished in 4 secs.
INFO: Started server process [1]
INFO: Waiting for application startup.
INFO: Application startup complete.
INFO: Uvicorn running on http://0.0.0.0:8000 (Press CTRL+C to quit)
Assicurati che il modello sia stato scaricato completamente prima di procedere con la sezione successiva.
Pubblica il modello
In questa sezione devi interagire con il modello.
Configura il port forwarding
Esegui questo comando per configurare il port forwarding al modello:
kubectl port-forward service/llm-service 8000:8000
L'output è simile al seguente:
Forwarding from 127.0.0.1:8000 -> 8000
Interagire con il modello utilizzando curl
Questa sezione mostra come eseguire un test di fumo di base per verificare i modelli preaddestrati o ottimizzati per le istruzioni di cui è stato eseguito il deployment. Per semplicità, questa sezione descrive l'approccio ai test solo utilizzando i modelli 2B preaddestrati e ottimizzati per le istruzioni.
Preaddestrati (2 mld)
In una nuova sessione del terminale, utilizza curl
per chattare con il tuo modello:
USER_PROMPT="Java is a"
curl -X POST http://localhost:8000/generate \
-H "Content-Type: application/json" \
-d @- <<EOF
{
"prompt": "${USER_PROMPT}",
"temperature": 0.90,
"top_p": 1.0,
"max_tokens": 128
}
EOF
L'output seguente mostra un esempio della risposta del modello:
{"predictions":["Prompt:\nJava is a\nOutput:\n<strong>programming language</strong> that is primarily aimed at developers. It was originally created by creators of the Java Virtual Machine (JVM). Java is multi-paradigm, which means it supports object-oriented, procedural, and functional programming paradigms. Java is object-oriented, which means that it is designed to support classes and objects. Java is a dynamically typed language, which means that the type of variables are not determined at compile time. Java is also a multi-paradigm language, which means it supports more than one programming paradigm. Java is also a very lightweight language, which means that it is a very low level language compared to other popular"]}
Ottimizzato per le istruzioni (2B-it)
In una nuova sessione del terminale, utilizza curl
per chattare con il tuo modello:
USER_PROMPT="I'm new to coding. If you could only recommend one programming language to start with, what would it be and why?"
curl -X POST http://localhost:8000/generate \
-H "Content-Type: application/json" \
-d @- <<EOF
{
"prompt": "<start_of_turn>user\n${USER_PROMPT}<end_of_turn>\n",
"temperature": 0.90,
"top_p": 1.0,
"max_tokens": 128
}
EOF
L'output seguente mostra un esempio della risposta del modello:
{"predictions":["Prompt:\n<start_of_turn>user\nI'm new to coding. If you could only recommend one programming language to start with, what would it be and why?<end_of_turn>\nOutput:\n**Python** is an excellent choice for beginners due to the following reasons:\n\n* **Clear and simple syntax:** Python boasts a simple and straightforward syntax that makes it easy to learn the fundamentals of programming.\n* **Extensive libraries and modules:** Python comes with a vast collection of libraries and modules that address various programming tasks, including data manipulation, machine learning, and web development.\n* **Large and supportive community:** Python has a vibrant and active community that offers resources, tutorials, and support to help you along your journey.\n* **Cross-platform compatibility:** Python can be run on various platforms, including Windows, macOS, and"]}
(Facoltativo) Interagire con il modello tramite un'interfaccia di chat con Google Radio.
In questa sezione creerai un'applicazione di chat web che ti consente di interagire con il tuo modello ottimizzato per le istruzioni. Per semplicità, questa sezione descrive solo l'approccio ai test con il modello 2B-it.
Gradio è una libreria Python che ha un wrapper ChatInterface
che crea le interfacce utente per i chatbot.
Esegui il deployment dell'interfaccia di chat
In Cloud Shell, salva il manifest seguente come
gradio.yaml
:Applica il manifest:
kubectl apply -f gradio.yaml
Attendi che il deployment sia disponibile:
kubectl wait --for=condition=Available --timeout=300s deployment/gradio
Utilizzare l'interfaccia di chat
In Cloud Shell, esegui questo comando:
kubectl port-forward service/gradio 8080:8080
Viene creato un port forwarding da Cloud Shell al servizio Gradio.
Fai clic sul pulsante
Anteprima web, che puoi trovare in alto a destra nella barra delle applicazioni di Cloud Shell. Fai clic su Anteprima sulla porta 8080. Nel browser si apre una nuova scheda.
Interagisci con Gemma utilizzando l'interfaccia della chat di Gradio. Aggiungi un prompt e fai clic su Invia.
Risoluzione dei problemi
- Se viene visualizzato il messaggio
Empty reply from server
, è possibile che il contenitore non abbia terminato il download dei dati del modello. Controlla di nuovo nei log del pod il messaggioConnected
che indica che il modello è pronto per la pubblicazione. - Se vedi
Connection refused
, verifica che il port forwarding sia attivo.
Esegui la pulizia
Per evitare che al tuo Account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questo tutorial, elimina il progetto che contiene le risorse oppure mantieni il progetto ed elimina le singole risorse.
Elimina le risorse di cui è stato eseguito il deployment
Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse create in questa guida, esegui questo comando:
gcloud container clusters delete ${CLUSTER_NAME} \
--region=${REGION}
Passaggi successivi
- Scopri di più sulle GPU in GKE.
- Scopri come utilizzare Gemma con vLLM su altri acceleratori, incluse le GPU A100 e H100, visualizzando il codice campione in GitHub.
- Scopri come eseguire il deployment dei carichi di lavoro GPU in Autopilot.
- Scopri come eseguire il deployment dei carichi di lavoro GPU in Standard.
- Esplora il repository GitHub e la documentazione dei modelli vLLM.
- Esplora Vertex AI Model Garden.
- Scopri come eseguire carichi di lavoro ottimizzati di AI/ML con le funzionalità di orchestrazione delle piattaforme GKE.