L’arte e la scienza del prompting: come dialogare con l’intelligenza artificiale

Prompt efficaci ci consentono di trasformare una semplice domanda in un dialogo produttivo con l’AI generativa, sbloccandone le potenzialità. Dall’OpenAI Cookbook alle masterclass di Google, strategie, esempi pratici e risorse per evitare output ambigui e massimizzare i risultati.

Con la comparsa e la diffusione di chatbot e altri tool di intelligenza artificiale generativa, oltre alle tante e profonde conseguenze in ogni ambito della nostra vita professionale e personale, stiamo sperimentando una novità: possiamo comunicare in linguaggio naturale anche con le macchine, oltre che con altri esseri umani.

Questa possibilità – che diventa una necessità dal momento che l’AI generativa è sempre più pervasiva –, ha riportato alla ribalta un termine: il prompt.

Il termine deriva dal latino promptus (pronto, disponibile) e, in ambito informatico, era già utilizzato per indicare il simbolo o la riga di comando che segnalava all’utente che il sistema era pronto a ricevere istruzioni.

Con la diffusione dell’intelligenza artificiale generativa il termine ha subito un’importante evoluzione: da segnale statico, semplice richiesta di input da parte del sistema operativo, è diventato una vera e propria istruzione, spesso complessa e articolata, che guida il modello di AI nella generazione di contenuti originali.

Il professor Federico Cabitza, che insegna all’Università di Milano Bicocca ed è esperto dell’interazione uomo-macchina, nel libretto Intelligenza artificiale generativa pubblicato dal Corriere della sera, dà la seguente definizione di prompt:

“L’input iniziale, la domanda, la richiesta, (letteralmente) lo spunto, che è fornito dall’utente al sistema AI perché questi gli generi una risposta pertinente, accurata e adeguata”.

Prompting: una professione o una competenza trasversale?

L’importanza dei prompt è sottolineata dalla comparsa di nuove figure professionali e competenze come il prompt designer o il prompt engineering.

Secondo il report Design economy 2025 della Fondazione Symbola, i prompt designer – definiti come professionisti specializzati nella creazione di prompt per modelli di AI generativa –, sono tra le figure in maggiore ascesa nel campo delle nuove professioni del design.

Il prompt engineering, invece, più che una professione è una competenza sempre più richiesta e trasversale, capace di fare la differenza in molteplici settori professionali. Un recente articolo apparso sul Wall Street Journal ha infatti evidenziato che, quello che appena nel 2023 si riteneva essere uno dei ruoli più promettenti (e remunerative) nell’ambito della tecnologia, non è mai decollata come professione.

Ma lo è appunto come abilità trasversale che ogni persona che vuole dialogare meglio con l’AI generativa dovrebbe sviluppare. Tutti gli esperti di GenAI, e chiunque si sia trovato almeno una volta a utilizzarla, concordano infatti su un punto: la qualità e la struttura del prompt influenzano direttamente la pertinenza, la creatività e l’utilità dell’output prodotto.

L’importanza di un prompt ben strutturato: la lezione di Rory Flynn con Midjourney

La centralità del prompt nella relazione tra uomo e macchina è stata evidenziata di recente anche da Rory Flynn, uno dei massimi esperti di AI generativa – nello specifico del tool di text-to-image Midjourney – applicata al marketing.

In un intervento nell’ambito della AI WEEK 2025, Flynn ha mostrato ai partecipanti come, imparando a strutturare prompt efficaci, si possa sbloccare un flusso creativo potenzialmente infinito.

Le istruzioni che si forniscono alla macchina sono una vera e propria arte, secondo Flynn, che ha condiviso una regola generale: da prompt chiari e diretti derivano risultati chiari e diretti, mentre da prompt ambigui derivano output ambigui.

Come fare a migliorare i prompt? L’importanza dell’approccio community-driven

Una volta compresa l’importanza e la centralità del prompting, la domanda è: come si possono migliorare le istruzioni fornite all’AI generativa?

Una risposta univoca non esiste. L’AI generativa è una materia in così costante evoluzione, che gli approcci formativi tradizionali (ad esempio, un corso frontale, in presenza o online) possono arrivare solo fino a un determinato grado di efficacia.

La chiave, più che altro, sembra risiedere nella capacità delle persone di voler apprendere in maniera continua e anche in autonomia. Apprendimento continuo e autoapprendimento sono due dei pilastri per riuscire a cavalcare, senza essere travolti, la rivoluzione dell’AI generativa. E l’efficacia di questi due pilastri aumenta se l’esperienza individuale si inserisce nella cornice di community di adozione e apprendimento dell’intelligenza artificiale.

È l’approccio community-driven che un’azienda come Logotel, independent design company, utilizza sia al proprio interno, sia con i propri clienti, come dimostra ad esempio il case study Dojo, community di adozione di Microsoft Copilot sviluppata per Italgas.

Il Cookbook di OpenAI e altri consigli per un prompt ben strutturato

Come abbiamo appena visto, la pratica individuale inserita nella cornice di community di apprendimento aziendali può aiutare a raffinare le proprie tecniche di prompting. E online si possono trovare molte risorse utili per capire, da soli e poi magari confrontandosi in gruppo, come strutturare prompt efficaci. A realizzare queste risorse sono molto spesso le stesse aziende leader nel campo dell’intelligenza artificiale generativa.

Cos’è il Cookbook di OpenAI

Un esempio è l’OpenAI Cookbook, una raccolta open-source di guide pratiche, esempi di codice e best practice per utilizzare i modelli e le API di OpenAI, la “madre” di ChatGPT.

Il repository è disponibile su GitHub e viene aggiornato regolarmente dalla community e dal team di OpenAI. È particolarmente utile per chi vuole andare oltre la documentazione base e vedere implementazioni concrete di vari use case.

Tra i contenuti contenuti nel Cookbook ve ne sono alcuni dedicati al prompting. Nella GPT 4.1 Prompting guide, ad esempio, sono contenuti alcuni suggerimenti per migliorare i risultati ottenuti con questo Llm, utilizzato soprattutto per la creazione di agenti. Vediamone alcuni:

  • trasformare il modello in un assistente proattivo, includendo tre istruzioni fondamentali: continuare fino a completare il compito (persistenza), utilizzare sempre gli strumenti disponibili invece di improvvisare risposte (tool-calling), e pianificare ogni azione prima di eseguirla (planning);
  • ripetere le istruzioni importanti all’inizio e alla fine: quando si forniscono documenti lunghi o contesti complessi, la guida suggerisce di inserire le indicazioni principali sia all’apertura che in chiusura del testo;
  • organizzare le istruzioni come un manuale d’uso, creando sezioni ben definite con titoli chiari, sottocategorie per i dettagli e includendo sempre esempi pratici. Se si vuole che il modello risponda in un certo modo, occorre mostrargli esattamente come fare con casi concreti;
  • invitare il modello a ragionare passo dopo passo (Chain-of-thought): anche se non è progettato specificamente per il ragionamento complesso, aggiungere la frase “Prima, pensa attentamente passo dopo passo” migliora significativamente la qualità delle risposte nelle attività che richiedono analisi approfondite.

La guida riassume poi come potrebbe essere un’ideale struttura di prompt:

  • Ruolo e obiettivo
  • Istruzioni
  • Sotto-categorie per istruzioni più dettagliate
  • Passaggi di ragionamento
  • Formato di output
  • Esempi
  • Esempio 1
  • Contesto
  • Istruzioni finali e invito a pensare passo dopo passo

Un altro contenuto utile pubblicato sul Cookbook è la Prompt Migration Guide, che sottolinea un aspetto di cui tenere conto. Man mano che i modelli di GenAI diventano più evoluti, occorre adattare i prompt che erano originariamente pensati per le limitazioni dei modelli precedenti, assicurandosi che rimangano efficaci e chiari.

Come ottenere il massimo dai prompt su Copilot

Un’altra risorsa utile per i prompt si può trovare nel servizio di supporto di Microsoft e riguarda Copilot. Quest’ultimo è un assistente virtuale progettato per aiutare gli utenti in una varietà di compiti e integrato all’interno della suite M365.

In un articolo su come raffinare le richieste per ottenere risultati migliori, viene evidenziato come i prompt debbano includere quattro parti: l’obiettivo, il contesto, le aspettative e la fonte. E tra i suggerimenti forniti per ottenere risultati più corrispondenti a quanto desiderato figurano:

  • includere i dettagli: oltre all’obiettivo, si dovrebbe indicare a Copilot il contesto, spiegare come dovrebbe rispondere per soddisfare la propria richiesta e specificare qualsiasi fonte di informazione specifica che Copilot dovrebbe usare;
  • strutturare i prompt tenendo a mente che l’ordine delle istruzioni può influire sulla risposta ottenuta, e sperimentare con ordini diversi per comprendere l’impatto (ad esempio, se si vuole che Copilot utilizzi file o fonti specifiche si possono provare a mettere queste informazioni per ultime);
  • fornire istruzioni positive, in quanto Copilot è progettato per agire e quindi dire cosa deve fare è più efficace che dirgli cosa non fare;
  • iterare e rigenerare: non accontentarsi del primo risultato ottenuto, che spesso non è la risposta migliore, ma rivedere la richiesta e riprovare.
  • controllare e verificare sempre le risposte ricevute, in quanto come ogni altro LLM Copilot può rimanere vittima di allucinazioni o restituire contenuti di parte, offensivi, dannosi o errati.

La masterclass di prompt engineering di Google

Anche Google ha pubblicato varie risorse online su come migliorare i prompt per ottenere risultati più efficaci con l’AI generativa. Tra le tante, segnaliamo una masterclass completa che approfondisce tecniche di prompt engineering tra cui:

  • prompting zero-shotone-shot e few-shot: cioè strategie per guidare il modello AI con nessuno, uno o pochi esempi all’interno del prompt stesso;
  • Prompting di sistema e di ruolo (role prompting): istruzioni che definiscono il comportamento generale e i vincoli dell’AI;
  • ReAct: un framework che combina ragionamento e azione per consentire all’AI di interagire con strumenti esterni.

In conclusione

Il prompting è un’arte e una scienza, anche se empirica. Sono diverse le tecniche e i suggerimenti per formulare richieste chiare agli strumenti di intelligenza artificiale, in maniera che restituiscano output e risposte utili e rilevanti per ciò che le persone chiedono.

Vale, come regola generale, quella enunciata da Rory Flynn, esperto di Midjourney, dal palco della AI WEEK 2025: prompt chiari e diretti generano risultati chiari e diretti, mentre prompt ambigui portano ad output ambigui.

Di certo, poi, bisogna tenersi costantemente aggiornati e fare pratica, magari aiutandosi con metodologie community-driven. Le rapide evoluzioni dei sistemi di intelligenza artificiale potrebbero portare prompt efficaci con un sistema precedente a non esserlo con quello successivo, come sottolinea anche OpenAI nella Prompt migration guide.

Inoltre, le stesse guide su OpenAI ricordano come non esistono suggerimenti che valgono per tutte le situazioni: “L’ingegneria dell’AI è per sua natura una disciplina empirica, e i modelli linguistici di grandi dimensioni sono intrinsecamente non deterministici.”

In altre parole: non esiste una formula magica che funzioni sempre, bisogna sperimentare caso per caso, e questi modelli possono dare risposte diverse anche con lo stesso input.

Infine, una raccomandazione un po’ fuori dagli schemi: siate professionali e cortesi. Qualche tempo fa sui “grazie” e “per favore” rivolti all’intelligenza artificiale si è scatenato un dibattito incentrato sullo spreco di risorse economiche ed energetiche che comporterebbero queste gentilezze.

Lo stesso Sam Altman di OpenAI è intervenuto nella discussione, ammettendo che la sua azienda spenderebbe decine di milioni di dollari in costi di elettricità a causa di chi tratta i modelli ChatGPT con gentilezza.  

Di certo, però, come spiega anche Microsoft in uno degli articoli visti in precedenza, “l’uso di un linguaggio cortese migliora la risposta di Copilot”. Per cui, esercitiamo la cortesia: di sicuro non può fare male alla qualità di tutti i nostri rapporti, che siano con chatbot AI, animali, piante ed esseri umani.