
Dialogare con l’Intelligenza Artificiale: mini guida al Prompt Engineering
Una delle ultime innovazioni di ChatGPT, la funzione vocale avanzata (Advanced Voice Mode), sta trasformando le interazioni con l’Intelligenza Artificiale (IA) in esperienze sempre più conversazionali. Gli utenti possono dialogare in modo fluido con il modello, che, addestrato ad una comprensione profonda del contesto e delle sfumature linguistiche del nostro parlato, fornisce risposte dirette senza dover convertire il testo in audio e viceversa, come accadeva in passato. Per sfruttare appieno il potenziale dei tool di IA, attraverso input efficaci sia scritti che vocali, entra in gioco il Prompt Engineering: la progettazione di testi in linguaggio naturale che richiedono all’IA di eseguire un’attività specifica, restituendo output affidabili e replicabili, in una logica di ottimizzazione continua (in gergo tecnico, refining).
Il Prompt Engineering combina arte e tecnica, unendo creatività, conoscenze linguistiche e competenze informatiche, legate alla conoscenza dei LLM (Large Language Models), modelli linguistici di grandi dimensioni utilizzati dalle soluzioni di IA. Si tratta di vere e proprie reti neuronali artificiali, che attingono da una vastissima mole di dati online e utilizzano un’attenzione autoregressiva per generare contenuti in modo sequenziale e coerente, basandosi su parole (token) e concetti precedenti. Questo attributo degli LLM evidenzia l’importanza, per l’utente, di fare leva su un processo iterativo, procedendo per tentativi fino a raggiungere il risultato atteso.
Le regole d’oro per un prompt che funziona
Gli strumenti di IA necessitano di informazioni dirette, rilevanti e prive di ambiguità per produrre output pertinenti e accurati, in linea con le richieste e le aspettative dell’utente. Ecco alcune linee guida da tenere in mente:
- Sii specifico e chiaro, usando formulazioni affermative ed entro il limite massimo consentito di 4.096 token (parole);
- Trova un bilanciamento tra sintesi e lacunosità, in quanto l’eccessiva semplificazione può portare a risposte vaghe, mentre troppa complessità rischia di limitare la flessibilità del modello;
- Fornisci dettagli sul contesto e target di riferimento, sul ruolo che l’IA deve assumere per eseguire il compito e sulle caratteristiche del formato richiesto, come lunghezza, stile e tono di voce, includendo degli esempi.
Tracciare vincoli precisi che orientano o condizionano gli output si definisce “priming”. Questa pratica, che affonda le sue radici nella psicologia cognitiva, consiste nell’esposizione a uno stimolo per influenzare in modo inconscio la risposta a uno stimolo successivo. Ad esempio, se si chiede a un modello linguistico di pensare come un insegnante, le risposte successive saranno didattiche e illustrative, anche per domande non direttamente collegate al mondo dell’apprendimento. Il priming trova applicazione in numerosi campi oltre all’IA, dal neuromarketing alla pubblicità, dalle neuroscienze alla terapia cognitivo-comportamentale.
Tecniche utili del Prompt Engineering
Il Prompt Engineering offre infinite possibilità di sperimentazione, ma esistono alcune tecniche note e consolidate da cui partire per creare prompt efficaci.
- Zero-shot prompting: fornire l’istruzione del compito senza esempi. Questa tecnica sfrutta le capacità di inferenza e generalizzazione del modello che, sulla base della conoscenza preesistente e della comprensione del contesto, fornisce una risposta. I vantaggi sono: l’immediatezza, con risparmio di tempo e risorse per preparare istruzioni o dati di addestramento, e una maggiore flessibilità del modello. Tuttavia, vi è il rischio che le risposte risultino poco prevedibili, vaghe o fondate su inferenze errate.
- Few-shot prompting: illustrare il task con pochi esempi specifici. Questo approccio migliora l’accuratezza e la coerenza delle risposte rispetto al zero-shot, ma richiede più preparazione e risorse, soprattutto per compiti complessi. Inoltre, la performance dell’IA dipende dalla qualità e dal numero di esempi, che devono coprire tutte le casistiche di interesse.
- Chain of thought prompting: scomporre richieste complesse in passaggi più piccoli e concatenati per pilotare il modello attraverso un percorso logico esplicito e sequenziale. I pro di questa tecnica sono una migliore qualità e trasparenza del ragionamento, riducendo errori e inaccuratezze. I minus riguardano l’aumento dei tempi di formulazione dei compiti e di elaborazione delle risposte.
- Albero dei Pensieri: esplorare in parallelo soluzioni e linee di pensiero, stimolando un ragionamento più ampio per identificare i percorsi più promettenti. È una estensione del Chain of Thought Prompting: quest’ultimo si fonda su una logica lineare e sequenziale, mentre l’Albero dei Pensieri implica una struttura ramificata, dove per ogni passaggio le idee si diramano. Il punto di forza è la valutazione di soluzioni alternative a problemi complessi, ma ciò comporta più tempo e risorse, con il rischio di dispersione tra tante opzioni, senza un adeguato controllo.
Dalla formulazione dei prompt a quella dei problemi
Oguz A. Acar, professore di Marketing presso il King’s College di Londra ed Esperto di Scienze Comportamentali e Innovazione presso il World Economic Forum, ha anticipato i tempi, sottolineando, in un articolo del 2023 su Harvard Business Review, l’importanza della formulazione dei problemi come competenza più duratura e adattabile del Prompt Engineering, che ci permetterà di sfruttare il potenziale dell’IA generativa nel tempo. Secondo Acar, il clamore crescente che circonda l’ingegneria dei prompt potrebbe essere effimero, poiché anche il prompt migliore è inutile in assenza di un problema chiaramente definito. Solo quando un problema è ben formulato, le sfumature linguistiche del prompt fanno la differenza per la risoluzione.
La definizione dei problemi tende ad essere trascurata a causa dell’enfasi sproporzionata che la cultura manageriale attribuisce alla loro risoluzione. La diagnosi è, invece, una fase strategica per identificare il cuore del problema, ovvero l’obiettivo principale che l’IA deve raggiungere.
Un metodo efficace per scoprire le relazioni di causa-effetto è la tecnica dei “5 perché”, che consiste nel chiedersi ripetutamente il motivo di un problema, fino a individuare la causa radice. Segue la scomposizione del problema in sottoparti più piccole e gestibili, facilitando l’identificazione dei singoli componenti e delle loro interconnessioni. Si termina con la riformulazione (reframing), che richiede un cambio di prospettiva e di linguaggio per guardare il problema sotto angolazioni diverse ed esprimerlo con parole nuove, aprendo la strada a interpretazioni alternative. Questo approccio consente di guidare il modello a esplorare un ampio ventaglio di soluzioni, superando gli ostacoli creativi.