Dispositivi che imparano senza bisogno di comprensione: la vera essenza dell’Intelligenza Artificiale è questa. Può sembrare un paradosso e infatti capire ciò che in realtà essa rappresenta richiede un’analisi più approfondita. La nozione di AI ultimamente è stata spesso ridotta e limitata al solo simulatore di conversazioni (ChatGPT), ed è invece importante esplorarne le radici ontologiche ed epistemologiche generali.

Ecco quindi alcuni suggerimenti di letture utili per approfondire la questione.

Per cogliere il concetto di “Comunicazione Artificiale” e – anzi – sostituirlo a quello di AI, è utile fare riferimento alle riflessioni di Elena Esposito. Le mega-macchine digitali non raggiungono risultati straordinari perché diventano intelligenti, ma perché non cercano più di esserlo. Ad esempio, Google Translator utilizza l’elaborazione multilingue dei testi per trovare regolarità e modelli nei BigData, anziché insegnare agli algoritmi le regole e le lingue. Questo metodo consente di produrre testi sensati per le persone, ma non necessariamente per i dispositivi, i quali sono esperti in statistica e sintassi probabilistica, ma non in semantica.

Inoltre, ci aiuta a capire la tesi di Simone Natale sulle “macchine ingannevoli”: fin dal test di Turing, l’obiettivo era quello di imitare i processi cognitivi umani piuttosto che riprodurli. Il test era, infatti, un inganno benevolo: la macchina doveva poteri essere scambiata per un essere umano attraverso le sue risposte, mimetizzandosi.

Secondo Nello Cristianini, poi, l’approccio prestazionale rappresenta una svolta e una scorciatoia. Non è necessario analizzare approfonditamente un sistema per comprenderne le caratteristiche e le relazioni causa-effetto. Invece, è possibile prevedere con precisione ciò che farà. Questo principio si applica alla composizione automatizzata di testi, alla classificazione di email come spam in base a determinati schemi, ai motori di raccomandazione di prodotti e così via.

Molto significativo dal punto di vista epistemologico à il concetto di intelligenza, proposto dal professore dell’Università di Bath, che si distacca dall’antropocentrismo. Secondo questa definizione, l’intelligenza si basa sulla capacità di agire nell’ambiente circostante, utilizzando informazioni sensoriali per prendere decisioni efficaci al fine di raggiungere obiettivi specifici, anche in situazioni impreviste o con elementi perturbanti. Questa definizione funziona perfettamente per i dispositivi di intelligenza artificiale, concepiti come assistenti artificiali nelle attività cognitive (1), che imitano le prestazioni umane. Questa definizione ha implicazioni cruciali.

Come accennato, siamo di fronte a dispositivi dotati di intelligenza prestazionale, quindi per chi – come noi – non è un addetto ai lavori, ma piuttosto un cittadino o un operatore nel campo della conoscenza e dell’istruzione, ciò che conta sono i risultati, i soli che possono essere paragonati a quelli umani. In secondo luogo (e soprattutto), i compiti esecutivi e ripetitivi dovrebbero essere assegnati preferibilmente agli assistenti artificiali alle attività cognitive, mentre la responsabilità e il controllo per quanto riguarda intenzioni, obiettivi e progettazione dell’elaborazione intellettuale e culturale devono rimanere nelle mani degli esseri umani.

Microsoft Word offre una funzione di trascrizione diretta, “transcodificazione” dal punto di vista del dispositivo, che consente la conversione di una registrazione digitale in un testo scritto. Inoltre, esistono numerose estensioni per browser, come YouTubeDigest, che consentono di produrre un riassunto testuale di un video. In entrambi i casi, la valutazione dell’efficacia del prodotto realizzato dall’agente digitale richiede l’intervento dell’intelligenza umana, che potrebbe apportare eventuali modifiche e correzioni.

La trascrizione di un discorso – compito cognitivo noioso e insignificante – viene ora eseguita con grande velocità a causa della potenza computazionale e della capacità di archiviazione dei dispositivi digitali. Invece, in altri casi, un agente artificiale può richiedere una richiesta di prestazioni cognitive dettagliate e ben articolate.

Di conseguenza, per utilizzare appieno i simulatori di conversazione come ChatGPT, Google Bard, Microsoft Bing e i dispositivi per la creazione di immagini come Stable Diffusion, MidJourney, Image Creator for Microsoft Bing e Adobe Firefly, è necessario possedere elevate capacità cognitive e culturali, proprie di un’intelligenza umana evoluta e consapevole delle proprie capacità ed esigenze.

Il prompt, all’interno del modello tecnico attuale, rappresenta la richiesta dell’essere umano, singolarmente o in gruppo, di ricevere prestazioni nel campo cognitivo dall’assistente artificiale. Gli esempi precedenti si riferiscono a testi e immagini, ma è possibile trovare applicazioni che supportano anche video, musica, narrazioni, diapositive e schemi.

I prompt chiari e la sequenza dialogica delle conversazioni simulate sono perciò elementi fondamentali per ottenere risultati immediati e di qualità nell’interazione tra intelligenze. Quando si interagisce con un assistente virtuale, è fondamentale specificare non solo l’argomento, ma anche la destinazione, lo scopo, lo stile, il registro comunicativo, il lessico e così via. Sfruttando appieno le possibilità di dialogo, si può ottenere un risultato sempre più preciso, con un intervento umano attento e consapevole.

In sintesi, l’obiettivo è imparare a utilizzare gli assistenti ad attività cognitive in modo efficace, dando alla “parte umana” il ruolo principale. Ciò implica la scelta degli obiettivi, la progettazione, la definizione della richiesta all’agente digitale, la valutazione della rispondenza del prodotto alle intenzioni e alle istruzioni fornite, e eventuali interventi aggiuntivi.

Questo approccio può essere condiviso dagli insegnanti con i propri studenti: ogni processo di acquisizione di conoscenza richiede la presenza di abilità cognitive e culturali essenziali e insostituibili, proprie solo degli esseri umani. Al contrario delle mega-macchine, gli esseri umani sono infatti esperti nell’interpretazione di senso e significato.

E, quindi, è necessario sperimentare diverse tipologie di assistenti artificiali e modalità di progettazione, definizione del compito e analisi dei risultati iniziali.

I software di conversazione, come ChatGPT, Microsoft Bing in modalità Chat e, in futuro, Google Bard (attualmente non disponibile in Europa), offrono molteplici opzioni di scrittura. Hanno però necessità di una richiesta di prestazione altamente specifica basata su analisi dettagliate delle caratteristiche del testo che si intende creare. Ad esempio, si può richiedere un testo continuo sull’intelligenza artificiale destinato a un pubblico non esperto, utilizzando uno stile informativo con registro comunicativo medio, lessico non specialistico e approccio coinvolgente. Oppure, si può optare per un approccio basato sul dialogo, suddividendo la richiesta di prestazione in più passaggi. In ogni caso, la richiesta di prestazione deve essere inversamente proporzionale alla capacità generale del dispositivo.

Un esempio interessante di utilizzo di più prompt per la revisione accademica viene fornito da Mashrin Srivastava attraverso ChatGPT. Il processo di revisione si articola in diverse fasi, a partire dall’identificazione dell’identità culturale del documento e delle relative sezioni. Successivamente, come revisore accademico, vengono descritte le caratteristiche principali del documento, tra cui i punti di forza e di debolezza, la chiarezza, la novità, la riproducibilità e la sintesi del revisore. È importante prestare attenzione alle eventuali fonti citate nel documento, seguendo i link o chiedendo ulteriori informazioni al dispositivo. Questo metodo di perfezionamento incrementale è particolarmente adatto anche per la creazione di rappresentazioni grafiche della conoscenza.

Per quanto riguarda la produzione di immagini, è importante che i prompt contengano il maggior numero possibile di dettagli sulle caratteristiche dell’immagine desiderata. Midjourney offre la possibilità non solo di accedere ai prodotti di altri utenti, ma anche di analizzare le relative richieste. Questa attività può essere molto utile anche per l’utilizzo di altri dispositivi con lo stesso scopo.

(1) Per avere una comprensione completa, la definizione dovrebbe essere accompagnata dalla frase “a vocazione monopolistica”. Solo i colossi del capitalismo digitale hanno la potenza di calcolo e la massa di BigData necessarie per la modellazione statistica.

[Vi ho volutamente ingannato: questo post è infatti la riscrittura-plagio da parte di Canva Magic Write di un mio articolo comparso altrove; ho dovuto fare pochissimi interventi]

2 commenti a “Predicare bene e razzolare male”
  1. Me ne ero accorto e mi chiedevo se ti eri dato anche tu all’autoemotrasfusione riproduttiva dei (propri e altrui) lacerti. Infatti, il problema è già è sarà sempre più questo: la proliferazione di testi, originali, falsi, veri, copiati, riscritti, sintetizzati, tradotti, parafrasati, sommati, decurtati, semplificati, disidratati, amplificati, ecc. ecc., in un’orgia di parole senza autore, fonte, tempo, spazio, dove comunicare sarà finalmente inutile. Lo so che non bisognerebbe essere apocalittici, ma cercare di capire e sopravvivere al 4.0 e poi al 5.0… Infatti non si morirà. Forse si riscoprirà il benessere di una maggiore parsimonia comunicativa pre-entropia artificiale. Meno parole, ma dotate di maggior senso. Ma non sarà facile. Ormai di peggio delle sciagure che ci occorrono, c’è solo il proliferare delle parole che le accompagnano. Anche queste mie, ovviamente. A proposito di razzolar male… Del resto oggi salutiamo De Bartolomeis e – al di là dei tuoi omaggi ludico-sperimentali (stupenda l’Ignoranza Artificiale di ChatGTP), quanti saranno i coccodrilli che leggeremo, redatti giustamente saccheggiando enciclopedie e quarte di copertina, pronti da tempo poiché si è divertito a procrastinare così a lungo il momento di vederli pubblicati. E di lui ricordiamo oggi due cose più recenti: l’invito a usare con umana intelligenza critica i dispositivi artificiali e l’aver fatto a tempo a definire il ministero corrente “una vera sciagura”. Grazie, a De Bartolomeis,
    anche di questi due ultimi pensieri. Oltre a tutto il resto.
    Ps A proposito di Confusione Artificiale: nella videata che compare scrivendo de bartolomeis su Bing(o), il volto che compare accanto alla civetta del Il Mattino è quello di Alain Touraine, rimasto impigliato nei canneti da un coccodrillo di qualche giorno fa.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.