“Dovremmo tutti imparare a creare prompt, cioè a fare le giuste domande all’Ia Generativa”, spiega Alexio Cassani di FairMind. L’obiettivo è affrontare questa nuova “trasformazione” tecnologica e il suo impatto sul lavoro
L’IA Generativa ha fatto irruzione nel dibattito pubblico dell’ultimo anno, con il boom dei servizi di OpenAI come ChatGPT e adesso Sora, tuttora non passa giorno senza che ci sia un tamtam di notizie sull’Intelligenza Artificiale. Da un lato ci sono le immense opportunità che si aprono all’orizzonte, dall’altro cresce l’allarme per tutti i risvolti che una “trasformazione” così delicata implica.
Le preoccupazioni maggiori riguardano il mondo del lavoro. Quale sarà davvero l’impatto di una tecnologia che ha già dimostrato di poter sostituire, bene o male, l’essere umano nei suoi compiti, a partire dalla scrittura? Intanto le aziende più grandi investono e le medio-piccole restano indietro, soprattutto in Italia. Ma i riflessi sull’occupazione iniziano a vedersi: si parla dei primi licenziamenti e di professioni destinate a sparire.
L’IA Generativa, il lavoro, le aziende, l’etica
Il problema è percepito anche sul piano istituzionale. La presidente del Consiglio Giorgia Meloni ne ha parlato a Tokyo con il primo ministro giapponese Fumio Kishida: oltre a proporre un G7 sull’IA a Trento e a chiedere un “codice di condotta” per i colossi del tech, ha proprio detto che la classe media dei lavoratori rischia di essere spazzata via.
Quasi nello stesso momento veniva annunciato che 8 grandi compagnie hi-tech hanno sottoscritto un’intesa per creare un’intelligenza artificiale etica: è la prima volta che tali realtà si impegnano con le Nazioni Unite in questo ambito. Il tema quindi è molto sentito e ci sono nuove aziende che lo mettono al centro della propria attività, come la startup FairMind, che sviluppa tecnologie di Intelligenza Artificiale Generativa per progetti di ricerca e sviluppo per le imprese.
Il ceo Alexio Cassani ha una lunga esperienza: già CTO di Webscience – spin off del Politecnico di Milano -, di Fashionis (Ferragamo), di Doing Digital Agency e di Cortilia, ha collaborato con brand come Tod’s e Zegna, ha fondato Stentle in ambito retail ed e-commerce.
“Non avrei paura di essere sostituito da un’intelligenza artificiale adesso, è un percorso che si compirà tra 10-15 anni – ci ha detto – se guardiamo com’è andata la Storia, sì, questi automatismi arrivano e impattano il mondo del lavoro, però è anche vero che mediamente la qualità della nostra vita migliora. È ovvio che dobbiamo essere bravi a gestire quello che accade nel breve, perché se vengono lasciate a casa persone e non riusciamo a dare loro un impiego diventa un danno. Ma il rischio è di essere sostituiti da chi utilizza l’AI mentre noi esitiamo”. L’abbiamo intervistato.
AI e Gen-AI: facciamo chiarezza?
La Generative AI, di cui ci occupiamo come FairMind, è quella branca che ha reso già vecchia l’AI tradizionale che continua ovviamente ad esistere. Si viaggia a due velocità: quest’ultima fa attività come le previsioni inserite nel nostro modus operandi almeno da una decina di anni, quindi stiamo già vedendo gli impatti sulle figure professionali.
Faccio un esempio: quando uno delega a un algoritmo decisioni da prendere, diventa importante per chi lo utilizza avere gli strumenti e le competenze per interpretare le decisioni prese. Il software tradizionale è leggibile: è scritto, magari con la sintassi di un linguaggio di programmazione, ha delle regole molto ferree e di base uno legge cose in inglese; c’è tutta una serie di strumenti ormai molto maturi che permettono di capire esattamente perché un bug si presenta o perché quella decisione viene presa.
Cosa accade invece con il machine e il deep learning?
Diventa tutto molto difficile perché non c’è dentro un codice. Ci sono delle matrici con numeri che prendono una forma a seconda dei dati che gli passi durante l’addestramento. È una forma che non è facilmente intellegibile per un essere umano, è come lo schermo di Matrix per intenderci, è multidimensionale. Quindi si richiede uno sforzo da parte di chi sviluppa tecnologia per produrre strumenti che permettano di rendere questi algoritmi interpretabili. Inoltre occorre formare le persone che li utilizzano per poter averne il controllo.
In sostanza gli utilizzatori diventano dei supervisori. Questo aspetto sarà sempre più estremo perché da una parte resta la poca comprensione di ciò che accade dietro le quinte e dall’altra la Gen-AI, iniziando a parlare e a comprendere la lingua dell’essere umano, si è posizionata molto vicino a qualunque attività legata alla nostra quotidianità, che è fatta di leggere, scrivere, parlare, interpretare.
Secondo la vostra esperienza e i dati a vostra disposizione, quale sarà l’impatto dell’Intelligenza Artificiale sul lavoro?
L’impatto ovviamente è pervasivo. Da una parte nascono nuove professionalità che prima non esistevano, soprattutto nel mondo IT: data scientist, data engineer… Nascono anche figure intermedie, come i data analyst. Sono sia figure molto tecniche sia persone che lavorano nell’amministrazione delle aziende o nella finanza. Fanno un upskilling ed includono nuove competenze per analizzare i dati o i prodotti di questi algoritmi.
Avere una comprensione di come funzionano i sistemi di Gen-AI è molto importante, anche solo per capire che non è magia. Noi facciamo workshop di sensibilizzazione con le aziende per spiegare le regole alla base, per rendere più confidente l’utilizzatore nell’adottarlo, per evolvere nelle professionalità.
Quali altre nuove figure sono nate?
Per scrivere con ChatGPT o comunque con tecnologie di Large Language Model bisogna creare dei prompt, le frasi per chiedergli un supporto, dato che la Gen-AI non subisce comandi come il software tradizionale ma collabora. Così è nata la figura del prompt engineer o designer ma tutti a questo punto dobbiamo saper porre le domande. Adesso su un progetto pilota stiamo prendendo come prompt designer, uno psicologo. Ci siamo resi conto che chi collabora con i LLM deve avere una sensibilità quasi manipolatoria nei confronti del modello: quindi servono competenze più soft.
Questo apre un mondo. Ci sarà sempre più bisogno di prompt designer. E chi ha studiato letteratura, storia, psicologia inizia ad avere opportunità di inserimento in questo campo, perché l’IA Generativa ha democratizzato l’accesso a questi strumenti da parte di molte più persone di prima. E’ il motivo per cui tutti conoscono ChatGPT: è molto semplice da utilizzare per tutti, sostanzialmente, con i suoi pro e contro.
Hai fatto riferimento alle figure professionali che potrebbero essere sempre più coinvolte nello sviluppo dell’intelligenza artificiale generativa. Poi però c’è il tema di tutte le figure professionali che invece rischiano di sparire. Quali sono?
Io ho visto quello che è successo nel mondo del software: l’automazione porta sempre a questo tipo di trasformazione, com’è avvenuto nell’industria nel 1800. L’automazione comporta sempre il fatto che c’è una macchina che svolge la nostra mansione e noi dobbiamo cambiare il nostro mestiere.
Questo rischio è molto vero per tutti i lavori ripetitivi in generale. La differenza è che adesso con l’arrivo dell’IA Generativa e con questi sistemi, che comprendono molto bene la lingua e sanno produrre contenuti, la sfera dei lavori ripetitivi che possono essere impattati aumenta. Tutti quelli che sostanzialmente lavorano con contenuti in qualunque forma. È necessario pensare che il loro lavoro sarà impattato. In questo momento non saprei dire se c’è una vera e propria sostituzione in atto, può essere che avvenga nel medio-lungo periodo.
Ci fai un esempio concreto?
Molti clienti ci sottopongono il caso del customer care. Vogliono un sistema evoluto, quindi un chatbot che sappia parlare, scrivere e ascoltare. Questi algoritmi di Gen-Ai sono anche molto bravi a comprendere il vocale e a usare la voce sintetica. L’idea non è sostituire chi fa customer care ma è dargli strumenti di IA Generativa e migliorargli la vita. Lo strumento profila la chiamata al suo arrivo, ascolta le domande e le inserisce in un sistema iniziando a cercare le risposte. Così anche il lavoro della risorsa è già più efficiente, veloce ed efficace, al punto che può aggiungere un servizio di vendita.
È un esempio di trasformazione virtuosa, ma questi sistemi possono impattare chiunque. Uno psicologo, ad esempio, invece di ascoltare da solo la persona, potrebbe avere il supporto di un microfono che raccoglie e sintetizza quello che sta emergendo, propone le domande da fare al paziente, basate sul fatto che ha studiato tutto lo scibile e lo ricorda talmente bene che può avanzare in modo molto pertinente degli spunti. Però a questo punto diventa un collaboratore, non è una minaccia. Ma questo può accadere anche nelle risorse umane: lo strumento ascolta il candidato, legge il curriculum e filtra velocemente 100 cv mostrando quelli più fitting.
È vero che l’IA Generativa spazzerà via la classe media? È quella la fascia di popolazione che deve temere di più?
L’impatto a tendere ci sarà, però in uno scenario in cui la gente ha modo e tempo di trasformare nel frattempo la propria professionalità e di diventare da esecutore di un’attività a supervisore, magari con mansioni diverse. Questa cosa non si fa oggi per domani, l’elemento temporale è fondamentale: in quanti anni? In un anno? Secondo me no, in 10-15 anni probabilmente sì, in questo lasso avremo tempo anche di adattarci. Il modo migliore per l’Italia di gestirlo è affrontarlo, piuttosto che non utilizzare lo strumento.
C’è forse un tema generazionale? Magari gli under 30 avranno meno difficoltà ad approcciare l’IA Generativa, a formarsi e a capirla, invece le altre fasce d’età, anche professionalmente, faranno più fatica ad adattarsi?
Sì, questo ci può stare, dipende sempre da cosa mettiamo sotto il cappello dell’intelligenza artificiale. Se guardiamo a chi fa e lavora sugli algoritmi o a chi crea questi modelli, sono argomenti molto ostici: matematica, statistica, probabilità… è chiaramente una materia tosta. Quindi questo “studio” creerebbe una barriera. Se invece pensiamo all’intelligenza artificiale generativa, quindi al caso della figura chiave del prompt designer ad esempio, è diverso. Non dico che questo tipo di professionalità la possono fare tutti, ma quasi tutti sì. Cioè non stiamo parlando di un livello di accessibilità che non puoi raggiungere studiando, magari anche in autonomia, avendo la curiosità di provare perché vuol dire scrivere in un linguaggio naturale, formattando in maniera particolare le tue domande per far sì che questi sistemi rispondano in maniera corretta.
E di questo ne avremo molto bisogno, almeno per un bel po’ di anni. Secondo me tutti dovremmo imparare a fare prompt. Poi c’è anche chi è interessato a diventare un professionista e c’è molta domanda. Sette-otto mesi fa è uscito il primo annuncio di ricerca di un prompt designer per una società di consulenza famosa. Era basato negli Stati Uniti, con un salario di partenza da 300mila dollari. Quindi c’è apertura per far entrare anche la generazione più agé.
A proposito della questione etica nella gestione dell’impatto dell’IA Generativa, come funziona il vostro comitato che garantisce il rispetto dei principi fondamentali di condotta?
Lavora su vari livelli. Da una parte, valuta in maniera molto pragmatica i progetti che ci stanno arrivando per vedere che abbiano una componente etica che sia quantomeno garantita. Se un’azienda ci chiede di sviluppare uno strumento per tagliare il 30% della forza lavoro, ci sentiamo liberi di rifiutare, a meno che non ci sia una controproposta accettabile. Questo è un primo criterio di valutazione, poi ce n’è uno invece di esecuzione.
Durante i progetti occorre sempre fare in modo che gli algoritmi non abbiano dei bias. Ad esempio a New York le forze dell’ordine avevano un algoritmo che doveva riconoscere e fornire video o foto per dire se una persona era un criminale oppure no. Visto che era stato addestrato con dati che includevano molti criminali neri, se la persona aveva la pelle nera, aveva una probabilità più alta di essere classificata come criminale rispetto a una con la pelle bianca. Questo è un bias di razza.
Ci sono poi criteri tecnici?
Il Comitato Etico valuta tecnicamente se i Large Language Model da usare sono compatibili rispetto alla nostra mission e ai nostri valori. Ci sono due o tre modelli proprietari come OpenAI e ChatGPT, Anthropics, Cloud… Sono i più famosi e provano a garantire il rispetto dei valori etici. Poi ci sono quelli open source, verso i quali siamo molto propensi perché abbiamo più visibilità su come sono realizzati e su quali sono i dati con cui sono stati fatti i training. Se un modello è molto performante ma non dà visibilità a come ad esempio ha utilizzato la forza lavoro per crearlo, a come ha usato l’energia, quindi se ha ridotto l’impatto ambientale, lo scartiamo.
Infine si arriva alle funzionalità, dalla data privacy alla data protection, con la verifica delle soluzioni. Ad esempio abbiamo rilasciato di recente un chatbot per le pubbliche amministrazioni e le aziende che devono andare a chiedere informazioni relative ai bandi. Abbiamo implementato un sistema che protegge i dati sensibili e riservati inseriti per sbaglio dagli utenti. Abbiamo preferito investire di più su un’attività non prevista quando abbiamo venduto questo progetto e l’abbiamo fatto perché volevamo essere sicuri di rispettare tutte le caratteristiche a favore dell’utente finale e del nostro cliente.