AziendeCase Study

La AI di Google: una evoluzione basata sui modelli

Intervista a Cristina Conti, Customer Engineering Manager di Google Cloud

Un modello di intelligenza artificiale è la rappresentazione astratta di un sistema in grado di trarre delle conclusioni; dal suo livello di complessità dipende la qualità dell’elaborazione dell’AI. Cristina Conti, Customer Engineering Manager di Google Cloud, ci ha fatto una panoramica di come si sono evoluti e come si stanno evolvendo i modelli di intelligenza artificiale del colosso di Mountain View per farci arrivare fino a Gemini Pro.

Innanzitutto, grazie per questa intervista. Cominciamo a parlare di lei e del suo percorso professionale. Può presentarsi ai nostri lettori?

Mi chiamo Cristina Conti e in Google Cloud sono responsabile di un team di Customer Engineering. Come dice il nome è un team di ingegneria che lavora a diretto contatto con i clienti per aiutarli ad adottare la nostra tecnologia. Lavoro in questo settore da poco più di 15 anni e sono in Google Cloud da quattro. La mia formazione si può definire ibrida; perché sono una statistica, poi bioinformatica, poi informatica. Quindi, possiamo dire che il mondo dei modelli è stato quello da cui sono partita. Per dire, il mio primissimo lavoro è stato in una start-up americana in anni non bellissimi, il 2007-2008. Avevo proprio l’obiettivo di sviluppare modelli di propensione. La propensione all’adozione dei clienti di determinati prodotti e soluzioni.

L’intelligenza artificiale, da quando è uscita allo scoperto in questi ultimi anni, ha avuto una forte evoluzione. Ed è stata una evoluzione nei modelli. Quali sono state, secondo lei, le tappe più importanti di questa evoluzione?

L’intelligenza artificiale non è nata ieri. In realtà ha una storia, se vogliamo, anche abbastanza complessa. Diciamo che quello che è successo con l’introduzione del concetto del machine learning è stato di trasformare l’intelligenza artificiale in qualcosa che poi è diventato un sistema di apprendimento della macchina. Il punto chiave dell’evoluzione, e qui faccio un po’ di percorso, è chiaramente quello che ci ha portato dal machine learning a un tipo di modelli di machine learning, ovvero le reti neurali, e alla loro applicazione al deep learning. Il deep learining, sostanzialmente, cerca di creare dei legami tra le informazioni a disposizione e raccoglierle in quello che è l’obiettivo dell’analisi.

Ovviamente, poi, sono cambiate un po’ di cose. Da un lato, c’è stato il grande passo avanti dell’introduzione dei transformer dietro le logiche di modelli di deep learning e intelligenza artificiale. Questi sono stati introdotti proprio da noi nel 2017. Poi, questo si è agganciato a un discorso di infrastruttura su cui è possibile fare training di questi modelli. Perché si può essere anche in grado di costruire la teoria del modello, ma bisogna anche avere un’infrastruttura che la riesce a sostenere. Quindi, lo sviluppo che ha fatto Google Cloud come piattaforma, in questo senso, è proprio quello di partire dalla logica dell’infrastruttura, avere poi a disposizione una piattaforma che a 360 gradi potesse appoggiarsi su questa infrastruttura e coprire gli use case applicativi e infine mettere dentro questa piattaforma i modelli.

Google Cloud Summit 2024 Cristina Conti

E cosa sono esattamente per voi i modelli di intelligenza artificiale?

I modelli, per noi, nascono da quello che abbiamo sviluppato fin dall’inizio a partire dai Transformers. Nell’ultimo anno e mezzo, poi, si sono viste una serie di evoluzioni, da Palm, poi, più recentemente, a Gemini, con la sua ultima versione Gemini 1.5 Pro. Quest’ultimo, di fatto, è un modello proprietario che permette di essere sviluppato e utilizzato per creare delle applicazioni in logica multimodale. Poi, chiaramente, non è detto che si debba voler utilizzare questo modello. Il messaggio che bisogna sempre fare passare è che il singolo modello non è necessariamente quello che risponde a ogni possibile caso d’uso. Quindi, quello che cerchiamo di fare con i clienti è dire loro di non focalizziamoci solo sul modello. DIciamo piuttosto di partire dal caso d’uso, dai propri dati, da qual è l’obiettivo che vogliamo raggiungere e decidere insieme il modello migliore all’interno della piattaforma, anche testandone diversi.

Quindi, un aspetto chiave è proprio quello di rendere questi modelli operativi con una logica di end-to-end. Ciò vuol dire sì usare il modello, ma vuol dire anche confrontarne diversi, vuol dire testarli, vuol dire fare il giusto tuning e il giusto prompting. Infine, vuol dire monitorare e gestire a 360 gradi questi modelli, perché ci sono contesti aziendali dove questo è necessario. L’aspetto dell’enterprise readiness, validarlo, interpretarlo, saper capire come sono state prese determinate decisioni, viene spesso richiesto dagli enti regolatori.

Passando dalla teoria alla pratica, quali sono le difficoltà di far arrivare questo messaggio sul mercato? Quali sono i problemi principali che state risolvendo per inserirvi sul mercato con questi approcci?

Cerchiamo di rendere queste applicazioni dei casi d’uso concreti. Perché l’adozione di questa tecnologia scatena comunque sempre reazioni del tipo “ma che cosa fa effettivamente?” oppure “, “oddio non la so controllare“. Quindi, il fatto di rendere disponibili alle PMI dei casi d’uso concreti. La logica di AI for Made in Italy nasce proprio dal cercare dei casi d’uso significativi proprio per chi deve utilizzarli. Nel mettere in piedi questi casi d’uso, di fatto, non si deve parlare nemmeno di intelligenza artificiale, si deve parlare di qual è il problema da risolvere.

Quello che cerchiamo di fare in questo momento è dire che cosa possiamo risolvere con l’intelligenza artificiale per un determinato problema. In questo senso, secondo me, il 2024 è un po’ un anno di svolta, soprattutto per l’Italia. Con le aziende, anche più piccole, che ci approcciano o che comunque partono da uno scetticismo di base e da sistemi magari molto legacy, cerchiamo di individuare dei casi d’uso semplici sa applicare.

Quindi, quello che vediamo nel futuro è cercare di identificare prima di tutto dei casi d’uso semplici e immediati su cui agire insieme con dei risultati concreti. I risultati possonno dimostrare sia all’Ufficio Acquisti che al CTO qual è il valore di adottare questa tecnologia. La vera difficoltà in questo momento è proprio questa: dimostrare questo valore. Chiaramente, serve ci sia anche la volontà di voler fare un po’ di innovazione, un po’ di prove ed essere anche disposti a fare della formazione.

Google Cloud Summit 2024 keynote

Oggi molti pensano ci sia il rischio che la tecnologia dell’intelligenza artificiale rimanga nelle mani di poche multinazionali non solo perché i modelli sono loro ma anche perché loro è la capacità computazionale necessaria. Possiamo avere la sua opinione a riguardo?

Allora, secondo me, quello che si può dire è che una delle componenti chiave per noi è l’essere open. L’abbiamo, penso, dimostrato in diversi momenti del nostro percorso. Citiamo un esempio che non è Google Cloud ma Google Android: è l’emblema della nostro essere open. Detto questo, secondo me, è in parte anche un po’ il modo in cui noi approcciamo la logica del Model Garden [il sistema di accesso e distribuzione dei modelli di AI, anche di terze parti n.d.r.] e della gestione dei modelli. I 150 e più modelli che abbiamo dentro il Model Garden possono essere nostri, possono essere di partner e possono essere open source. Li dentro, nell’ambito di chi sviluppa e crea anche modelli di AI generativa, ci sono sicuramente degli unicorni a 360 gradi.

Poi, la logica della prestazione computazionale sicuramente è fondamentale. Però, chiaramente, bisogna distinguere il fatto di voler applicare questi modelli dall’infrastruttura alla quale ci si apoggia. Perché comunque si può essere flessibili nel modo in si cui adotta questa tecnologia. Certamente, anche noi, con gli investimenti che abbiamo fatto in Italia, vogliamo mettere a disposizione delle risorse computazionali anche a dei possibili unicorni italiani che pensiamo e speriamo continuino ad emergere. Unicorni che sviluppano i loro modelli, le loro soluzioni e le loro applicazioni di intelligenza artificiale.

Pertanto, riassumendo, non la vedo come una tecnologia che è appannaggio solo di un insieme limitato di aziende.

Parliamo un attimo del futuro: Google Cloud Summit 2025. Se potesse avere una sfera di cristallo, che cosa vede come evoluzione, anche soltanto concettuale, soprattutto per Google Workspace?

Sicuramente, qui, diciamo che per il Summit 2025 è la Collaboration. Secondo me è chiaro che il lavoro che abbiamo fatto con Google Workspace, che conta una base di circa 3 miliardi di utenti consumer, ha generato un’adozione nelle piccole e medie imprese che stanno partendo. E questo per ovvi motivi anche di semplicità di adozione.

Io vedo nel 2025 un’adozione sempre maggiore da parte delle piccole e medie imprese nell’utilizzo di strumenti come Workspace, con tutti gli add-on legati al mondo delle PMI. Ovviamente, ci sono diversi livelli di adozione di un tool come Workspace. Quindi, secondo me, quello sarà un bellissimo punto del 2025: sia l’adozione di Workspace nelle PMI, sia l’introduzione di Gemini dentro Google Workspace.

Quello che mi aspetto dal Summit del 2025 più in senso esteso sono sempre più casi d’uso, che riguardano sempre più aree anche strategiche del business. Questo, con dei clienti che vengono a raccontarlo, perché poi è quello che fa la differenza: quando viene raccontato davvero. Se penso anche alle demo che noi stessi abbiamo fatto nove mesi fa all’ultimo summit, quelle erano principalmente video. Oggi le abbiamo fatte vedere, e sempre di più lo stiamo facendo. Stiamo costruendo proprio la possibilità di far toccare con mano una storia calata sul business.

Quindi penso che il 2025 porterà questo. Credo che sempre più forte sarà l’importanza di tematiche come la sicurezza. Perché via via che adottiamo effettivamente questi modelli e queste applicazioni dentro le aziende, più importante sarà essere sicuri che a livello di sicurezza funzioni tutto. Detto questo, non so quanti e quali modelli lanceremo da qui a quel momento.

La redazione ci tiene a ringraziare Cristina Conti di Google per l’interessante chiacchierata su un argomento molto importante ma di cui non si parla tantissimo come quello dei modelli di intelligenza artificiale. Per chi volesse approfondire il discorso, google ha una sezione dedicata del suo sito web.

Da non perdere questa settimana su Techbusiness

 

📈 SAP NOW 2024 l'intelligenza artificiale per il business conquista Milano
💸 Come calcolare il ritorno sugli investimenti nell’Intelligenza Artificiale
👨‍⚖️ Direttiva NIS2 e cybersecurity nelle PMI italiane obblighi e opportunità
🔫 Metà degli attacchi informatici in Italia prende di mira le supply chain
📰 Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Autore

  • Dario Maggiorini

    Si occupa di tecnologia e di tutto quello che gira attorno al mondo dell'ICT da quando sa usare una tastiera. Ha un passato come sistemista e system integrator, si è dedicato per anni a fare ricerca nel mondo delle telecomunicazioni e oggi si interessa per lo più di scalabilità e sistemi distribuiti; soprattutto in ambito multimediale e per sistemi interattivi. Il pallino, però, è sempre lo stesso: fare e usare cose che siano di reale utilità per chi lavora nel settore.

    Visualizza tutti gli articoli

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button