Site icon Techbusiness

L’intelligenza artificiale in tasca

L'intelligenza artificiale in tasca thumbnail

Al Mobile World Congress 2024, a Barcellona, abbiamo visto molti nuovi trend per la tecnologia mobile, sia consumer che business. Ovviamente, l’intelligenza artificiale l’ha fatta da padrona e tutti i brand la propongono in maniera più o meno contestualizzata. Una novità, all’interno del macro-contesto dell’AI è il fatto che molti la stanno promuovendo come un elemento dei telefoni cellulari. Fino a che si parla di ottimizzazione energetica nessuno si meraviglia. Gli annunci del 2024, però, prevedono l’interpretazione del linguaggio naturale e la manipolazione di immagini; due discorsi molto più ampi e complessi.

Capita la direzione in cui, verosimilmente, le big stanno cercando di spingere il mercato, bisogna interrogarsi sulle ricadute per i più piccoli. Che cosa si sta per aprire di fronte a chi fa prodotti e servizi orientanti agli utenti mobili? La nostra redazione ha provato a darsi una risposta.

La tutela delle informazioni; spinta o ostacolo?

Quella dell’intelligenza artificiale è, senza tema di sbagliare, la tecnologia che ha registrato l’evoluzione più dirompente sul mercato di questi ultimi anni. Addirittura più del Cloud stesso su cui si appoggia. Tutte le aziende sono interessate a usarla e tutti i fornitori di servizi la stanno mettendo a portfolio.

Tuttavia, uno dei punti più critici legato all’adozione pervasiva dell’IA, è la tutela dei dati di chi la usa. Dal punto di vista aziendale vuoi dire tutelare i propri asset e le proprietà intellettuali mentre per il privato è una questione di protezione dei propri dati sensibili; la sua privacy.

cellulari samsung galaxy AI is here
Per Samsung, Galaxy AI è già qui

Per le aziende esistono già delle soluzioni in cui l’informazione viene anonimizzata, come nell’offerta di Salesforce oppure il lavoro viene svolto interamente da un’infrastruttura cloud privata, come con nel caso di Nutanix per cui i dati non vanno mai verso l’esterno. Se guardiamo il cliente finale, invece, c’è meno spazio di manovra; perché non possiede una infrastruttura (ma solo un PC portatile o un cellulare) e deve obbligatoriamente appoggiarsi a un cloud pubblico per addestrare i propri modelli di AI. Nel caso degli utenti professionali, la combinazione dei due scenari può rappresentare un fattore di rischio anche per il datore di lavoro.

Una soluzione apparentemente semplice

Le aziende che hanno come business la produzione e la vendita di dispositivi personali questo scenario lo hanno già ben presente. La risposta, però, può essere una sola: sul cellulare l’AI deve funzionare offline. Ovvero, non deve richiedere il collegamento a un cloud per l’addestramento e il calcolo delle inferenze (per far prendere delle decisioni all’AI). Perché è l’unico modo per convincere l’utente finale che non sta correndo nessun rischio di divulgare i suoi dati ad una AI chissà dove. Dobbiamo dirgli che, semplicemente, le informazioni con cui addestra la rete neurale del suo assistente personale non andranno mai da nessuna parte lontano da lui.

Ricordiamoci anche che la maggior parte delle aziende che promuovono questo nuovo trend sono legate all’est asiatico. Per cui, la barriera della diffidenza si alza, anche se non sempre in maniera giustificata. Quindi l’implementazione di una AI che funziona offline diventa quasi un requisito per arrivare sul mercato professionale dell’occidente.

La scritta sullo stand di ZTE al Mobile World Congress 2024

Intelligenza artificiale offline

Il tema dell’intelligenza artificiale offline sui dispositivi personali non è per nulla nuovo. Di fatto, ci sono molte realtà tra cui, ad esempio, Google, che già forniscono questa opzione agli sviluppatori.

Il fatto però che una cosa sia teoricamente fattibile non ci evita difficoltà tecnologiche. Nello specifico, usare un cellulare per la computazione di una AI non è la stessa cosa che fare uso di un data center. Inoltre, l’AI che vive nel nostro cellulare diventa anch’essa un dato sensibile?

La computazione locale

Usare un dispositivo mobile per addestrare o usare la rete neurale di una AI presenta due grossi ostacoli: l’energia e il tempo di convergenza.

Semplificando al massimo, l’addestramento di una rete neurale viene fatto per passi successivi e richiede migliaia se non milioni di iterazioni. La grande capacità computazionale di un data center aiuta appunto a ridurre drasticamente il tempo necessario con cui la nostra AI personale diventa pronta ad assisterci. Inoltre, il quantitativo di calcoli per modelli complessi è alto e può avere un impatto importante sulle batterie. Perché, si sa, a un professionista il cellulare serve principalmente a telefonare.

Oggi si tenta di risolvere questi due problemi implementando is sistema di calcolo per l’AI direttamente in silicio. Approccio utilizzato, tra gli altri, anche da Quallcom. Le implementazioni on-chip minimizzano lo spreco energetico e ottimizzano la computazione. Purtroppo, però, hanno anche il problema di essere difficoltose da aggiornare rispetto a quelle implementate in software.

Un compromesso che si utilizza già da anni è fornire una all’utente una AI pre-addestrata in termini generali che si va poi, col tempo, ad adattare all’utilizzatore.

Quello che ci serve, se vogliamo infilarcele in tasca, sono delle intelligenze artificiali in grado di convergere più velocemente verso l’assistente che ci serve usando meno energia. E con “più velocemente” e “meno energia”, secondo noi, si dovrebbe intendere almeno un ordine di grandezza. Questo vuol dire lavorare non solo sull’hardware ma anche sugli algoritmi.

Non possiamo escludere che in un prossimo futuro arriveranno sul mercato nuove generazioni di processori AI-ready sempre più ottimizzate oppure che, nei PC, a fianco di CPU e GPU vengano commercializzate delle unità di calcolo specializzate in AI alla stregua dei vecchi co-processori matematici degli anni 90. Potrebbero, secondo noi, essere chiamate AIPU.

L’intelligenza artificiale come dato personale e sensibile

Un aspetto importante su cui, a nostro parere, non si discute abbastanza è il valore delle rete neurale in se. Ovvero, una AI addestrata da me e confinata all’interno del mio cellulare diventa essa stessa un mio dato personale e sensibile? Riflettendoci, se ci viene sottratta, il ladro ha a disposizione uno strumento che sa come ragioniamo e conosce i nostri bisogni. Se non sono informazioni personali queste, viene obiettivamente da chiedersi che cosa lo sia.

Il problema della protezione di una intelligenza artificiale addestrata, sia dal punto di vista legale che tecnico, a nostro avviso non viene sufficientemente discusso. Possiamo legare in maniera inequivocabile la AI al nostro cellulare o alla nostra persone? Che cosa possiamo fare legalmente a qualcuno che ci sottrae una nostra AI generativa e la sfrutta per creare contenuti senza darci credito? Come possiamo evitare che la AI venga “inquinata” dall’esterno per indurci a fare (o fare al posto nostro) azioni contro i nostri interessi? Queste, e molte altre, sono domande che hanno relativamente poco significato nel momento in cui la AI è chiusa nel bunker di un data center. Diventeranno sicuramente molto più importanti quando il nostro assistente personale vivrà solo nelle nostre tasche, saprà assolutamente tutto di noi e sarà anche più esposto ai malintenzionati.

In redazione non siamo riusciti a dare delle risposte unanimi. Quello che ci pare chiaro, comunque è che c’è un sacco di lavoro da fare e un vero e proprio mercato che sta per aprirsi: quello della gestione delle AI che ci porteremo addosso.

Personali, ma non cellulari

Chiudiamo allargando il discorso a tutti i dispositivi dotati di capacità di calcolo che non sono dei cellulari ma, verosimilmente, ospiteranno qualche forma di AI, se già non lo fanno. Anche di quelli si è parlato al Mobile World Congress del 2024, seppure in forma minore. Vi portiamo due possibili casi di studio.

Un’automobile, per esempio, potrebbe avere una AI addestrata per anticipare le nostre scelte di percorso o per indicarci le stazioni radio di nostra preferenza. Esattamente come un cellulare un’auto può essere rubata, ma diversamente da un cellulare non possiamo difenderla mettendocela in tasca. Inoltre, quando è parcheggiata, rimane “a disposizione” di eventuali attaccanti.

Una dimostrazione per l’uso di domotica con 6G e AI di MediaTek

L’altro esempio che portiamo è quello della domotica. L’impianto domotico di casa nostra conosce le nostre abitudini probabilmente meglio di noi. Il ciclo del sonno, cosa consumiamo, cosa guardiamo in televisione e tanto altro. Per peggiorare il panorama, diversamente da un’automobile, non possiamo neppure spostarlo. Un attaccante sa che è li e, se l’intelligenza artificiale è locale. questa ha al suo interno un sacco di nostre informazioni personali. Se l’impianto poi è quello di un ufficio o di una fabbrica, il problema si amplifica notevolmente. Oggi, gli impianti domotici commerciali fanno uso di servizi cloud, ma qualcuno si sta già ponendo il problema di mantenere tutte le informazioni sulla rete locale; si veda, ad esempio, il progetto openHAB.

È solo una questione di tempo perché si inizi a parlare di intelligenza artificiale offline in altri ambiti al di la del cellulare che abbiamo in tasca. Verosimilmente, saranno le aziende che hanno come core business IoT e OT a dover affrontare per prime il problema.

Exit mobile version