L’INTELLIGENZA ARTIFICIALE SOSTITUIRÀ L’UOMO?

Immagine: 
Qualifiche dell'autore: 
Chief Technology Officer Infrastructure Solution Group (Lenovo Italy)

Il titolo di questo convegno intorno all’intelligenza artificiale è Future Valley A.I. 2023! La sfida dell’uomo (Farete, 7 settembre 2023). Come esperto di riferimento nel campo dell’AI, lei pensa che l’intelligenza artificiale possa giungere a sostituire l’uomo?

Noi siamo fortunati perché abbiamo una tecnologia che possiamo decide re di usare e dobbiamo decidere come usarla, quindi non deve farci paura. Da sempre abbiamo usato la tecnologia per aiutare l’essere umano a scarica re sulle macchine i lavori più faticosi e pericolosi e per renderci la vita più comoda. Sarà così anche stavolta, però dobbiamo mettere in piedi una governance e prestare maggiore attenzione, perché la velocità dello sviluppo tecno logico è così alta, così veloce, che dobbiamo pensare a come poterla guidare.

A me sembra di rilevare una maggiore preoccupazione nei confronti di questa tecnologia rispetto a quella precedente. A parte il successo di pubblico di ChatGPT e di OpenAI, qual è il salto in avanti che ha turbato le coscienze?

La questione è che, mettendo insieme le capacità computazionali, mettendo insieme i dati, a costi sempre più bassi – perché non è soltanto un fattore tecnologico, ma è anche e per fortuna una diminuzione di costi –, gli imprenditori già oggi possono fare predizioni che migliorano il loro business. E questo contribuisce a rendere le imprese più efficienti, quindi a divenire più competitive sul mercato, ad assumere di più, e così via. Quindi non pensiamo che l’AI sia qualcosa che possa sostituirci.

Noi, grazie a Internet, oggi faccia mo bellissime cose, lavorando insieme. Prima di Internet, come potevamo pensare di fare tanti nuovi mestieri che oggi esistono? Oggi abbiamo l’AI e sappiamo in parte quali lavori possiamo sostituire e, per essere più precisi, quali parti di attività di ogni lavoro possiamo sostituire, ma non possiamo prevedere cosa la nostra creatività essenzialmente umana, la nostra immaginazione può produrre su questa piattaforma molto orizzontale che ci sta aiutando a svolgere un’attività tanto predittiva quanto generativa. I sistemi che scrivono testi, fanno disegni o creano immagini amplificano la nostra creatività.

Amplificano la nostra creatività a patto che noi facciamo nostre le tecnologie AI e impariamo a usarle, anche avendo già a monte le competenze in quel determinato campo da combinare e le sommiamo all’intelligenza artificiale, altrimenti questa trasformazione non riesce. C’è molta preoccupazione. Forse per la narrazione che ne viene fatta? E, inoltre, noi abbiamo parlato molto dei pro, ma ci sono anche dei contro che dobbiamo riconoscere per governare meglio l’intelligenza artificiale?

Dobbiamo comprendere che il risultato di questi algoritmi, per esempio, generativi sta sorprendendoci perché non abbiamo le capacità umane di vedere le correlazioni tra i dati. Questo è un bene, se noi abbiamo delle sorprese positive, cioè correlazioni che prima non potevamo vedere e che oggi le macchine ci aiutano a vedere. Certa mente, però, queste macchine, partendo dai dati e non dalla logica umana, dalla teoria, possono produrre risultati che non sono così precisi e utili. E, allora, per evitare di creare disuguaglianze, per evitare quelle che si chiamano le “allucinazioni”, per evitare impatti etici sul pubblico, sull’audience che userà questi sistemi, il mio suggerimento è quello di mettere insieme competenze multidisciplinari. In altri termini, non basta un semplice tecnico informatico da solo a sviluppare il suo algoritmo, anche se in Italia abbiamo molti tecnici bravi e attenti, ma sono bravi a costruire l’efficienza dell’algoritmo, in realtà poi l’impatto che questi algoritmi hanno è molto più basso e le conseguenze non sono chiarissime. Per questo abbiamo bisogno di mettere insieme filosofi, economisti e uomini che conoscono le leggi per aiutare il singolo tecnico a fare in modo che il suo impatto sia benefico per tutti.

Noi stiamo addestrando queste macchine straordinarie, sempre più potenti, e ora siamo in attesa di sapere come sarà la quinta versione di ChatGPT e la sesta di Midjourney, e lo facciamo su dati che sono dell’AI, presto attenzione o comun imperfetti. Allo stesso tempo però quei dati li produciamo noi, sono lo specchio della nostra società e quindi contengono i nostri pregiudizi, i nostri errori, la nostra eccellenza, ma anche il nostro odio. Come possiamo noi esseri umani imperfetti creare macchine perfette o perlomeno permettere a queste macchine di superare i nostri limiti? C’è un modo? Una strada?

Proviamo a separare in tanto il dominio dei dati dal dominio del calcolo, perché non sono la stessa cosa, e vediamo che tipo di dati dobbiamo mettere in input alla macchina. Quindi la domanda che potreste far vi è la seguente: preferiamo che la macchina ChatGPT X legga indiscriminatamente qualsiasi cosa dalla rete, da Internet? Qualcuno risponderà sì e qualcun altro no e proporrà d’introdurre un filtro rispetto alla violenza e alla pedopornografia, per esempio. La questione centrale allora è: chi met te quel tipo di filtro in input? Con quali valori? Con il mio modo di pensare? Con il tuo? Allora, evidentemente, dobbiamo costruire insieme dei filtri sia in input, ma soprattutto in output, nel risultato che dà la macchina, che noi impropriamente chiamiamo “decisione”, dicendo: “La macchina ha deciso”. In realtà la macchina non decide nulla, il suo risultato non è un verdetto inappellabile, non è neanche una sentenza. Sarà il giudizio di noi esseri umani a valutare questo output, questo risultato, rispetto a cui occorre decidere insieme quali sono i guard rails, cioè i sistemi legislativi e tecnici per fare in modo che il risultato sia un risultato che faccia del bene e non faccia discriminazioni, per esempio, di classe, di razza, e così via.

Quindi questo processo non può essere prerogativa esclusiva di coloro che sviluppano tali sistemi, è da fare coralmente, mettendo insieme tutti gli stakeholder della società seduti attorno a un tavolo.

Esattamente, perché la materia è complessa. Spesso si dice che l’AI non è una scelta, ma una disciplina. E io concordo. Questo significa che tale disciplina è una pratica da fare tutti insieme.

Nel mio lavoro per Lenovo, quando supporto migliaia di clienti nell’uso dell’AI, presto attenzione o comunque consiglio di mettere  insieme un team multidisciplinare perché ciascuno dia un apporto in base alle proprie competenze. Prima forse era possibile lavorare da soli perché l’impatto era meno ampio, ma ora, se costruiamo una chatbot di successo, usata da cento milioni di persone, evidentemente possiamo creare danni. Invece, con le nostre competenze umane, con le nostre capacità, riusciamo a fare meglio. Nessun amministratore delegato passerà alla storia per aver usato una tecnologia anziché l’altra. Quello che si distinguerà sarà invece l’amministratore delegato che avrà usato le competenze umane con i loro valori e le avrà introdotte nei risultati per ottenere un successo nel mercato.

A partire dalla sua esperienza nell’azienda in cui si trova a operare, può fare qualche esempio di applicazione, qualcosa che avete fatto abilitando nuove pratiche attraverso l’uso di queste nuove tecnologie …

Posso accennare a ciò che abbiamo realizzato nella fabbrica di un’azienda che fa meccatronica, produce componenti meccanici sensorizzati. Abbiamo aiutato l’impresa a fare il retrofit delle macchine, degli utensili che non era no stati pensati per essere sensorizzati, perché, se un tornio, acquistato negli anni ottanta, non ha i sensori, non può darci le indicazioni di vibrazioni, di calore, di consumo energetico, e così via. Sensorizzando questi strumenti, abbia mo reso più efficiente la produzione perché l’azienda è in grado di sapere in anticipo quando uno strumento sta per rompersi. Inoltre, questo monitoraggio ha un effetto positivo sulla qualità del prodotto, che è sempre migliore e più controllata. Mettendo insieme sistemi informativi che prima erano separati – i dati delle macchine, i dati degli oggetti e i dati del mercato –, riusciamo a fare una previsione che riguarda non soltanto l’aspetto tecnico, ma anche quello commerciale. E la relazione fra questi due elementi porta grandissimi benefici.

Può fare un altro esempio?

All’aeroporto di Verona abbiamo installato un sistema che aiuta a individuare gli uccelli presenti sulla pi sta per poi consentire d’inviare un segnale specifico per ciascuna famiglia di uccelli affinché si allontani no. Così facendo, abbiamo ridotto notevolmente il rischio in fase di atterraggio o di decollo degli aerei.

State lavorando anche nell’ambito del linguaggio naturale?

Certamente, ci siamo occupati di quello che si chiama NLP (Natural Language Processing). Con una multinazionale italiana della traduzione stiamo aiutando operatori che traducono in tutte le lingue del mondo. Fornendo loro una capacità computazionale, a costi più bassi, perché questa è la chiave, riusciamo a far in modo che ogni traduttore possa eseguire una traduzione migliore e in minor tempo. Così, i traduttori guadagnano di più, l’impresa è più competitiva e noi dimostriamo che in Italia siamo veramente forti nell’utilizzo dell’AI nel settore delle traduzioni.

Lei ha scritto che l’algoritmo è egoista, mentre a me sembra che noi facciamo sempre più affidamento su di esso. Dobbiamo continuare a fidarci?

Non dobbiamo fidarci di una macchina che non ha un corpo, perché senza il corpo non si può fare esperienza del mondo, non si possono collegare causa ed effetto, non si può capire il significato delle parole. La macchina, non avendo comprensione del contesto, ma limitandosi a fare elaborazioni e calcoli di numeri, è soltanto hardware, software e dati. Noi invece siamo molto più dell’insieme delle nostre parti.

 

Intervista di Alessio Iacona, curatore dell’Osservatorio Intelligenza Artificiale (Ansa)