LONDRA – Nel 2022, il mondo della tecnologia ha generato una nuova abbondanza di notizie da prima pagina. A ottobre, Elon Musk ha acquistato Twitter, una delle principali piattaforme di comunicazione pubblica, utilizzata da giornalisti, accademici, aziende e responsabili politici – ed ha proceduto a licenziare la maggior parte del personale addetto al controllo dei contenuti, annunciando che l'azienda si sarebbe affidata invece all'intelligenza artificiale.
A novembre, poi, un gruppo di dipendenti di Meta ha rivelato di aver ideato un programma di intelligenza artificiale in grado di battere la maggior parte delle persone al gioco di strategia Diplomacy. A Shenzhen, in Cina, i funzionari utilizzano i "gemelli digitali" di migliaia di dispositivi mobili con connessione 5G per monitorare e gestire in tempo reale flussi di persone, traffico, e consumo di energia. E con l'ultima versione del modello di previsione linguistica di ChatGPT, molti stanno dichiarando la “fine del saggio universitario”.
In breve, è stato un anno in cui le già serie preoccupazioni riguardo alla progettazione e all’uso delle tecnologie si sono aggravate sollevando dubbi ancora più urgenti. Chi ne è responsabile? Chi dovrebbe esserlo? Le politiche e le istituzioni pubbliche dovrebbero essere programmate per garantire che le innovazioni migliorino effettivamente il mondo, eppure molte tecnologie vengono attualmente utilizzate in un vuoto normativo. Abbiamo bisogno di strutture di governance inclusive e focalizzate sull’obiettivo che siano incentrate davvero sul bene comune. Governi abili possono modellare questa rivoluzione tecnologica al servizio dell'interesse pubblico.
Si consideri l'Intelligenza Artificiale, che l'Oxford English Dictionary definisce in generale come "la teoria e lo sviluppo di sistemi informatici in grado di eseguire compiti che normalmente richiedono intelligenza umana, come la percezione visiva, il riconoscimento vocale, il processo decisionale e la traduzione lingustica". L'IA può far progredire le nostre vite in molti modi. Può migliorare la produzione e la gestione degli alimenti, rendendo l'agricoltura più efficiente ed aumentando la sicurezza alimentare. Può aiutarci a rafforzare la resilienza contro i disastri naturali, progettare edifici efficienti dal punto di vista energetico, aumentare l’accumulo di energia e ottimizzare l’impiego di energia rinnovabile. E può migliorare l'accuratezza della diagnostica medica se combinata con le valutazioni dei medici.
Queste applicazioni renderebbero la nostra vita migliore in molti modi. Ma senza regole efficaci in vigore, è probabile che l'IA crei nuove disuguaglianze ed amplifichi quelle preesistenti. Non è necessario guardare lontano per trovare esempi di sistemi basati sull'intelligenza artificiale che riproducono pregiudizi sociali ingiusti. In un recente esperimento, i robot alimentati da un algoritmo di apprendimento automatico sono diventati apertamente razzisti e sessisti. Senza una migliore supervisione, gli algoritmi che dovrebbero aiutare il settore pubblico a gestire i benefici del welfare possono discriminare le famiglie che ne hanno davvero bisogno. Altrettanto preoccupante è che le autorità pubbliche in alcuni paesi stanno già utilizzando la tecnologia di riconoscimento facciale basata sull'intelligenza artificiale per monitorare il dissenso politico e sottoporre i cittadini a regimi di sorveglianza di massa.
Anche la concentrazione del mercato è una delle principali preoccupazioni. Lo sviluppo dell'IA – e il controllo dei dati sottostanti – è dominato solo da pochi giocatori potenti in poche località. Tra il 2013 e il 2021, la Cina e gli Stati Uniti hanno rappresentato l’80% degli investimenti privati nell'IA a livello globale. Al momento esiste un enorme squilibrio di potere tra i proprietari privati di queste tecnologie e il resto di noi.
At a time of escalating global turmoil, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided.
Subscribe to Digital or Digital Plus now to secure your discount.
Subscribe Now
Ma l'IA viene potenziata anche da massicci investimenti pubblici. Tali finanziamenti dovrebbero essere amministrati a favore del bene comune, non nell'interesse di pochi. Abbiamo bisogno di un'architettura digitale che condivida in modo più equo i benefici della creazione collettiva di valore. La fase dell'autoregolamentazione leggera deve finire. Quando permettiamo al fondamentalismo di mercato di prevalere, lo Stato ed i contribuenti sono condannati a venire in soccorso a posteriori (come abbiamo visto nel contesto della crisi finanziaria del 2008 e della pandemia di COVID-19), di solito a caro prezzo e con cicatrici sociali di lunga durata. Peggio ancora, con l'IA non sappiamo nemmeno se basterà un intervento ex post. Come ha recentemente sottolineatoThe Economist, gli stessi sviluppatori di intelligenza artificiale sono spesso sorpresi dal potere delle loro creazioni.
Fortunatamente, sappiamo già come evitare un'altra crisi indotta dal laissez-faire. Abbiamo bisogno di una mission orientata a realizzare un’IA "etica per progettazione", che sia sostenuta da una solida regolamentazione e da governi capaci che lavorino per modellare questa rivoluzione tecnologica nell'interesse comune, piuttosto che solo nell’interesse degli azionisti. Con questi capisaldi, il settore privato può e vuole unirsi allo sforzo più ampio di rendere le tecnologie più sicure ed eque.
Un controllo pubblico efficace dovrebbe garantire che la digitalizzazione e l'IA generino opportunità per la creazione di valore pubblico. Questo principio è parte integrante della Raccomandazione sull’Etica dell’IA, un quadro normativo adottato da 193 Stati membri nel novembre 2021. Inoltre, i principali attori si stanno ora assumendo la responsabilità di riformulare il dibattito, con l'amministrazione del presidente degli Stati Uniti Joe Biden che propone una carta dei diritti con l’AI Bill of Rights, e l'Unione Europea che sviluppa un quadro olistico per governare l'IA.
Tuttavia, anche l’utilizzazione dell'IA da parte del settore pubblico deve mantenersi su una solida base etica. Con l'IA che supporta sempre più processi decisionali, è importante garantire che i sistemi di intelligenza artificiale non siano utilizzati in alcun modo per sovvertire la democrazia o violare i diritti umani.
Dobbiamo affrontare anche la mancanza di investimenti nelle stesse capacità d’innovazione e di governance del settore pubblico. COVID-19 ha sottolineato la necessità di maggiori capacità dinamiche nel settore pubblico. Ad esempio, senza solidi termini e condizioni che disciplinino i partenariati pubblico-privato, le aziende possono facilmente controllare il programma.
Il problema, tuttavia, è che l’esternalizzazione degli appalti pubblici è diventata sempre più un ostacolo allo sviluppo delle capacità del settore pubblico. I governi devono essere in grado di sviluppare l'IA in maniera da non dipendere dal settore privato per i sistemi sensibili, così da poter mantenere il controllo su prodotti importanti e garantire il rispetto degli standard etici. Allo stesso modo, devono essere in grado di supportare la condivisione delle informazioni, e protocolli e metriche interoperabili tra dipartimenti e ministeri. Tutto ciò richiederà investimenti nelle funzioni pubbliche, seguendo un approccio orientato alla missione.
Dato che così tante conoscenze ed esperienze oggi sono concentrate nel settore privato, le sinergie tra il settore pubblico e quello privato sono inevitabili e auspicabili. L'orientamento alla missione riguarda la scelta di chi è disposto – co-investendo con partner che riconoscono il potenziale delle missioni guidate dal governo. La chiave sta nel dotare lo Stato delle capacità per gestire l’implementazione e l’uso dei sistemi di IA, piuttosto che giocare sempre al recupero. Per condividere i rischi ed i benefici degli investimenti pubblici, i responsabili politici possono associare condizioni al finanziamento pubblico. Possono anche, e dovrebbero, richiedere a Big Tech maggiore apertura e trasparenza.
È in gioco il futuro delle nostre società. Non dobbiamo solo risolvere i problemi e controllare i rischi al ribasso dell'IA, ma anche definire la direzione della trasformazione digitale e dell'innovazione tecnologica in senso più ampio. All'inizio di un nuovo anno, non c'è momento migliore per iniziare a gettare le basi per un'innovazione senza limiti nell'interesse di tutti.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
US President Donald Trump’s import tariffs have triggered a wave of retaliatory measures, setting off a trade war with key partners and raising fears of a global downturn. But while Trump’s protectionism and erratic policy shifts could have far-reaching implications, the greatest victim is likely to be the United States itself.
warns that the new administration’s protectionism resembles the strategy many developing countries once tried.
It took a pandemic and the threat of war to get Germany to dispense with the two taboos – against debt and monetary financing of budgets – that have strangled its governments for decades. Now, it must join the rest of Europe in offering a positive vision of self-sufficiency and an “anti-fascist economic policy.”
welcomes the apparent departure from two policy taboos that have strangled the country's investment.
LONDRA – Nel 2022, il mondo della tecnologia ha generato una nuova abbondanza di notizie da prima pagina. A ottobre, Elon Musk ha acquistato Twitter, una delle principali piattaforme di comunicazione pubblica, utilizzata da giornalisti, accademici, aziende e responsabili politici – ed ha proceduto a licenziare la maggior parte del personale addetto al controllo dei contenuti, annunciando che l'azienda si sarebbe affidata invece all'intelligenza artificiale.
A novembre, poi, un gruppo di dipendenti di Meta ha rivelato di aver ideato un programma di intelligenza artificiale in grado di battere la maggior parte delle persone al gioco di strategia Diplomacy. A Shenzhen, in Cina, i funzionari utilizzano i "gemelli digitali" di migliaia di dispositivi mobili con connessione 5G per monitorare e gestire in tempo reale flussi di persone, traffico, e consumo di energia. E con l'ultima versione del modello di previsione linguistica di ChatGPT, molti stanno dichiarando la “fine del saggio universitario”.
In breve, è stato un anno in cui le già serie preoccupazioni riguardo alla progettazione e all’uso delle tecnologie si sono aggravate sollevando dubbi ancora più urgenti. Chi ne è responsabile? Chi dovrebbe esserlo? Le politiche e le istituzioni pubbliche dovrebbero essere programmate per garantire che le innovazioni migliorino effettivamente il mondo, eppure molte tecnologie vengono attualmente utilizzate in un vuoto normativo. Abbiamo bisogno di strutture di governance inclusive e focalizzate sull’obiettivo che siano incentrate davvero sul bene comune. Governi abili possono modellare questa rivoluzione tecnologica al servizio dell'interesse pubblico.
Si consideri l'Intelligenza Artificiale, che l'Oxford English Dictionary definisce in generale come "la teoria e lo sviluppo di sistemi informatici in grado di eseguire compiti che normalmente richiedono intelligenza umana, come la percezione visiva, il riconoscimento vocale, il processo decisionale e la traduzione lingustica". L'IA può far progredire le nostre vite in molti modi. Può migliorare la produzione e la gestione degli alimenti, rendendo l'agricoltura più efficiente ed aumentando la sicurezza alimentare. Può aiutarci a rafforzare la resilienza contro i disastri naturali, progettare edifici efficienti dal punto di vista energetico, aumentare l’accumulo di energia e ottimizzare l’impiego di energia rinnovabile. E può migliorare l'accuratezza della diagnostica medica se combinata con le valutazioni dei medici.
Queste applicazioni renderebbero la nostra vita migliore in molti modi. Ma senza regole efficaci in vigore, è probabile che l'IA crei nuove disuguaglianze ed amplifichi quelle preesistenti. Non è necessario guardare lontano per trovare esempi di sistemi basati sull'intelligenza artificiale che riproducono pregiudizi sociali ingiusti. In un recente esperimento, i robot alimentati da un algoritmo di apprendimento automatico sono diventati apertamente razzisti e sessisti. Senza una migliore supervisione, gli algoritmi che dovrebbero aiutare il settore pubblico a gestire i benefici del welfare possono discriminare le famiglie che ne hanno davvero bisogno. Altrettanto preoccupante è che le autorità pubbliche in alcuni paesi stanno già utilizzando la tecnologia di riconoscimento facciale basata sull'intelligenza artificiale per monitorare il dissenso politico e sottoporre i cittadini a regimi di sorveglianza di massa.
Anche la concentrazione del mercato è una delle principali preoccupazioni. Lo sviluppo dell'IA – e il controllo dei dati sottostanti – è dominato solo da pochi giocatori potenti in poche località. Tra il 2013 e il 2021, la Cina e gli Stati Uniti hanno rappresentato l’80% degli investimenti privati nell'IA a livello globale. Al momento esiste un enorme squilibrio di potere tra i proprietari privati di queste tecnologie e il resto di noi.
Winter Sale: Save 40% on a new PS subscription
At a time of escalating global turmoil, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided.
Subscribe to Digital or Digital Plus now to secure your discount.
Subscribe Now
Ma l'IA viene potenziata anche da massicci investimenti pubblici. Tali finanziamenti dovrebbero essere amministrati a favore del bene comune, non nell'interesse di pochi. Abbiamo bisogno di un'architettura digitale che condivida in modo più equo i benefici della creazione collettiva di valore. La fase dell'autoregolamentazione leggera deve finire. Quando permettiamo al fondamentalismo di mercato di prevalere, lo Stato ed i contribuenti sono condannati a venire in soccorso a posteriori (come abbiamo visto nel contesto della crisi finanziaria del 2008 e della pandemia di COVID-19), di solito a caro prezzo e con cicatrici sociali di lunga durata. Peggio ancora, con l'IA non sappiamo nemmeno se basterà un intervento ex post. Come ha recentemente sottolineatoThe Economist, gli stessi sviluppatori di intelligenza artificiale sono spesso sorpresi dal potere delle loro creazioni.
Fortunatamente, sappiamo già come evitare un'altra crisi indotta dal laissez-faire. Abbiamo bisogno di una mission orientata a realizzare un’IA "etica per progettazione", che sia sostenuta da una solida regolamentazione e da governi capaci che lavorino per modellare questa rivoluzione tecnologica nell'interesse comune, piuttosto che solo nell’interesse degli azionisti. Con questi capisaldi, il settore privato può e vuole unirsi allo sforzo più ampio di rendere le tecnologie più sicure ed eque.
Un controllo pubblico efficace dovrebbe garantire che la digitalizzazione e l'IA generino opportunità per la creazione di valore pubblico. Questo principio è parte integrante della Raccomandazione sull’Etica dell’IA, un quadro normativo adottato da 193 Stati membri nel novembre 2021. Inoltre, i principali attori si stanno ora assumendo la responsabilità di riformulare il dibattito, con l'amministrazione del presidente degli Stati Uniti Joe Biden che propone una carta dei diritti con l’AI Bill of Rights, e l'Unione Europea che sviluppa un quadro olistico per governare l'IA.
Tuttavia, anche l’utilizzazione dell'IA da parte del settore pubblico deve mantenersi su una solida base etica. Con l'IA che supporta sempre più processi decisionali, è importante garantire che i sistemi di intelligenza artificiale non siano utilizzati in alcun modo per sovvertire la democrazia o violare i diritti umani.
Dobbiamo affrontare anche la mancanza di investimenti nelle stesse capacità d’innovazione e di governance del settore pubblico. COVID-19 ha sottolineato la necessità di maggiori capacità dinamiche nel settore pubblico. Ad esempio, senza solidi termini e condizioni che disciplinino i partenariati pubblico-privato, le aziende possono facilmente controllare il programma.
Il problema, tuttavia, è che l’esternalizzazione degli appalti pubblici è diventata sempre più un ostacolo allo sviluppo delle capacità del settore pubblico. I governi devono essere in grado di sviluppare l'IA in maniera da non dipendere dal settore privato per i sistemi sensibili, così da poter mantenere il controllo su prodotti importanti e garantire il rispetto degli standard etici. Allo stesso modo, devono essere in grado di supportare la condivisione delle informazioni, e protocolli e metriche interoperabili tra dipartimenti e ministeri. Tutto ciò richiederà investimenti nelle funzioni pubbliche, seguendo un approccio orientato alla missione.
Dato che così tante conoscenze ed esperienze oggi sono concentrate nel settore privato, le sinergie tra il settore pubblico e quello privato sono inevitabili e auspicabili. L'orientamento alla missione riguarda la scelta di chi è disposto – co-investendo con partner che riconoscono il potenziale delle missioni guidate dal governo. La chiave sta nel dotare lo Stato delle capacità per gestire l’implementazione e l’uso dei sistemi di IA, piuttosto che giocare sempre al recupero. Per condividere i rischi ed i benefici degli investimenti pubblici, i responsabili politici possono associare condizioni al finanziamento pubblico. Possono anche, e dovrebbero, richiedere a Big Tech maggiore apertura e trasparenza.
È in gioco il futuro delle nostre società. Non dobbiamo solo risolvere i problemi e controllare i rischi al ribasso dell'IA, ma anche definire la direzione della trasformazione digitale e dell'innovazione tecnologica in senso più ampio. All'inizio di un nuovo anno, non c'è momento migliore per iniziare a gettare le basi per un'innovazione senza limiti nell'interesse di tutti.