AI nello sviluppo umanitario: rischi e opportunità

L’Intelligenza Artificiale (IA) è spesso celebrata come uno strumento di trasformazione per affrontare le sfide globali. Di contro, l’impiego di tecnologie AI non è privo di contraddizioni. Da questa riflessione ha preso forma il webinar “Rischi e opportunità dei modelli predittivi dell’IA nel campo dello sviluppo internazionale e umanitario”.

E proprio su questa ambivalenza e sulla necessità di trovare un punto di equilibrio, ha aperto l’incontro Filippo Lonardo del MAECI, che ha parlato dell’AI come di uno “strumento rivoluzionario, in grado di affrontare le sfide globali in modo significativo e contribuire agli SDG in modi assolutamente straordinari”. Riconoscendone i potenziali rischi, ha altresì sottolineato che, come Governo “stiamo studiando modi per implementare l’IA in modo responsabile, perché nonostante il suo potenziale, l’IA è piena di contraddizioni che sollevano dilemmi etici, sociali e pratici”.

Dobbiamo essere attori responsabili dei dati

A Giulio Coppi, con oltre 15 anni di esperienza internazionale nei settori umanitario, dei diritti umani e accademico, attualmente responsabile del monitoraggio e della consulenza sui diritti digitali nel contesto dei conflitti e dei disastri presso Access Now, il compito di inquadrare i punti fondamentali della discussione.

Partendo dal report Mapping Humanitarian Tech: exposing protection gaps in digital transformation programmes, dal rapporto OCHA del 2024 e da un lavoro del Centro Dati Umanitari sull’analisi predittiva e sui quadri etici dell’IA, si interroga su cosa intendiamo per IA umanitaria e se effettivamente può esistere un’IA umanitaria.

Per farlo mette in chiaro i tre elementi alla base dell’Intelligenza Artificiale: grandi quantità di dati, potenza di calcolo e tecniche matematiche avanzate. Serviranno per trovare delle risposte.

Su cosa si intenda per AI umanitaria, sottolinea l’esistenza di due punti di vista. “Attaccare “umanitario” davanti a un termine tecnologico lo rende buono. Quindi, c’è un aspetto cinico, che è che l’IA umanitaria ispira fiducia. Il secondo, che è più valido, è che abbiamo effettivamente bisogno di una lente umanitaria sull’IA”.

E nel primo caso, a ben guardare, un’IA umanitaria non esiste, per tre ragioni: “Il settore umanitario non dispone di grandi quantità di dati, dunque non puoi avere un’IA umanitaria, ma potrai avere un’IA per applicazioni umanitarie. Inoltre, il settore umanitario non ha accesso a una potenza di calcolo infinta e non ha accesso a tecniche matematiche avanzate”.

In chiusura, evidenzia come il rapporto di potere stia cambiando. L’IA ha sempre bisogno di dati freschi e a forza di scandagliare il web si stanno esaurendo. Quello di cui c’è bisogno sono nuovi set di dati freschi. E chi ha nuovi set di dati freschi? Il settore umanitario. “Non è più il settore umanitario interessato ad accedere alla tecnologia, ma le aziende tecnologiche stanno spingendo il settore umanitario a usare questa tecnologia, perché hanno bisogno dei loro dati”. E l’invito con chiude il suo intervento è “Dobbiamo essere attori responsabili dei dati”.

IA ed educazione

Sul binomio IA ed educazione si incentra l’intervento di Jen Persson, fondatrice dell’organizzazione non profit Defend Digital Me, e punta su un aspetto: “è cruciale comprendere l’IA non solo come tecnologia, ma anche in termini di ruoli, diritti e responsabilità”.

L’IA deve essere valutata non solo per i suoi effetti immediati, ma anche per le sue implicazioni sul benessere e sui diritti degli studenti. L’educazione di qualità deve essere inclusiva ed equa, e il ruolo dell’IA deve essere allineato con gli interessi degli studenti, degli insegnanti e delle istituzioni.

L’educazione non riguarda solo il trasferimento di conoscenze, ma anche la promozione del pensiero critico e della consapevolezza sociale. L’IA può influenzare profondamente queste dinamiche e richiede un’attenta regolamentazione per garantire un’educazione che rispetti i diritti umani e promuova la democrazia.

Come regolamentare l’IA?

Di informatica, etica e regolamentazione dell’intelligenza artificiale ha parlato Guido Boella, Co-fondatore della Società Italiana per l’Etica dell’Intelligenza Artificiale SIpEIA, con cui hanno lanciato il web-magazine MagIA.

“La regolamentazione dell’IA è un problema complesso e frammentato, con approcci diversi a causa delle differenze nei diversi sistemi legali”, ha sottolineato. Un approccio internazionale alla regolamentazione dell’IA potrebbe sembrare ideale, ma è difficile da realizzare, anche per il peso esercitato dalle cosiddette Big Tech.

Boella ha poi spostato l’attenzione sulla questione dell’automazione e della perdita di posti di lavoro, che ha definito “particolarmente preoccupante”. Studi come quelli di Daron Acemoglu del MIT dimostrano che, dagli anni ’80, i lavori distrutti dall’automazione hanno significativamente superato quelli creati.

L’IA generativa potrebbe peggiorare questa tendenza, poiché è in grado di svolgere anche i nuovi lavori creati dalla tecnologia. In questo contesto complesso, è essenziale essere cauti riguardo agli sforzi di lobbying che cercano di guidare la narrazione sull’IA.

La regolamentazione dell’IA richiede una comprensione approfondita e un approccio multidisciplinare per affrontare le sfide etiche, legali e sociali che essa presenta.

Related Articles