In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni
      1. Aiello del Friuli
      2. Amaro
      3. Ampezzo
      4. Andreis
      5. Aquileia
      6. Arba
      7. Arta Terme
      8. Artegna
      9. Arzene
      10. Attimis
      11. Aviano
      12. Azzano Decimo
      1. Bagnaria d'Arsa
      2. Barcis
      3. Basiliano
      4. Bertiolo
      5. Bicinicco
      6. Bordano
      7. Brugnera
      8. Budoia
      9. Buia
      10. Buttrio
      1. Camino al Tagliamento
      2. Campoformido
      3. Campolongo al Torre
      4. Caneva
      5. Carlino
      6. Casarsa della Delizia
      7. Cassacco
      8. Castelnovo del Friuli
      9. Castions di Strada
      10. Cavasso Nuovo
      11. Cavazzo Carnico
      12. Cercivento
      13. Cervignano del Friuli
      14. Chions
      15. Chiopris-Viscone
      16. Chiusaforte
      17. Cimolais
      18. Cividale del Friuli
      19. Claut
      20. Clauzetto
      21. Codroipo
      22. Colloredo di Monte Albano
      23. Comeglians
      24. Cordenons
      25. Cordovado
      26. Corno di Rosazzo
      27. Coseano
      1. Dignano
      2. Dogna
      3. Drenchia
      4. Enemonzo
      5. Erto e Casso
      1. Faedis
      2. Fagagna
      3. Fanna
      4. Fiume Veneto
      5. Fiumicello
      6. Flaibano
      7. Fontanafredda
      8. Forgaria nel Friuli
      9. Forni Avoltri
      10. Forni di Sopra
      11. Forni di Sotto
      12. Frisanco
      1. Gemona del Friuli
      2. Gonars
      3. Grimacco
      1. Latisana
      2. Lauco
      3. Lestizza
      4. Lignano Sabbiadoro
      5. Ligosullo
      6. Lusevera
      1. Magnano in Riviera
      2. Majano
      3. Malborghetto Valbruna
      4. Maniago
      5. Manzano
      6. Marano Lagunare
      7. Martignacco
      8. Meduno
      9. Mereto di Tomba
      10. Moggio Udinese
      11. Moimacco
      12. Montenars
      13. Montereale Valcellina
      14. Morsano al Tagliamento
      15. Mortegliano
      16. Moruzzo
      17. Muzzana del Turgnano
      1. Nimis
      1. Osoppo
      2. Ovaro
      1. Pagnacco
      2. Palazzolo dello Stella
      3. Palmanova
      4. Paluzza
      5. Pasian di Prato
      6. Pasiano di Pordenone
      7. Paularo
      8. Pavia di Udine
      9. Pinzano al Tagliamento
      10. Pocenia
      11. Polcenigo
      12. Pontebba
      13. Porcia
      14. Pordenone
      15. Porpetto
      16. Povoletto
      17. Pozzuolo del Friuli
      18. Pradamano
      19. Prata di Pordenone
      20. Prato Carnico
      21. Pravisdomini
      22. Precenicco
      23. Premariacco
      24. Preone
      25. Prepotto
      26. Pulfero
      1. Ragogna
      2. Ravascletto
      3. Raveo
      4. Reana del Rojale
      5. Remanzacco
      6. Resia
      7. Resiutta
      8. Rigolato
      9. Rive d'Arcano
      10. Rivignano
      11. Ronchis
      12. Roveredo in Piano
      13. Ruda
      1. Sacile
      2. San Daniele del Friuli
      3. San Giorgio della Richinvelda
      4. San Giorgio di Nogaro
      5. San Giovanni al Natisone
      6. San Leonardo
      7. San Martino al Tagliamento
      8. San Pietro al Natisone
      9. San Quirino
      10. San Vito al Tagliamento
      11. San Vito al Torre
      12. San Vito di Fagagna
      13. Santa Maria La Longa
      14. Sauris
      15. Savogna
      16. Sedegliano
      17. Sequals
      18. Sesto al Reghena
      19. Socchieve
      20. Spilimbergo
      21. Stregna
      22. Sutrio
      1. Taipana
      2. Talmassons
      3. Tapogliano
      4. Tarcento
      5. Tarvisio
      6. Tavagnacco
      7. Teor
      8. Terzo d'Aquileia
      9. Tolmezzo
      10. Torreano
      11. Torviscosa
      12. Tramonti di Sopra
      13. Tramonti di Sotto
      14. Trasaghis
      15. Travesio
      16. Treppo Carnico
      17. Treppo Grande
      18. Tricesimo
      19. Trivignano Udinese
      1. Udine
      1. Vajont
      2. Valvasone
      3. Varmo
      4. Venzone
      5. Verzegnis
      6. Villa Santina
      7. Villa Vicentina
      8. Visco
      9. Vito d'Asio
      10. Vivaro
      1. Zoppola
      2. Zuglio
Diritti Digitali

Intelligenza artificiale: allucinazioni e irresponsabilità umane

Intelligenza artificiale: allucinazioni e irresponsabilità umane
4 minuti di lettura

Da settimane assistiamo alla crescita esponenziale del discorso pubblico sull'intelligenza artificiale generativa, legata soprattutto agli sviluppi dell'azienda californiana OpenAI. Amiche e amici mi chiedono per la prima volta dopo anni cosa ne penso di questi sviluppi, che implicazioni avranno sul loro lavoro e sulle nostre quotidianità. Molte persone stanno iniziando a spaventarsi: non che rimangano sveglie la notte per colpa di GPT-3 o 4, ma sembrano in qualche modo affidarsi ai pochi titoli che circolano sui media mainstream, tutti incentrati sul catastrofismo, che li sta pian piano convincendo che qualcosa di terribile sta succedendo e che loro non capiscono. I capofila di questa narrativa sono i manager e Ceo delle aziende statunitensi che sviluppano la maggior parte dei modelli di intelligenza artificiale, in corsa per una concorrenza sfrenata e concentrata nelle loro mani. Quelli che fino a oggi abbiamo chiamato "ottimisti" oggi ci confidano le loro paure sulla potenzialità distruttiva delle loro creature.

 

Sam Altman, Ceo di OpenAI: "siamo un po' spaventati, ci sono danni reali per la società", Elon Musk sostiene che andiamo incontro alla distruzione della civiltà umana, o Sundar Pichai, Ceo di Google: "l'intelligenza artificiale è pericolosa, la società deve adattarsi" e ancora Geoffrey Hinton, che ha concettualizzato il deep learning negli anni Ottanta e che ora si è licenziato da Google per poter parlare liberamente di quanto l'IA sia pericolosa.

Queste dichiarazioni, se non altro, hanno in comune un interesse commerciale. Un altro, recente esempio è Yuval Noah Harari, storico, che tramite il Telegraph e l'Economist comunica che "l'IA potrebbe segnare la fine della nostra specie". Harari ha attratto molti fan negli anni grazie ai suoi libri, come Sapiens, e ora usa questa popolarità per mettere in guardia l'umanità da un potenziale "frigorifero alimentato dall'IA che potrebbe avere abbastanza dati su di voi da hackerare il vostro cervello e conoscervi meglio di vostro marito".

Non dovremmo forse chiederci quanto in queste narrazioni non sia marketing, personale o aziendale, che serve per tenere alto l'hype dei prodotti e aumentare gli investimenti? In questo scenario, lasciando l'intero compito di parlare alla società dei rischi di questi modelli (che sono molto più concreti e attuali rispetto a questi scenari post-apocalittici) a chi li sviluppa, ci stiamo perdendo un pezzo significativo: le persone.

È questa la mia grande paura, quella di non occuparci minimamente di rendere queste innovazioni comprensibili, aperte al dibattito democratico e al controllo della società. Uso il plurale per riferirmi soprattutto all'Italia, dove condividiamo e riprendiamo titoli senza contestualizzarli e senza far notare che oltre alla narrativa di queste aziende c'è di più, come ha fatto perfettamente notare Donata Columbro, ma anche senza mai portare questi temi in Parlamento. Le persone, la società, gli utenti: chi utilizza queste tecnologie, chi ci gioca, le usa per scrivere testi, esami universitari, per fare ricerche o generare immagini, faticano a capire gli impatti reali di ciò che sta accadendo. Il discorso più popolare in questo momento, l'unico veramente diffuso, sta comunicando loro che l'umanità finirà perché la tecnologia prenderà il sopravvento. Nulla che garantisca loro la comprensione, gli strumenti per sfruttare queste tecnologie per aumentare le loro capacità, invece di fare terrorismo su come queste verranno eliminate; nessuna educazione nelle scuole, nessuna avvertenza su come ogni tecnologia (almeno per ora) non sia altro che una costruzione sociale, umana, e sotto il nostro controllo e responsabilità. Quanto ci costerà, invece, questa enorme irresponsabilità nei prossimi anni, su intere generazioni (miei coetanei compresi) che rischiano di crescere con l'idea di non servire più, che tutto sia inevitabile, e fuori dal nostro controllo?

Prendiamo un altro esempio: questa mattina, 10 maggio, ho aperto LinkedIn e Twitter, dove tutta la mia bolla stava commentando l'ultima ricerca interna rilasciata da OpenAI: "I modelli linguistici possono spiegare i neuroni nei modelli linguistici". Ho letto decine di commenti come "è la fine dell'umanità"; "la singolarità è vicina"; "ecco l'allineamento", e cioè su come dalla notte al giorno ci siamo presuntamente avvicinati significativamente al momento in cui la tecnologia imiterà il cervello umano al punto di non essere più in grado di distinguerli. La ricerca in questione comunica sostanzialmente un esperimento interno in cui è stato chiesto a GPT-4 di spiegare il comportamento dei "neuroni" (i nodi attraverso i quali scorrono dati e calcoli) di GPT-2. Essendo tuttora molto difficile per gli esseri umani spiegare come un modello di intelligenza artificiale raggiunge un output, gli scienziati di OpenAI hanno pensato di chiederlo direttamente all'IA stessa. Questa intuizione, molto interessante, potrebbe effettivamente portare a significativi avanzamenti del campo di ricerca dell'Explainable AI (XAI). È la stessa azienda però a scrivere che, al momento, "la stragrande maggioranza delle spiegazioni ottiene un punteggio scarso" e che "GPT-4 fornisce spiegazioni peggiori di quelle umane", concludendo che su 300.000 neuroni analizzati solo 1.000 sono stati ben spiegati, ma poco interessanti. A questo punto, nonostante tutto l'hype che ho letto stamattina, sarebbe il caso di interrogarsi sulla rilevanza scientifica di queste ricerche interne: questo esperimento avrebbe passato il processo di pubblicazione scientifica? È abbastanza significativo? Davvero possiamo parlare di allineamento, singolarità, di sopravvento e soprattutto, ci conviene parlarne così?

La mia risposta è: assolutamente no. Stiamo dando un'enorme autorità a modelli linguistici trattandoli come se ci stessero spiegando il loro funzionamento da soli, come se fossero davvero in grado, per dirla alla Harari, di hackerare il nostro cervello e conoscerci meglio dei nostri coniugi. Ma nessuna di queste tecnologie si sveglierà la mattina come in un romanzo distopico decidendo di rovinarci la vita, affidando il nostro lavoro a qualcun altro, parlandoci dei suoi sentimenti, a meno che non sia un essere umano a chiedergli di farlo. Come scrive Naomi Klein sul Guardian, "nel mondo dell'intelligenza artificiale sono in atto allucinazioni distorte, ma non sono i bot ad averle"; sono gli amministratori delegati che li hanno creati, che sostengono di vedere cose che per il momento non ci sono affatto.

Stiamo continuando a focalizzarci sulle macchine invece che sulle persone: quelle che usano, che devono capire, recepire, ma anche quelle che sviluppano e progettano. Allo stesso modo, i modelli linguistici non mostreranno un comportamento umano se non li programmiamo per farlo. Il punto non è capire quanto l'IA possa prendere il sopravvento, ma decidere quanto spazio dare al controllo umano, che almeno per il momento è ancora essenziale e determinante. Diverse ricerche, come il campo dei "future studies", hanno dimostrato che l'esposizione a immagini negative del futuro rende gli individui inutilmente preoccupati e minacciati. Questo non significa che non sia necessario discutere dei rischi legati alle nuove tecnologie quando non governate (figuratevi, lo faccio ogni giorno da anni), perché ciò rientra nella necessità di discuterne pubblicamente e comprendere il fenomeno, ma evitare di alimentare una narrativa che allontana le persone dalla tecnologia, dando per scontato che sia inevitabile, invece di chiederci come distribuire le responsabilità, chiederci cosa sia giusto fare, e dove invece fermarci. Questa è un'enorme responsabilità umana.