In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni
      1. Aiello del Friuli
      2. Amaro
      3. Ampezzo
      4. Andreis
      5. Aquileia
      6. Arba
      7. Arta Terme
      8. Artegna
      9. Arzene
      10. Attimis
      11. Aviano
      12. Azzano Decimo
      1. Bagnaria d'Arsa
      2. Barcis
      3. Basiliano
      4. Bertiolo
      5. Bicinicco
      6. Bordano
      7. Brugnera
      8. Budoia
      9. Buia
      10. Buttrio
      1. Camino al Tagliamento
      2. Campoformido
      3. Campolongo al Torre
      4. Caneva
      5. Carlino
      6. Casarsa della Delizia
      7. Cassacco
      8. Castelnovo del Friuli
      9. Castions di Strada
      10. Cavasso Nuovo
      11. Cavazzo Carnico
      12. Cercivento
      13. Cervignano del Friuli
      14. Chions
      15. Chiopris-Viscone
      16. Chiusaforte
      17. Cimolais
      18. Cividale del Friuli
      19. Claut
      20. Clauzetto
      21. Codroipo
      22. Colloredo di Monte Albano
      23. Comeglians
      24. Cordenons
      25. Cordovado
      26. Corno di Rosazzo
      27. Coseano
      1. Dignano
      2. Dogna
      3. Drenchia
      4. Enemonzo
      5. Erto e Casso
      1. Faedis
      2. Fagagna
      3. Fanna
      4. Fiume Veneto
      5. Fiumicello
      6. Flaibano
      7. Fontanafredda
      8. Forgaria nel Friuli
      9. Forni Avoltri
      10. Forni di Sopra
      11. Forni di Sotto
      12. Frisanco
      1. Gemona del Friuli
      2. Gonars
      3. Grimacco
      1. Latisana
      2. Lauco
      3. Lestizza
      4. Lignano Sabbiadoro
      5. Ligosullo
      6. Lusevera
      1. Magnano in Riviera
      2. Majano
      3. Malborghetto Valbruna
      4. Maniago
      5. Manzano
      6. Marano Lagunare
      7. Martignacco
      8. Meduno
      9. Mereto di Tomba
      10. Moggio Udinese
      11. Moimacco
      12. Montenars
      13. Montereale Valcellina
      14. Morsano al Tagliamento
      15. Mortegliano
      16. Moruzzo
      17. Muzzana del Turgnano
      1. Nimis
      1. Osoppo
      2. Ovaro
      1. Pagnacco
      2. Palazzolo dello Stella
      3. Palmanova
      4. Paluzza
      5. Pasian di Prato
      6. Pasiano di Pordenone
      7. Paularo
      8. Pavia di Udine
      9. Pinzano al Tagliamento
      10. Pocenia
      11. Polcenigo
      12. Pontebba
      13. Porcia
      14. Pordenone
      15. Porpetto
      16. Povoletto
      17. Pozzuolo del Friuli
      18. Pradamano
      19. Prata di Pordenone
      20. Prato Carnico
      21. Pravisdomini
      22. Precenicco
      23. Premariacco
      24. Preone
      25. Prepotto
      26. Pulfero
      1. Ragogna
      2. Ravascletto
      3. Raveo
      4. Reana del Rojale
      5. Remanzacco
      6. Resia
      7. Resiutta
      8. Rigolato
      9. Rive d'Arcano
      10. Rivignano
      11. Ronchis
      12. Roveredo in Piano
      13. Ruda
      1. Sacile
      2. San Daniele del Friuli
      3. San Giorgio della Richinvelda
      4. San Giorgio di Nogaro
      5. San Giovanni al Natisone
      6. San Leonardo
      7. San Martino al Tagliamento
      8. San Pietro al Natisone
      9. San Quirino
      10. San Vito al Tagliamento
      11. San Vito al Torre
      12. San Vito di Fagagna
      13. Santa Maria La Longa
      14. Sauris
      15. Savogna
      16. Sedegliano
      17. Sequals
      18. Sesto al Reghena
      19. Socchieve
      20. Spilimbergo
      21. Stregna
      22. Sutrio
      1. Taipana
      2. Talmassons
      3. Tapogliano
      4. Tarcento
      5. Tarvisio
      6. Tavagnacco
      7. Teor
      8. Terzo d'Aquileia
      9. Tolmezzo
      10. Torreano
      11. Torviscosa
      12. Tramonti di Sopra
      13. Tramonti di Sotto
      14. Trasaghis
      15. Travesio
      16. Treppo Carnico
      17. Treppo Grande
      18. Tricesimo
      19. Trivignano Udinese
      1. Udine
      1. Vajont
      2. Valvasone
      3. Varmo
      4. Venzone
      5. Verzegnis
      6. Villa Santina
      7. Villa Vicentina
      8. Visco
      9. Vito d'Asio
      10. Vivaro
      1. Zoppola
      2. Zuglio
Analisi

Il deep learning cosciente è ancora un'utopia

Il deep learning cosciente è ancora un'utopia
(afp)
Nonostante le crescenti aspettative, l’intelligenza artificiale generale solleva ora qualche dubbio: siamo sicuri che degli algoritmi basati sulla statistica possano fare il salto di qualità?
5 minuti di lettura

Fino a oggi, tutti gli algoritmi di deep learning sono stati accomunati da un aspetto: sanno fare una sola cosa per volta. In gergo tecnico, questi algoritmi sono infatti delle “artificial narrow intelligence” (Ani): intelligenze artificiali limitate, in grado magari di sconfiggere il campione mondiale di scacchi ma che, per imparare a giocare a dama, devono cancellare qualunque nozione del primo gioco e ricominciare l’addestramento da capo.

Non potendo conservare quanto appreso nell’addestramento per un compito specifico – riconoscere immagini, tradurre una lingua, consigliarvi il prossimo film su Netflix, ecc. – per gli algoritmi di deep learning è anche impossibile impiegare conoscenze pregresse che potrebbero tornare utili per i compiti futuri (un po’ come noi sfruttiamo quanto imparato andando in bicicletta per guidare il motorino). 

 

Gato di DeepMind: è vera intelligenza?

Questo limite delle attuali intelligenze artificiali è sempre stato considerato uno dei principali ostacoli lungo la strada che porta verso l’intelligenza artificiale “forte”, in grado cioè di competere con quella dell’essere umano. Così è stato, almeno, finché non ci siamo trovati di fronte a due dichiarazioni decisamente altisonanti. La prima è quella dell’ingegnere di Alphabet (Google), secondo cui il network neurale specializzato in linguaggio LaMDA sarebbe “senziente” (e in seguito alla quale è stato sospeso). La seconda proviene invece da DeepMind, il laboratorio di ricerca sull’intelligenza artificiale di proprietà di Alphabet (Google) che ha da poco presentato Gato: un unico modello di network neurale in grado di giocare ai vecchi videogame Atari, riconoscere immagini, impilare dei mattoncini guidando un vero braccio robotico e molto altro ancora, passando senza difficoltà da un compito all’altro.

Nel complesso, Gato è in grado di eseguire 604 compiti differenti. “Game over!”, ha trionfalmente dichiarato uno dei principali ricercatori di DeepMind, Nando de Freitas, annunciando come questo sistema di deep learning rappresenti il primo passo verso la conquista delle Agi (artificial general intelligence): le intelligenze artificiali generali capaci, come l’essere umano, di portare a termine compiti in un ampio spettro di ambiti anche molto differenti tra loro.

 


Alla base delle dichiarazioni di Freitas c’è l’idea che – una volta imboccata, grazie a Gato, la strada generalista – si tratti soltanto di creare modelli sempre più grandi e dare loro in pasto sempre più dati. Il resto verrà da sé, fino a raggiungere un’intelligenza artificiale di livello umano. Per quanto sia innegabile che Gato possa passare da un compito all’altro senza dover cancellare le conoscenze pregresse, alcuni dei limiti di questo modello – evidenziati da Melissa Heikkilä sulla MIT Technology Review – non possono che raffreddare gli entusiasmi.

Prima di tutto, Gato è sì in grado di portare a termine svariati compiti, ma con performance nettamente inferiori rispetto ai modelli che fanno una cosa soltanto. Ancor più importante è però un altro aspetto: “Gato sarà anche generalista, nel senso che può fare più cose allo stesso tempo, ma siamo ancora a una distanza planetaria dalla IA ‘generale’ che si adatta a nuovi compiti, differenti da quelli per cui è stato addestrato il modello”, scrive Heikkilä. In poche parole, Gato non può apprendere funzioni per le quali non ha ricevuto un addestramento specifico. 

 

I limiti del deep learning

Tra i tanti scettici delle conquiste di Gato – e della possibilità di conquistare una vera intelligenza artificiale usando il deep learning – il più critico è probabilmente Gary Marcus, neuroscienziato della New York University e fondatore della startup Robust AI. Come già dimostrato nella sua analisi di GPT-3 – un altro modello di deep learning circondato da enormi aspettative – questi strumenti sono sì in grado di ottenere dei risultati impressionanti (come scrivere un articolo per il Guardian, con l’attento taglia e cuci di un redattore umano), ma in molti casi commettono errori di logica talmente grossolani che, spiega Marcus, “se li facesse un essere umano penseresti tutto tranne che sia intelligente”.

Per esempio, dopo aver letto un testo in cui si chiedeva come far passare da una porta un tavolo troppo largo, GPT-3 ha consigliato di tagliare orizzontalmente la porta in due e di rimuoverne la parte superiore. Una pessima soluzione al problema. E di esempi assurdi di questo tipo ce ne sono a centinaia.

È inevitabile che ciò avvenga, trattandosi di strumenti capaci di scovare correlazioni statistiche in un oceano di dati (e che sarebbero invisibili all’uomo), ma senza avere idea di che cosa stiano facendo e di quale siano i rapporti di causa ed effetto. Invece di affrontare questi limiti, ha scritto sempre Gary Marcus in un lungo saggio pubblicato da Nautilus, i continui ed eccessivi annunci relativi alle potenzialità del deep learning hanno fatto sì che questo settore passasse “da una moda passeggera all’altra, decennio dopo decennio, promettendo sempre la luna e solo occasionalmente mantenendo le promesse”.
 


Tra i vari fallimenti, uno dei più sorprendenti è stato quello di Watson, il sistema di intelligenza artificiale lanciato nel 2011 da IBM che avrebbe dovuto sostituire i medici e rivoluzionare la sanità, e che ha invece completamente fallito il suo obiettivo, al punto da essere letteralmente venduto a pezzi.

Nel 2016, invece, un padre del deep learning come Geoff Hinton aveva annunciato che “i radiologi oggi sono come il coyote che sta già correndo nel vuoto, ma ancora non si è accorto di star precipitando. È del tutto evidente che nel giro di cinque anni il deep learning avrà prestazioni molto migliori”. I cinque anni sono passati e nessun radiologo è ancora stato sostituito dall’intelligenza artificiale (il che ovviamente non esclude che possa succedere in futuro).

Si potrebbe poi citare la promessa delle auto autonome, costantemente dietro l’angolo eppure ancora molto lontane dal materializzarsi, i fallimenti della polizia predittiva e altro ancora. “Il deep learning, che è fondamentalmente una tecnica per il riconoscimento di pattern”, scrive Gary Marcus, “funziona al meglio quando tutto ciò che ci serve sono risultati grossolani e pronti per l’uso, in cui la posta in gioco è bassa e la perfezione dei risultati opzionale”.

Un esempio è quello del riconoscimento immagini che ci permette di trovare tutte le foto sul nostro smartphone in cui sono presenti dei cani. Uno strumento abbastanza preciso, ma che anche quando commette errori non causa danni di alcun tipo. Se invece una Tesla non riconosce un segnale di Stop perché il cartello è retto da una persona in mezzo alla strada – e non da un palo laterale, come statisticamente l’intelligenza artificiale si aspetterebbe – ecco che i rischi diventano inaccettabili. E lo stesso avviene con le sperimentazioni di chatbot che dovrebbero intervenire tempestivamente per offrire supporto psicologico a persone sull’orlo del suicidio e che invece hanno finito per consigliare a un (finto) paziente di farla finita.

Nonostante continuino ad aumentare il potere computazionale e la mole di dati utilizzati per addestrare questi strumenti, compiere il salto qualitativo che consenta di mantenere le aspettative nei confronti dell’intelligenza artificiale potrebbe non essere possibile. Almeno, non finché si utilizzerà soltanto il deep learning: un potentissimo strumento statistico, ma incapace di una vera e propria comprensione.

 

Un’intelligenza artificiale ibrida

E quindi, che cosa bisogna fare? Secondo Gary Marcus (e altri esperti), una strada promettente potrebbe essere quella di creare modelli ibridi di deep learning e intelligenza artificiale simbolica. Quest’ultima è l’intelligenza artificiale “vecchio stampo”, a cui i programmatori umani forniscono tutte le regole necessarie per portare a termine un compito, invece di lasciare che apprenda da sola analizzando una marea di dati. Per esempio, un sistema simbolico gioca a scacchi usando le regole e le combinazioni fornite da un programmatore; un sistema di deep learning parte invece da zero e gioca milioni di partite, imparando a giocare a scacchi senza mai aver, di fatto, appreso le regole.

Entrambi i sistemi hanno i loro pro e contro, ma uno dei principali vantaggi dell’intelligenza artificiale simbolica è rappresentato, scrive sempre Marcus, “dal fatto che una gran parte della conoscenza del mondo – dalle ricette alla storia, fino alla tecnologia – è al momento disponibile in forma simbolica. Cercare di costruire una Agi senza usare questa conoscenza, e invece imparando tutto da zero (come puntano a fare i sistemi di deep learning), sembra essere un fardello eccessivo e insensato”.

In effetti, una delle più straordinarie recenti conquiste dell’intelligenza artificiale – AlphaFold2, il sistema sempre di DeepMind in grado di prevedere la struttura delle proteine – impiega proprio un modello ibrido di questo tipo. D’altra parte, perché dovremmo usare un solo metodo di intelligenza artificiale? “La mente non funziona in un modo solo”, hanno affermato gli scienziati cognitivi Chaz Firestone e Brian Scholl. “Al contrario, la mente è costituita da parti diverse che funzionano in modo differente. Vedere un colore richiede un meccanismo diverso dal pianificare una vacanza, muovere un arto o provare un’emozione”. Lo stesso potrebbe valere anche per le intelligenze artificiali, che andrebbero quindi completate sfruttando algoritmi e modelli di tipo diverso.

 

Come ha scritto Kai-Fu Lee in AI 2041 (in corso di traduzione per la Luiss University Press), “molte delle sfide poste dall’intelligenza artificiale non le abbiamo ancora comprese o comunque non abbiamo fatto grandi progressi. Per esempio, non sappiamo come modellare la creatività, il pensiero strategico, il ragionamento, il pensiero controfattuale, le emozioni e la coscienza”.

Queste sfide richiederanno probabilmente molte altre scoperte, conclude Kai-Fu Lee, pari almeno a quella del deep learning e da affiancare a esso. La strada che porta a una vera intelligenza artificiale, insomma, è ancora molto lunga.