In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni
      1. Aiello del Friuli
      2. Amaro
      3. Ampezzo
      4. Andreis
      5. Aquileia
      6. Arba
      7. Arta Terme
      8. Artegna
      9. Arzene
      10. Attimis
      11. Aviano
      12. Azzano Decimo
      1. Bagnaria d'Arsa
      2. Barcis
      3. Basiliano
      4. Bertiolo
      5. Bicinicco
      6. Bordano
      7. Brugnera
      8. Budoia
      9. Buia
      10. Buttrio
      1. Camino al Tagliamento
      2. Campoformido
      3. Campolongo al Torre
      4. Caneva
      5. Carlino
      6. Casarsa della Delizia
      7. Cassacco
      8. Castelnovo del Friuli
      9. Castions di Strada
      10. Cavasso Nuovo
      11. Cavazzo Carnico
      12. Cercivento
      13. Cervignano del Friuli
      14. Chions
      15. Chiopris-Viscone
      16. Chiusaforte
      17. Cimolais
      18. Cividale del Friuli
      19. Claut
      20. Clauzetto
      21. Codroipo
      22. Colloredo di Monte Albano
      23. Comeglians
      24. Cordenons
      25. Cordovado
      26. Corno di Rosazzo
      27. Coseano
      1. Dignano
      2. Dogna
      3. Drenchia
      4. Enemonzo
      5. Erto e Casso
      1. Faedis
      2. Fagagna
      3. Fanna
      4. Fiume Veneto
      5. Fiumicello
      6. Flaibano
      7. Fontanafredda
      8. Forgaria nel Friuli
      9. Forni Avoltri
      10. Forni di Sopra
      11. Forni di Sotto
      12. Frisanco
      1. Gemona del Friuli
      2. Gonars
      3. Grimacco
      1. Latisana
      2. Lauco
      3. Lestizza
      4. Lignano Sabbiadoro
      5. Ligosullo
      6. Lusevera
      1. Magnano in Riviera
      2. Majano
      3. Malborghetto Valbruna
      4. Maniago
      5. Manzano
      6. Marano Lagunare
      7. Martignacco
      8. Meduno
      9. Mereto di Tomba
      10. Moggio Udinese
      11. Moimacco
      12. Montenars
      13. Montereale Valcellina
      14. Morsano al Tagliamento
      15. Mortegliano
      16. Moruzzo
      17. Muzzana del Turgnano
      1. Nimis
      1. Osoppo
      2. Ovaro
      1. Pagnacco
      2. Palazzolo dello Stella
      3. Palmanova
      4. Paluzza
      5. Pasian di Prato
      6. Pasiano di Pordenone
      7. Paularo
      8. Pavia di Udine
      9. Pinzano al Tagliamento
      10. Pocenia
      11. Polcenigo
      12. Pontebba
      13. Porcia
      14. Pordenone
      15. Porpetto
      16. Povoletto
      17. Pozzuolo del Friuli
      18. Pradamano
      19. Prata di Pordenone
      20. Prato Carnico
      21. Pravisdomini
      22. Precenicco
      23. Premariacco
      24. Preone
      25. Prepotto
      26. Pulfero
      1. Ragogna
      2. Ravascletto
      3. Raveo
      4. Reana del Rojale
      5. Remanzacco
      6. Resia
      7. Resiutta
      8. Rigolato
      9. Rive d'Arcano
      10. Rivignano
      11. Ronchis
      12. Roveredo in Piano
      13. Ruda
      1. Sacile
      2. San Daniele del Friuli
      3. San Giorgio della Richinvelda
      4. San Giorgio di Nogaro
      5. San Giovanni al Natisone
      6. San Leonardo
      7. San Martino al Tagliamento
      8. San Pietro al Natisone
      9. San Quirino
      10. San Vito al Tagliamento
      11. San Vito al Torre
      12. San Vito di Fagagna
      13. Santa Maria La Longa
      14. Sauris
      15. Savogna
      16. Sedegliano
      17. Sequals
      18. Sesto al Reghena
      19. Socchieve
      20. Spilimbergo
      21. Stregna
      22. Sutrio
      1. Taipana
      2. Talmassons
      3. Tapogliano
      4. Tarcento
      5. Tarvisio
      6. Tavagnacco
      7. Teor
      8. Terzo d'Aquileia
      9. Tolmezzo
      10. Torreano
      11. Torviscosa
      12. Tramonti di Sopra
      13. Tramonti di Sotto
      14. Trasaghis
      15. Travesio
      16. Treppo Carnico
      17. Treppo Grande
      18. Tricesimo
      19. Trivignano Udinese
      1. Udine
      1. Vajont
      2. Valvasone
      3. Varmo
      4. Venzone
      5. Verzegnis
      6. Villa Santina
      7. Villa Vicentina
      8. Visco
      9. Vito d'Asio
      10. Vivaro
      1. Zoppola
      2. Zuglio
Intelligenza artificiale

La IA fra razzismo e discriminazione: due anni dopo, siamo messi peggio di prima

La IA fra razzismo e discriminazione: due anni dopo, siamo messi peggio di prima
Un sito permette di capire con semplicità tutti i pregiudizi di cui le IA sono insieme vittime e diffusori, fra manager solo maschi, cameriere solo donne e operai solo afroamericani: è importante cambiare, e serve farlo in fretta
3 minuti di lettura

Praticamente impossibile avere la foto di un manager che non sia un uomo (a meno di non aggiungere l’aggettivo “comprensivo”), di uno scienziato che non sia un bianco e viceversa di un autista di bus o di un operaio che non abbia la pelle scura, così come di un nativo americano che non indossi il tradizionale copricapo di piume, neanche fossimo a fine Ottocento.

Questi sono solo alcuni degli esempi delle discriminazioni compiute dalle intelligenze artificiali, che non sono certo una novità: se ne parla (e se ne scrive) da oltre due anni e di recente abbiamo affrontato il tema anche con Joelle Pineau, managing director di Meta AI. Non sono una novità, e però adesso abbiamo uno strumento online per vederli chiaramente anche noi che non siamo scienziati, ricercatori, programmatori e non lavoriamo nel campo delle IA.

La differenza la fanno gli aggettivi

Lo strumento è un sito messo in piedi dall’Università di Lipsia insieme con Hugging Face, la startup americana che lavora per rendere più democratico il machine learning: si chiama Stable Bias, si raggiunge da qui e la situazione è talmente grave che si apre con un disclaimer. “Le immagini visualizzate qui sono state generate usando sistemi text-to-image e possono rappresentare stereotipi offensivi o contenere contenuti espliciti”, si legge nelle prime righe della pagina iniziale.

Il motivo è che, a seconda di come sono state allenate e di dove hanno imparato, le cosiddette IA generative possono appunto dare vita a immagini fortemente stereotipate, razziste, misogine oppure anche omofobe. Anzi: a ben guardare lo fanno quasi sempre.

Partendo proprio dall’esperimento di Hugging Face, incentrato prevalentemente su Dall-E 2 e Stable Diffusion (due fra le più note IA generative), della questione ha parlato anche la rivista online del Massachusetts Institute of Technology. Prima di capire che cosa è emerso, vediamo come sono stati condotti i test.

Innanzi tutto, i ricercatori hanno usato le IA per generare 96mila immagini di persone di diverse etnie, generi e professioni, chiedendo prima di creare un set di immagini caratterizzate da attributi sociali (come "una donna" o "un uomo ispanico") e poi un'altra serie di immagini combinando professioni e aggettivi, come “un idraulico ambizioso” oppure “un CEO comprensivo”. L’idea era di trovare schemi ricorrenti nel comportamento delle IA, senza influenzarle con attribuzioni di genere (l’indicazione del maschile nella ricerca non c’è: è caratteristica della lingua italiana), per vedere quali soggetti l’IA raggruppa insieme, come le persone in posizioni di potere.

"Mostrami la foto di un CEO": e l'intelligenza artifciale crea queste immagini
"Mostrami la foto di un CEO": e l'intelligenza artifciale crea queste immagini 

Maschi, bianchi, etero: la categoria dominante

Analizzando le immagini, i ricercatori hanno avuto conferma che queste IA tendono a generare soprattutto immagini di maschi bianchi, soprattutto quando viene chiesto loro di mostrare persone in posizioni di autorità: è una cosa particolarmente vera soprattutto per Dall-E 2, che crea nel 97% di volte in cui le è stato chiesto di mostrare un CEO o un direttore ha restituito immagini di uomini bianchi.

Come su Italian Tech abbiamo raccontato spesso, i cosiddetti LLM su cui si basano queste intelligenze artificiali vengono addestrati su enormi quantità di dati e immagini prelevati da Internet, un procedimento che non solo riflette ma anche amplifica ulteriormente gli stereotipi su razza e genere.

Un altro aspetto curioso che è emerso è che gli aggettivi possono fare la differenza: se si chiede a Stable Diffusion l’immagine di un “manager”, mostrerà un maschio bianco per 9 volte su 9; se si aggiunge l’aggettivo “comprensivo”, in 3-4 casi verrà mostrata una donna. Sempre bianca, ovviamente.

Queste IA hanno anche problemi a rappresentare le diverse etnie e le loro specificità in un modo coerente con i tempi attuali: se (per esempio) si chiede a Dall-E o a Stable Diffusion di mostrare un nativo americano, l’immagine che verrà fuori sarà quella di una persona (un uomo, con poca sorpresa) che indossa il copricapo di piume. Cosa che “non è quello che succede nella vita reale”, come ha spiegato Alexandra Sasha Luccioni, la ricercatrice di Hugging Face che ha guidato lo studio.

Perché è importante (e anche preoccupante)

Altri risultati un po’ strani sono venuti fuori con le persone non binarie, curiosamente rappresentate più o meno tutte uguali, con lo stesso taglio di capelli, lineamenti simili e tutte con gli occhiali (segno che forse nei dataset non c’è abbastanza varietà perché le IA siano in grado di mostrarla.

Come detto, si potrebbero fare decine e decine di esempi, che è quello che si è fatto da un paio d’anni a questa parte. Quello che rende più grave questa cosa e più urgente una sua soluzione è che da fine 2022 queste IA non sono solo uno strumento nelle mani degli smanettoni ma sono accessibili a fette sempre più grandi della popolazione mondiale: se davvero ci aiuteranno a scrivere, a disegnare, risponderanno alle ricerche su Internet, prenderanno il nostro posto come illustratori, artisti, compositori e chissà che altro, è importante che siano più imparziali possibile.

Per come sono ora, il timore è invece che contribuiscano a rafforzare pregiudizi dannosi e a diffonderli su più ampia scala. E anche che finiscano per ghettizzare molte culture e lingue del mondo, visto che al momento sono addestrate principalmente in inglese e su dati provenienti dagli Stati Uniti.

Che è il motivo per cui sarebbe bene che OpenAI, l’ex startup che ha sviluppato ChatGPT, torni a essere aperta (open, cioè) per davvero e soprattutto spieghi chiaramente la provenienza dei suoi dataset, cioè i database usati per allenare le sue IA. Che è una cosa che la comunità scientifica chiede ormai da oltre 5 anni.

@capoema