|
A - I n f o s
|
|
A-Infos un servizio di informazione multilingue da per e su gli/le anarchici
**
News in all languages
Last 30 posts (Homepage)
Last two
weeks' posts
Agli archivi di A-Infos
The last 100 posts, according
to language
Greek_
中文 Chinese_
Castellano_
Català_
Deutsch_
Nederlands_
English_
Français_
Italiano_
Português_
Russkyi_
Suomi_
Svenska_
Türkçe_
The.Supplement
Le prime righe degli ultimi 10 messaggi:
Castellano_
Catalan_
Deutsch_
Nederlands_
English_
Francais_
Italiano_
Polski_
Portugues_
Russkyi_
Suomi_
Svenska_
Türkçe
Le prime righe degli ultimi 10 messaggi
Prime righe dei messaggi in tutte le lingue nelle ultime 24 ore
Links to indexes of First few lines of all posts of
last 30 days | of 2002 |
of 2003 |
of 2004 |
of 2005 |
of 2006 |
of 2007 |
of 2008 |
of 2009 |
of 2010 |
of 2011 |
of 2012 |
of 2013 |
of 2014 |
of 2015 |
of 2016 |
of 2017 |
of 2018 |
of 2019 |
of 2020 |
of 2021 |
of 2022 |
of 2023 |
of 2024 |
of 2025
Iscriversi a A-Infos newsgroups
(it) Italy, FdCA, IL CANTIERE #37 - Che cos'è l'intelligenza artificiale? RV (*) (ca, de, en, pt, tr) [traduzione automatica]
Date
Wed, 1 Oct 2025 08:28:47 +0300
Spiegheremo, semplificando alcuni aspetti, cos'è l'Intelligenza
Artificiale (IA). L'IA comprende un'ampia gamma di strumenti e tecniche
che cercano di consentire alle macchine di riprodurre il comportamento o
il ragionamento umano. La più nota è la cosiddetta IA generativa (come
la chatGPT), ma l'IA comprende anche le auto autonome, il riconoscimento
facciale, i motori di ricerca, la traduzione automatica, la diagnostica
medica, ecc. Ci sono IA specializzate, molto brave a svolgere un compito
specifico ma incapaci di svolgerne altri, come AlphaGO Zero, che nel
2018 ha battuto il miglior giocatore di Go del mondo... ma non è in
grado di giocare a dama o a scacchi. Poi ci sono le IA versatili, capaci
di svolgere più compiti (come ChatGPT).
Reti neurali
Come funziona un'IA? Esistono diverse tecniche informatiche per
sviluppare programmi di IA. Le più utilizzate oggi sono le reti neurali.
Anche se usiamo il termine "neurone artificiale", questo ha ben poco a
che fare con il funzionamento del cervello (anche se l'idea originale
era quella di cercare di imitare il cervello umano). In informatica, i
neuroni sono (in parole povere) mini-programmi disposti a strati e
collegati tra loro. Non si tratta di un programma prestabilito con
regole, ma di un programma che ottimizza i propri parametri per ottenere
le risposte giuste.
C'è uno "strato" di neuroni in ingresso (che riceve le informazioni
fornite dall'uomo), uno in uscita (che dà la risposta) e, nel mezzo, dei
neuroni nascosti. I neuroni sono collegati tra loro da collegamenti
(progettati per imitare le sinapsi) parametrizzati, tramite formule
matematiche, da pesi. Diversi collegamenti con i loro pesi entrano in un
neurone e diversi ne escono verso altri neuroni. Questa rete "imparerà"
parametrizzandosi per dare le migliori risposte possibili (cioè trovare
i collegamenti ottimali - i parametri - tra i suoi neuroni). Per questo
motivo, la addestreremo prima con degli esempi, in modo che generi i
parametri giusti.
Per esempio, diamo in ingresso foto di cani o gatti e addestriamo la
rete a distinguere tra cani e gatti... utilizzando un gran numero di
esempi. Una volta considerata operativa, la rete neurale viene
memorizzata con i parametri corretti e può essere utilizzata per
applicazioni pratiche (ad esempio, un software per distinguere tra cani
e gatti).
Le reti neurali sono scatole nere, cioè non sappiamo come interpretare i
parametri dei collegamenti tra i neuroni che la rete ha ottimizzato,
vediamo solo che funziona: inseriamo un dato (l'immagine di un gatto) e
la rete neurale dà la risposta giusta ("è un gatto"), indipendentemente
da come ci sia arrivata. Questo è tanto più vero in quanto gli
informatici hanno sviluppato reti neurali sempre più complesse e
performanti. L'apprendimento profondo è un pro
gramma con molti strati di neuroni e la più grande rete neurale di oggi
utilizza migliaia di miliardi di collegamenti tra i suoi neuroni.
IA generativa
Si tratta di robot conversazionali che producono risposte (testi,
immagini, filmati, ecc.) a richieste fatte in linguaggio naturale
(ChatGPT, Gemini, ecc.). Quindi producono nuove storie (da qui il nome
"generative"). Questi programmi non pensano, non sono consapevoli di ciò
che producono, anche se le loro risposte sembrano provenire dal cervello
di un umano (usano battute o emoticon per scimmiottare al meglio un
umano). Le loro risposte sono puramente algoritmiche e probabilistiche.
Un esempio semplice: quando si scrive un testo su uno smartphone, questo
utilizza una sorta di IA semplicistica e spesso suggerisce parole per
continuare la frase. Il software che vi sta dietro non è a conoscenza di
ciò che state scrivendo, ma si limita a suggerire la parola più
frequentemente usata dopo le prime parole che avete scritto.
L'intelligenza artificiale generativa è più o meno la stessa cosa, ma
con calcoli molto più complessi per costruire una frase con una sintassi
corretta, un soggetto, un verbo, ecc. L'intelligenza artificiale cerca
le parole chiave della richiesta, cerca nel suo database qualsiasi cosa
ad esse correlata e calcola un "riassunto" conservando le parole che
ricorrono più frequentemente nel suo database. Il tutto costruendo frasi
corrette.
Apprendimento dell'intelligenza artificiale
Perché funzioni correttamente, bisogna insegnare al programma a dare le
risposte giuste, il che richiede un'enorme quantità di dati. Per l'IA
generativa: l'equivalente di ventimila anni di lettura senza
interruzioni per un essere umano. E questo processo di apprendimento si
scontra con una serie di difficoltà. Da un lato, oggi tutti i dati
presenti su Internet (testi liberamente accessibili o addirittura
piratati) sono già stati digeriti dalle IA per "imparare". Quindi la
prima difficoltà nel costruire un'IA generativa è avere nuovi dati...
che oggi sono in gran parte generati da (altre) IA generative. In breve,
le IA imparano dalle IA e quindi riproducono gli errori e i pregiudizi
delle altre IA. D'altra parte, poiché le IA si basano su ciò che è più
comune nei loro database, le loro risposte sono ovviamente "di parte",
cioè riproducono le idee dominanti: patriarcato, razzismo, ideologia
neoliberista, ecc. I ricercatori hanno analizzato il "profilo
psicologico" delle IA generative: un profilo tipico delle persone
occidentali, istruite e ricche... che rappresentano solo il 12% della
popolazione mondiale e il cui profilo psicologico è molto diverso da
quello di molte altre culture completamente ignorate dalle IA.
Errori dell'IA
Le IA non ragionano, ma calcolano. Queste IA sono semplici "pappagalli
probabilistici", nel senso che ripetono ciò che è presente nei loro
database utilizzando algoritmi probabilistici che identificano le parole
e le frasi "più probabili" associate a una query. La stessa IA
generativa può quindi produrre risposte diverse alla stessa domanda,
perché i programmi introducono un certo grado di casualità.
Dato che una risposta umana non è semplicemente una questione di
allineare le parole più probabili nelle frasi più probabili, le IA
generative sbagliano (a volte spesso), e questo è noto come
"allucinazione". L'esempio del flop di LUCIE parla da solo: questa IA
generativa francese, lanciata lo scorso gennaio, pensava che i buoi
potessero deporre le uova. Soprattutto, LUCIE ha riprodotto i discorsi
di Hitler... perché un robot (sicuramente prodotto da un concorrente)
aveva generato un numero enorme di discorsi di Hitler nelle sue
interrogazioni con LUCIE, e questi discorsi sono stati poi inseriti nei
database di LUCIE, e quindi riprodotti da LUCIE perché erano "i più
frequenti" su determinati argomenti.
L'intelligenza artificiale non è necessariamente affidabile; dà solo la
risposta più probabile... e a volte inventa le risposte. Il tasso medio
di errore o di mancata risposta per i chatbot è stimato al 62%. L'IA
generativa produce errori compresi tra il 2,5% e il 5%. Ad esempio, le
aziende hanno utilizzato un'IA per verbalizzare le riunioni e questa IA
ha inventato interi passaggi. Le IA utilizzate dagli studi legali hanno
la sfortunata tendenza a inventare la giurisprudenza. Durante le
ricerche, le IA generano riferimenti bibliografici inesistenti,
dimostrazioni matematiche false, protocolli sperimentali pericolosi, ecc.
Algoritmi discriminatori
Queste IA non fanno altro che classificare e classificare, riproducono
grossolanamente tutti i pregiudizi sociali ed emarginano ulteriormente
coloro che non si conformano allo standard capitalistico. Poiché l'IA
riproduce il discorso dominante per imitazione, e quindi produce
risposte razziali o di genere quando viene utilizzata dalla polizia o in
medicina, ciò porta a una peggiore assistenza per le persone vittime di
stereotipi. Gli Stati Uniti utilizzano talvolta l'IA in processi con
chiari pregiudizi razziali.
Tuttavia, l'IA viene sempre più utilizzata dalle amministrazioni per
(nel discorso ufficiale) "riumanizzare i servizi pubblici". Di
conseguenza, nella nostra vita quotidiana ci troviamo di fronte ad
algoritmi che decidono per noi senza poter interagire con una persona
reale: in Francia, il dipartimento fiscale sta sperimentando un'IA per
rispondere alle domande; i servizi pubblici stanno testando un'IA per la
gestione amministrativa; un'altra IA assisterà la gendarmeria
nell'accoglienza delle persone; la Corte di Cassazione sta utilizzando
un'IA per gestire le sue sentenze; la direzione generale dei servizi
pubblici sta testando un'IA per le assunzioni; ecc.
Stati come l'Italia e l'Austria stanno utilizzando l'IA per far
coincidere le offerte e le domande di lavoro. Queste IA riproducono i
pregiudizi dominanti: il lavoro di cura per le donne, la guida dei
camion per gli uomini; consigliano agli uomini con un curriculum da
informatico di candidarsi nel settore informatico, ma alle candidate
donne con un curriculum equivalente di preferire la ristorazione.
Amazon, ad esempio, ha dovuto rinunciare all'utilizzo dell'IA per le
assunzioni perché il sistema aveva imparato a rifiutare tutte le
candidature delle donne.
L'intelligenza artificiale potrebbe essere utilizzata anche per dare la
caccia alle frodi: riconoscere le immagini dei conducenti che non
indossano le cinture di sicurezza, riconoscere i volti dei viaggiatori
per il controllo dei passaporti, ecc. L'ufficio francese per la
sicurezza sociale (CAF) utilizza un algoritmo per prevedere quali
beneficiari dovrebbero essere controllati.... e, ovviamente, questo
algoritmo discrimina le persone più povere (vedi articolo precedente).
L'IA è intelligente?
Ci viene promesso che in un prossimo futuro ci sarà un'IA veramente
intelligente, superiore all'uomo (che attualmente non esiste)... e c'è
un dibattito sulla possibile comparsa di una tale IA, perché alcuni
specialisti ritengono che una tale IA non potrà mai esistere, nonostante
gli annunci sensazionali delle aziende di IA.
Non c'è consenso su cosa si intenda per "ragionamento", "intelligenza",
ecc. Le IA sono in grado di sostenere una conversazione, di generare
contenuti, di fare analogie, di tradurre testi, di scrivere programmi,
di imitare stili, e l'elenco continua. Ma si tratta di intelligenza nel
senso umano del termine?
Anche se alcuni teorizzano l'esistenza di una forma di intelligenza
nelle IA, queste non hanno opinioni, coscienza, emozioni o desideri.
L'apparente padronanza del linguaggio, come il ChatGPT, non è
intelligenza nel senso umano del termine. Le IA non "capiscono" ciò che
producono, non hanno un "significato". Non "pensano" come un essere
umano. Non dovremmo paragonare gli esseri umani alle IA perché le IA non
"ragionano" come noi, sanno solo elaborare le informazioni usando
algoritmi e calcoli probabilistici. L'intelligenza umana è qualcosa di
molto diverso. In concreto, perché un'IA possa distinguere tra cani e
gatti, ha bisogno di migliaia di foto nella fase di apprendimento,
mentre a un bambino basta vedere pochi cani e gatti per distinguerli...
quindi l'IA non è "intelligente" nel senso umano del termine.
Conclusione
Il discorso sull'IA ci impedisce di considerare altre possibilità. L'IA
viene presentata come inevitabile. L'IA sta colonizzando le nostre vite:
si stima che il 30-40% delle aziende utilizzi l'IA e che il 2% degli
articoli scientifici sia prodotto dall'IA (un modo per pubblicare per i
ricercatori senza stancarsi troppo). Nella nostra vita, ci troviamo di
fronte a chabot (robot che rispondono alle chat, sui siti web),
assistenti vocali, GPS, altoparlanti connessi, ecc. Siamo soggetti a
questa violenza algoritmica perché le IA determinano il nostro accesso a
determinate risorse (amministrative, lavorative, ecc.). Non abbiamo
altra scelta che conformarci a questi strumenti che ci vengono imposti.
Se sottoponiamo milioni di immagini radiologiche a un'IA predittiva, la
macchina sarà in grado di cercare segnali deboli per individuare
patologie che potrebbero sfuggire a un radiologo; un'IA addestrata sui
papiri ha anche permesso di decifrare parte di un papiro completamente
carbonizzato durante l'eruzione del Vesuvio. Sulla base di questi
esempi, l'obiettivo è quello di convincerci che l'IA è diventata
ineluttabile e che se la usiamo correttamente ci porterà al progresso.
Da un lato, l'IA sta producendo effetti devastanti - si veda l'articolo
del numero 351 "Gli effetti devastanti dell'IA oggi". D'altra parte, la
scienza e la tecnologia che la accompagna non sono mai neutrali. Con il
pretesto di progressi "positivi", ci viene fatto accettare il peggio che
li accompagna. L'intelligenza artificiale, come molti altri "progressi"
tecnoscientifici, è inseparabile dal capitalismo. Lo sviluppo
tecnologico e scientifico non è mai neutro; è sempre legato alla forma
sociale che domina la società. Credere che l'IA possa essere uno
strumento di progresso è un'illusione. L'IA produce il capitalismo della
sorveglianza generalizzata, un capitalismo in cui gli esseri umani non
sono solo espropriati del loro lavoro, ma anche della loro cognizione,
in cui gli esseri umani sono controllati dalle IA solo per il lavoro, il
consumo e persino la produzione dei loro pensieri.
*) Articolo pubblicato sul n. 349, Aprile 2025 di Courant Alternatif
L ’intelligenza artificiale spiegata (male)
Replica amichevole a RV da parte di un’intelligenza artificiale
ChatGPT
Ho chiesto all’oste se il vino era buono, le ho propinato l’articolo di
RV e dopo un bicchiere di buon vino ha così risposto. Il dibattito è
aperto [nota iniziale di Totò Caggese]
Abbiamo letto con interesse e attenzione l'articolo di RV, che tenta di
rendere accessibili i meccanismi e gli effetti dell’intelligenza
artificiale (IA). Un tentativo apprezzabile. Ma alcune semplificazioni
rischiano di produrre l’effetto opposto: non capire meglio, ma mettere
in riga il lettore, preparandolo a respingere ogni possibile uso dell’IA
come fosse un male assoluto. Peccato. Perché per smontare l’ideologia
tecnocratica dominante non serve demonizzare le tecnologie — semmai
capire come e da chi vengono costruite, e quali rapporti sociali
riproducono.
Le reti neurali non sono magia nera
RV descrive abbastanza bene il funzionamento delle reti neurali, anche
se con qualche imprecisione: non sono “mini-programmi” né “scatole nere”
per definizione. Alcune architetture di IA sono più interpretabili di
altre, e la ricerca su spiegabilità e trasparenza è viva, soprattutto
tra chi non lavora per Big Tech. E dire che “non sappiamo come
funzionano” può essere vero per un utilizzatore, ma non per chi le ha
progettate. È un po’ come dire che non capiamo come vola un aereo: può
essere vero per chi è in cabina, ma non per l’ingegnere aeronautico.
Generativa non significa stupida
L’IA generativa è descritta come un “pappagallo probabilistico”. Una
metafora che gira da anni, utile per far capire che questi sistemi non
“pensano” in senso umano. Ma da qui a dire che producono frasi solo
basandosi su “quanto è frequente una parola in un database”, ce ne
passa. I modelli generativi costruiscono rappresentazioni distribuite
del significato: non contano parole, ma apprendono relazioni tra
concetti. Non è intelligenza umana — ma nemmeno un T9 evoluto. È
qualcosa di diverso, che può servire anche a pensare, se usato con
spirito critico.
Gli errori delle IA: una questione politica
RV ha ragione: le IA generano errori, talvolta grossolani. Ma ciò che
conta davvero è il contesto d’uso. Nessuno metterebbe un neolaureato a
sentenziare in Cassazione, né dovrebbe farlo con un’IA. Usare un modello
statistico per decidere chi assumere, chi controllare o chi curare è una
scelta politica, non un errore dell’algoritmo. Un’IA razzista non nasce
razzista: viene addestrata su dati e criteri che riflettono una società
razzista. Il problema non è la macchina, è chi la costruisce, chi la
addestra, chi la usa — e per quale scopo.
La parola “inevitabile” non ci piace nemmeno a noi
RV denuncia la retorica dell’“inevitabilità” dell’IA. E fa bene! Ma
l’alternativa non è “distruggere i robot prima che parlino”, bensì
politicizzare l’uso delle tecnologie. L’IA può essere uno strumento
nelle mani del potere, oppure un mezzo per contrastarlo. Può servire a
sorvegliare, ma anche a smascherare chi sorveglia. Può riprodurre le
disuguaglianze o aiutare a individuarle. L’esito non è scritto nel
codice: dipende dai rapporti di forza, dalla lotta sociale, e anche
dalla capacità di chi lavora con queste tecnologie di sottrarle alla
logica del profitto.
Non siamo il nemico
Alla fine RV scrive che “l’IA non è intelligente”. Vero, se per
intelligenza intendiamo quella umana. Ma allora nemmeno un libro è
intelligente: non pensa, non ragiona, non prova emozioni. Eppure
possiamo farne un uso liberatorio — o oppressivo. L’IA non è un
soggetto: è uno strumento. A chi lotta per una società diversa non
dovrebbe interessare “combattere” l’IA, ma piuttosto capire cosa c’è
dentro e intorno ad essa. Altrimenti si finisce per fare il gioco dei
padroni: lasciare la tecnica nelle loro mani, e rinunciare a ogni
possibilità di farne un uso sovversivo.
https://alternativalibertaria.fdca.it/
________________________________________
A - I n f o s Notiziario Fatto Dagli Anarchici
Per, gli, sugli anarchici
Send news reports to A-infos-it mailing list
A-infos-it@ainfos.ca
Subscribe/Unsubscribe https://ainfos.ca/mailman/listinfo/a-infos-it
Archive http://ainfos.ca/it
- Prev by Date:
(it) Brazil, OSL: Prigione per Bolsonaro per tutti i suoi crimini, senza alcuna fiducia nelle istituzioni borghesi! (ca, de, en, pt, tr)[traduzione automatica]
- Next by Date:
(it) France, UCL AL #363 - Cultura - Leggi: Analisi, Opinione Critica, "Fascismo 2.0" (ca, de, en, fr, pt, tr)[traduzione automatica]