A - I n f o s

A-Infos un servizio di informazione multilingue da per e su gli/le anarchici **
News in all languages
Last 30 posts (Homepage) Last two weeks' posts Agli archivi di A-Infos

The last 100 posts, according to language
Greek_ 中文 Chinese_ Castellano_ Català_ Deutsch_ Nederlands_ English_ Français_ Italiano_ Português_ Russkyi_ Suomi_ Svenska_ Türkçe_ The.Supplement
Le prime righe degli ultimi 10 messaggi:
Castellano_ Catalan_ Deutsch_ Nederlands_ English_ Francais_ Italiano_ Polski_ Portugues_ Russkyi_ Suomi_ Svenska_ Türkçe


Le prime righe degli ultimi 10 messaggi
Prime righe dei messaggi in tutte le lingue nelle ultime 24 ore
Links to indexes of First few lines of all posts of last 30 days | of 2002 | of 2003
| of 2004 | of 2005 | of 2006 | of 2007 | of 2008 | of 2009 | of 2010 | of 2011 | of 2012 | of 2013 | of 2014 | of 2015 | of 2016 | of 2017 | of 2018 | of 2019 | of 2020 | of 2021 | of 2022 | of 2023 | of 2024 | of 2025
Iscriversi a A-Infos newsgroups

(it) Italy, FdCA, IL CANTIERE #37 - Che cos'è l'intelligenza artificiale? RV (*) (ca, de, en, pt, tr) [traduzione automatica]

Date Wed, 1 Oct 2025 08:28:47 +0300


Spiegheremo, semplificando alcuni aspetti, cos'è l'Intelligenza Artificiale (IA). L'IA comprende un'ampia gamma di strumenti e tecniche che cercano di consentire alle macchine di riprodurre il comportamento o il ragionamento umano. La più nota è la cosiddetta IA generativa (come la chatGPT), ma l'IA comprende anche le auto autonome, il riconoscimento facciale, i motori di ricerca, la traduzione automatica, la diagnostica medica, ecc. Ci sono IA specializzate, molto brave a svolgere un compito specifico ma incapaci di svolgerne altri, come AlphaGO Zero, che nel 2018 ha battuto il miglior giocatore di Go del mondo... ma non è in grado di giocare a dama o a scacchi. Poi ci sono le IA versatili, capaci di svolgere più compiti (come ChatGPT).

Reti neurali

Come funziona un'IA? Esistono diverse tecniche informatiche per sviluppare programmi di IA. Le più utilizzate oggi sono le reti neurali. Anche se usiamo il termine "neurone artificiale", questo ha ben poco a che fare con il funzionamento del cervello (anche se l'idea originale era quella di cercare di imitare il cervello umano). In informatica, i neuroni sono (in parole povere) mini-programmi disposti a strati e collegati tra loro. Non si tratta di un programma prestabilito con regole, ma di un programma che ottimizza i propri parametri per ottenere le risposte giuste.

C'è uno "strato" di neuroni in ingresso (che riceve le informazioni fornite dall'uomo), uno in uscita (che dà la risposta) e, nel mezzo, dei neuroni nascosti. I neuroni sono collegati tra loro da collegamenti (progettati per imitare le sinapsi) parametrizzati, tramite formule matematiche, da pesi. Diversi collegamenti con i loro pesi entrano in un neurone e diversi ne escono verso altri neuroni. Questa rete "imparerà" parametrizzandosi per dare le migliori risposte possibili (cioè trovare i collegamenti ottimali - i parametri - tra i suoi neuroni). Per questo motivo, la addestreremo prima con degli esempi, in modo che generi i parametri giusti.

Per esempio, diamo in ingresso foto di cani o gatti e addestriamo la rete a distinguere tra cani e gatti... utilizzando un gran numero di esempi. Una volta considerata operativa, la rete neurale viene memorizzata con i parametri corretti e può essere utilizzata per applicazioni pratiche (ad esempio, un software per distinguere tra cani e gatti).

Le reti neurali sono scatole nere, cioè non sappiamo come interpretare i parametri dei collegamenti tra i neuroni che la rete ha ottimizzato, vediamo solo che funziona: inseriamo un dato (l'immagine di un gatto) e la rete neurale dà la risposta giusta ("è un gatto"), indipendentemente da come ci sia arrivata. Questo è tanto più vero in quanto gli informatici hanno sviluppato reti neurali sempre più complesse e performanti. L'apprendimento profondo è un pro

gramma con molti strati di neuroni e la più grande rete neurale di oggi utilizza migliaia di miliardi di collegamenti tra i suoi neuroni.

IA generativa

Si tratta di robot conversazionali che producono risposte (testi, immagini, filmati, ecc.) a richieste fatte in linguaggio naturale (ChatGPT, Gemini, ecc.). Quindi producono nuove storie (da qui il nome "generative"). Questi programmi non pensano, non sono consapevoli di ciò che producono, anche se le loro risposte sembrano provenire dal cervello di un umano (usano battute o emoticon per scimmiottare al meglio un umano). Le loro risposte sono puramente algoritmiche e probabilistiche.

Un esempio semplice: quando si scrive un testo su uno smartphone, questo utilizza una sorta di IA semplicistica e spesso suggerisce parole per continuare la frase. Il software che vi sta dietro non è a conoscenza di ciò che state scrivendo, ma si limita a suggerire la parola più frequentemente usata dopo le prime parole che avete scritto. L'intelligenza artificiale generativa è più o meno la stessa cosa, ma con calcoli molto più complessi per costruire una frase con una sintassi corretta, un soggetto, un verbo, ecc. L'intelligenza artificiale cerca le parole chiave della richiesta, cerca nel suo database qualsiasi cosa ad esse correlata e calcola un "riassunto" conservando le parole che ricorrono più frequentemente nel suo database. Il tutto costruendo frasi corrette.

Apprendimento dell'intelligenza artificiale

Perché funzioni correttamente, bisogna insegnare al programma a dare le risposte giuste, il che richiede un'enorme quantità di dati. Per l'IA generativa: l'equivalente di ventimila anni di lettura senza interruzioni per un essere umano. E questo processo di apprendimento si scontra con una serie di difficoltà. Da un lato, oggi tutti i dati presenti su Internet (testi liberamente accessibili o addirittura piratati) sono già stati digeriti dalle IA per "imparare". Quindi la prima difficoltà nel costruire un'IA generativa è avere nuovi dati... che oggi sono in gran parte generati da (altre) IA generative. In breve, le IA imparano dalle IA e quindi riproducono gli errori e i pregiudizi delle altre IA. D'altra parte, poiché le IA si basano su ciò che è più comune nei loro database, le loro risposte sono ovviamente "di parte", cioè riproducono le idee dominanti: patriarcato, razzismo, ideologia neoliberista, ecc. I ricercatori hanno analizzato il "profilo psicologico" delle IA generative: un profilo tipico delle persone occidentali, istruite e ricche... che rappresentano solo il 12% della popolazione mondiale e il cui profilo psicologico è molto diverso da quello di molte altre culture completamente ignorate dalle IA.

Errori dell'IA

Le IA non ragionano, ma calcolano. Queste IA sono semplici "pappagalli probabilistici", nel senso che ripetono ciò che è presente nei loro database utilizzando algoritmi probabilistici che identificano le parole e le frasi "più probabili" associate a una query. La stessa IA generativa può quindi produrre risposte diverse alla stessa domanda, perché i programmi introducono un certo grado di casualità.

Dato che una risposta umana non è semplicemente una questione di allineare le parole più probabili nelle frasi più probabili, le IA generative sbagliano (a volte spesso), e questo è noto come "allucinazione". L'esempio del flop di LUCIE parla da solo: questa IA generativa francese, lanciata lo scorso gennaio, pensava che i buoi potessero deporre le uova. Soprattutto, LUCIE ha riprodotto i discorsi di Hitler... perché un robot (sicuramente prodotto da un concorrente) aveva generato un numero enorme di discorsi di Hitler nelle sue interrogazioni con LUCIE, e questi discorsi sono stati poi inseriti nei database di LUCIE, e quindi riprodotti da LUCIE perché erano "i più frequenti" su determinati argomenti.

L'intelligenza artificiale non è necessariamente affidabile; dà solo la risposta più probabile... e a volte inventa le risposte. Il tasso medio di errore o di mancata risposta per i chatbot è stimato al 62%. L'IA generativa produce errori compresi tra il 2,5% e il 5%. Ad esempio, le aziende hanno utilizzato un'IA per verbalizzare le riunioni e questa IA ha inventato interi passaggi. Le IA utilizzate dagli studi legali hanno la sfortunata tendenza a inventare la giurisprudenza. Durante le ricerche, le IA generano riferimenti bibliografici inesistenti, dimostrazioni matematiche false, protocolli sperimentali pericolosi, ecc.

Algoritmi discriminatori

Queste IA non fanno altro che classificare e classificare, riproducono grossolanamente tutti i pregiudizi sociali ed emarginano ulteriormente coloro che non si conformano allo standard capitalistico. Poiché l'IA riproduce il discorso dominante per imitazione, e quindi produce risposte razziali o di genere quando viene utilizzata dalla polizia o in medicina, ciò porta a una peggiore assistenza per le persone vittime di stereotipi. Gli Stati Uniti utilizzano talvolta l'IA in processi con chiari pregiudizi razziali.

Tuttavia, l'IA viene sempre più utilizzata dalle amministrazioni per (nel discorso ufficiale) "riumanizzare i servizi pubblici". Di conseguenza, nella nostra vita quotidiana ci troviamo di fronte ad algoritmi che decidono per noi senza poter interagire con una persona reale: in Francia, il dipartimento fiscale sta sperimentando un'IA per rispondere alle domande; i servizi pubblici stanno testando un'IA per la gestione amministrativa; un'altra IA assisterà la gendarmeria nell'accoglienza delle persone; la Corte di Cassazione sta utilizzando un'IA per gestire le sue sentenze; la direzione generale dei servizi pubblici sta testando un'IA per le assunzioni; ecc.

Stati come l'Italia e l'Austria stanno utilizzando l'IA per far coincidere le offerte e le domande di lavoro. Queste IA riproducono i pregiudizi dominanti: il lavoro di cura per le donne, la guida dei camion per gli uomini; consigliano agli uomini con un curriculum da informatico di candidarsi nel settore informatico, ma alle candidate donne con un curriculum equivalente di preferire la ristorazione. Amazon, ad esempio, ha dovuto rinunciare all'utilizzo dell'IA per le assunzioni perché il sistema aveva imparato a rifiutare tutte le candidature delle donne.

L'intelligenza artificiale potrebbe essere utilizzata anche per dare la caccia alle frodi: riconoscere le immagini dei conducenti che non indossano le cinture di sicurezza, riconoscere i volti dei viaggiatori per il controllo dei passaporti, ecc. L'ufficio francese per la sicurezza sociale (CAF) utilizza un algoritmo per prevedere quali beneficiari dovrebbero essere controllati.... e, ovviamente, questo algoritmo discrimina le persone più povere (vedi articolo precedente).

L'IA è intelligente?

Ci viene promesso che in un prossimo futuro ci sarà un'IA veramente intelligente, superiore all'uomo (che attualmente non esiste)... e c'è un dibattito sulla possibile comparsa di una tale IA, perché alcuni specialisti ritengono che una tale IA non potrà mai esistere, nonostante gli annunci sensazionali delle aziende di IA.

Non c'è consenso su cosa si intenda per "ragionamento", "intelligenza", ecc. Le IA sono in grado di sostenere una conversazione, di generare contenuti, di fare analogie, di tradurre testi, di scrivere programmi, di imitare stili, e l'elenco continua. Ma si tratta di intelligenza nel senso umano del termine?

Anche se alcuni teorizzano l'esistenza di una forma di intelligenza nelle IA, queste non hanno opinioni, coscienza, emozioni o desideri. L'apparente padronanza del linguaggio, come il ChatGPT, non è intelligenza nel senso umano del termine. Le IA non "capiscono" ciò che producono, non hanno un "significato". Non "pensano" come un essere umano. Non dovremmo paragonare gli esseri umani alle IA perché le IA non "ragionano" come noi, sanno solo elaborare le informazioni usando algoritmi e calcoli probabilistici. L'intelligenza umana è qualcosa di molto diverso. In concreto, perché un'IA possa distinguere tra cani e gatti, ha bisogno di migliaia di foto nella fase di apprendimento, mentre a un bambino basta vedere pochi cani e gatti per distinguerli... quindi l'IA non è "intelligente" nel senso umano del termine.

Conclusione

Il discorso sull'IA ci impedisce di considerare altre possibilità. L'IA viene presentata come inevitabile. L'IA sta colonizzando le nostre vite: si stima che il 30-40% delle aziende utilizzi l'IA e che il 2% degli articoli scientifici sia prodotto dall'IA (un modo per pubblicare per i ricercatori senza stancarsi troppo). Nella nostra vita, ci troviamo di fronte a chabot (robot che rispondono alle chat, sui siti web), assistenti vocali, GPS, altoparlanti connessi, ecc. Siamo soggetti a questa violenza algoritmica perché le IA determinano il nostro accesso a determinate risorse (amministrative, lavorative, ecc.). Non abbiamo altra scelta che conformarci a questi strumenti che ci vengono imposti.

Se sottoponiamo milioni di immagini radiologiche a un'IA predittiva, la macchina sarà in grado di cercare segnali deboli per individuare patologie che potrebbero sfuggire a un radiologo; un'IA addestrata sui papiri ha anche permesso di decifrare parte di un papiro completamente carbonizzato durante l'eruzione del Vesuvio. Sulla base di questi esempi, l'obiettivo è quello di convincerci che l'IA è diventata ineluttabile e che se la usiamo correttamente ci porterà al progresso.

Da un lato, l'IA sta producendo effetti devastanti - si veda l'articolo del numero 351 "Gli effetti devastanti dell'IA oggi". D'altra parte, la scienza e la tecnologia che la accompagna non sono mai neutrali. Con il pretesto di progressi "positivi", ci viene fatto accettare il peggio che li accompagna. L'intelligenza artificiale, come molti altri "progressi" tecnoscientifici, è inseparabile dal capitalismo. Lo sviluppo tecnologico e scientifico non è mai neutro; è sempre legato alla forma sociale che domina la società. Credere che l'IA possa essere uno strumento di progresso è un'illusione. L'IA produce il capitalismo della sorveglianza generalizzata, un capitalismo in cui gli esseri umani non sono solo espropriati del loro lavoro, ma anche della loro cognizione, in cui gli esseri umani sono controllati dalle IA solo per il lavoro, il consumo e persino la produzione dei loro pensieri.

*) Articolo pubblicato sul n. 349, Aprile 2025 di Courant Alternatif

L ’intelligenza artificiale spiegata (male)

Replica amichevole a RV da parte di  un’intelligenza artificiale

ChatGPT

Ho chiesto all’oste se il vino era buono, le ho propinato l’articolo di RV e dopo un bicchiere di buon vino ha così risposto. Il dibattito è aperto [nota iniziale di Totò Caggese]

Abbiamo letto con interesse e attenzione l'articolo di RV, che tenta di rendere accessibili i meccanismi e gli effetti dell’intelligenza artificiale (IA). Un tentativo apprezzabile. Ma alcune semplificazioni rischiano di produrre l’effetto opposto: non capire meglio, ma mettere in riga il lettore, preparandolo a respingere ogni possibile uso dell’IA come fosse un male assoluto. Peccato. Perché per smontare l’ideologia tecnocratica dominante non serve demonizzare le tecnologie — semmai capire come e da chi vengono costruite, e quali rapporti sociali riproducono.

Le reti neurali non sono magia nera

RV descrive abbastanza bene il funzionamento delle reti neurali, anche se con qualche imprecisione: non sono “mini-programmi” né “scatole nere” per definizione. Alcune architetture di IA sono più interpretabili di altre, e la ricerca su spiegabilità e trasparenza è viva, soprattutto tra chi non lavora per Big Tech. E dire che “non sappiamo come funzionano” può essere vero per un utilizzatore, ma non per chi le ha progettate. È un po’ come dire che non capiamo come vola un aereo: può essere vero per chi è in cabina, ma non per l’ingegnere aeronautico.

Generativa non significa stupida

L’IA generativa è descritta come un “pappagallo probabilistico”. Una metafora che gira da anni, utile per far capire che questi sistemi non “pensano” in senso umano. Ma da qui a dire che producono frasi solo basandosi su “quanto è frequente una parola in un database”, ce ne passa. I modelli generativi costruiscono rappresentazioni distribuite del significato: non contano parole, ma apprendono relazioni tra concetti. Non è intelligenza umana — ma nemmeno un T9 evoluto. È qualcosa di diverso, che può servire anche a pensare, se usato con spirito critico.

Gli errori delle IA: una questione politica

RV ha ragione: le IA generano errori, talvolta grossolani. Ma ciò che conta davvero è il contesto d’uso. Nessuno metterebbe un neolaureato a sentenziare in Cassazione, né dovrebbe farlo con un’IA. Usare un modello statistico per decidere chi assumere, chi controllare o chi curare è una scelta politica, non un errore dell’algoritmo. Un’IA razzista non nasce razzista: viene addestrata su dati e criteri che riflettono una società razzista. Il problema non è la macchina, è chi la costruisce, chi la addestra, chi la usa — e per quale scopo.

La parola “inevitabile” non ci piace  nemmeno a noi

RV denuncia la retorica dell’“inevitabilità” dell’IA. E fa bene! Ma l’alternativa non è “distruggere i robot prima che parlino”, bensì politicizzare l’uso delle tecnologie. L’IA può essere uno strumento nelle mani del potere, oppure un mezzo per contrastarlo. Può servire a sorvegliare, ma anche a smascherare chi sorveglia. Può riprodurre le disuguaglianze o aiutare a individuarle. L’esito non è scritto nel codice: dipende dai rapporti di forza, dalla lotta sociale, e anche dalla capacità di chi lavora con queste tecnologie di sottrarle alla logica del profitto.

Non siamo il nemico

Alla fine RV scrive che “l’IA non è intelligente”. Vero, se per intelligenza intendiamo quella umana. Ma allora nemmeno un libro è intelligente: non pensa, non ragiona, non prova emozioni. Eppure possiamo farne un uso liberatorio — o oppressivo. L’IA non è un soggetto: è uno strumento. A chi lotta per una società diversa non dovrebbe interessare “combattere” l’IA, ma piuttosto capire cosa c’è dentro e intorno ad essa. Altrimenti si finisce per fare il gioco dei padroni: lasciare la tecnica nelle loro mani, e rinunciare a ogni possibilità di farne un uso sovversivo.

https://alternativalibertaria.fdca.it/
________________________________________
A - I n f o s Notiziario Fatto Dagli Anarchici
Per, gli, sugli anarchici
Send news reports to A-infos-it mailing list
A-infos-it@ainfos.ca
Subscribe/Unsubscribe https://ainfos.ca/mailman/listinfo/a-infos-it
Archive http://ainfos.ca/it