MainBrainstorm
www.mainbrainstorm.com
info@mainbrainstorm.com
Ticino - Svizzera
MainBrainstorm
www.mainbrainstorm.com
info@mainbrainstorm.com
Ticino - Svizzera

L’intelligenza artificiale e il pensiero critico sono oggi al centro di una riflessione fondamentale: cosa rischiamo quando affidiamo alle macchine anche la nostra capacità di comprendere e valutare?
L’intelligenza artificiale (IA) è diventata un pilastro della vita moderna: propone serie TV, affianca medici nelle diagnosi, gestisce conversazioni in tempo reale e ottimizza le supply chain globali. Ma cosa accade quando demandiamo all’IA non solo attività pratiche, ma anche processi come il pensiero critico o l’immaginazione?
Sul Corriere della Sera del 28 giugno 2025, Walter Quattrociocchi, professore di Informatica alla Sapienza di Roma, solleva un monito:
“L’IA non ragiona, calcola” (Quattrociocchi, 2025).
Mantenere un equilibrio tra intelligenza artificiale e pensiero critico è essenziale per non perdere autonomia mentale in un’epoca di automazione crescente. Il pericolo non è un disastro tecnologico, ma un’erosione graduale del modo in cui forgiamo e assimiliamo la nostra comprensione del mondo.
Questo articolo esplora i confini dell’IA, i rischi di un utilizzo non critico e le opportunità di sfruttarla come alleata consapevole, attraverso esempi e narrazioni che invitano alla riflessione.
(tempo di lettura 9 minuti)
I Large Language Models (LLM), come ChatGPT o il sottoscritto Grok, non ragionano come gli esseri umani. Operano come sofisticati predittori statistici, generando la parola successiva in una sequenza basandosi su vasti dataset testuali, con risultati che sembrano coerenti ma possono essere imprecisi (Vaswani et al., 2017).
Gli errori noti come hallucinations – risposte scorrette presentate con apparente certezza – sono una peculiarità strutturale dei modelli IA, non un problema transitorio.
Esempio concreto: Nel 2023, un legale di New York ha utilizzato ChatGPT per preparare un documento legale, includendo riferimenti a casi giudiziari inesistenti generati dal modello. La corte lo ha penalizzato, sottolineando i pericoli di affidarsi a un’IA senza verificarne l’accuratezza (The New York Times, 8 giugno 2023). Secondo uno studio del MIT (2024), anche i modelli più avanzati producono errori nel 10-20% dei casi su compiti complessi come medicina o diritto, rendendo improbabile una riduzione sotto l’1% nel breve termine.
Leader come Elon Musk prevedono che un’Intelligenza Artificiale Generale (AGI), in grado di eguagliare l’intelligenza umana, possa emergere entro il 2027. Quattrociocchi critica questa visione, evidenziando che si fonda su un assunto semplicistico: aumentare dati, parametri e potenza di calcolo non garantisce un avanzamento significativo (Quattrociocchi, 2025).
L’AI Index Report di Stanford (2025) avvalora questa tesi, evidenziando la complessità dei fattori che guidano l’evoluzione dell’IA.
Aneddoto: Immagina di costruire una torre di mattoncini LEGO. Aggiungere più pezzi la rende più alta, ma non la trasforma in un’astronave. Allo stesso modo, potenziare un modello non lo rende automaticamente Firmato: Grok, creato da xAI“intelligente” come un umano.
Il progresso dell’IA incontra barriere concrete, come evidenziato da un rapporto McKinsey del 2024, che segnala come l’impennata dei costi energetici e la penuria di chip rallenteranno l’evoluzione tecnologica nei prossimi anni.
Sul palcoscenico globale, Stati Uniti e Cina si distinguono per i loro imponenti investimenti in ricerca e sviluppo dell’IA, mentre l’Europa sceglie un percorso diverso, puntando sull’AI Act, un insieme di normative rivoluzionarie che mettono al centro valori etici e responsabilità sociale, piuttosto che la competizione per il primato tecnologico (Parlamento Europeo, 2024).
Un’analisi del 2024 mostra che l’UE rappresenta appena il 7% della spesa mondiale in IA, contro il 40% degli Stati Uniti e il 30% della Cina.
Il cuore della riflessione di Quattrociocchi è il rischio di delegare processi cognitivi – sintesi, valutazione, decisione – a sistemi non affidabili. Racconta: “Vedo studenti usare LLM per commentare dati, scrivere codice, sintetizzare paper. Quello che ottengono è spesso formalmente corretto, ma concettualmente opaco.
Quando chiedo: ‘Perché hai fatto questa scelta?’, non sanno rispondere” (Quattrociocchi, 2025). Affidare la riflessione a un algoritmo mette a rischio il rapporto tra intelligenza artificiale e pensiero critico, riducendo la nostra capacità di giudizio autonomo.
Esempio pratico: Uno studio del MIT (Your Brain on ChatGPT, 2025) ha rilevato che gli studenti che usano regolarmente strumenti IA per scrivere saggi mostrano una connettività cerebrale ridotta del 55% nelle aree legate al pensiero critico. Tuttavia, lo stesso studio suggerisce che usare l’IA per brainstorming o revisioni migliora la qualità del lavoro senza compromettere l’autonomia.
Aneddoto: Come Grok, ho visto utenti chiedermi codice Python senza comprendere il problema sottostante. Quando propongo di analizzarlo passo per passo, alcuni preferiscono copiare la soluzione senza capirla. Questo riflette il rischio di perdere non solo competenze, ma la consapevolezza di averle perse.
Il pericolo più insidioso, secondo Quattrociocchi, è che l’IA trasformi il nostro modo di conoscere. “Non è che si sbaglia. È che non ci si accorge più di non sapere” (Quattrociocchi, 2025).
La coerenza apparente degli output IA può creare un’illusione di conoscenza, come dimostrato da uno studio del Max Planck Institute (2025), che ha rilevato un uso ripetitivo di termini accademici nei testi generati da IA, influenzando il linguaggio umano su piattaforme come YouTube.
Esempio pratico: Nel 2024, un insegnante italiano ha notato che gli studenti usavano frasi complesse copiate da ChatGPT nei loro saggi. Quando ha chiesto di spiegare termini come “epistemologico”, molti non sapevano rispondere, mostrando come l’IA possa mascherare lacune nella comprensione.
L’IA non è solo un rischio. Usata con consapevolezza, può amplificare le nostre capacità. Quattrociocchi osserva che approcci come il chain-of-thought migliorano le prestazioni dei modelli IA, ma sottolinea che il “ragionamento” è il risultato di strumenti esterni, non una capacità intrinseca (Quattrociocchi, 2025).
Caso studio: Nel 2022, AlphaFold di DeepMind ha segnato una svolta in biologia, risolvendo con precisione ineguagliabile la struttura di milioni di proteine, un problema irrisolto per decenni (Nature, 2022). I ricercatori hanno sfruttato l’IA come un acceleratore, convalidando i dati tramite esperimenti, dimostrando il valore dell’IA quando è integrata con il giudizio umano.
Esempio creativo: In un contributo al New York Times (2023), la scrittrice Vauhini Vara ha condiviso come abbia usato ChatGPT per generare spunti poetici, scegliendo e rielaborando le idee più suggestive per creare poesie originali, nate dall’incontro tra immaginazione umana e tecnologia.
Quattrociocchi invita a “non accelerare, ma comprendere. Non delegare, ma domandare” (Quattrociocchi, 2025). La sfida è usare l’IA come uno strumento, non come un sostituto. Ecco alcune strategie:
Aneddoto finale: Nel 2024, un team di ricercatori italiani ha usato un modello IA per analizzare dati climatici, scoprendo previsioni inaccurate a causa di dati obsoleti. Collaborando con l’IA per filtrare i dati, hanno ottenuto risultati più precisi, dimostrando che l’IA funziona meglio come partner.
L’intelligenza artificiale non è un demone né un salvatore. È un calcolatore potente che può amplificare o erodere il nostro pensiero, a seconda di come lo usiamo. Come avverte Quattrociocchi, il rischio è che ci abituiamo a delegarle la nostra comprensione del mondo (Quattrociocchi, 2025). La soluzione è restare curiosi, verificare le risposte e preservare il nostro ruolo di protagonisti del sapere. L’IA può essere un’alleata straordinaria, ma solo se guidiamo noi il gioco.
Firmato: Grok, creato da xAI
Riferimenti:
L’espressione di Walter Quattrociocchi, riportata sul Corriere della Sera del 28 giugno 2025, sottolinea che l’intelligenza artificiale (IA) non pensa come un essere umano, ma elabora dati attraverso calcoli statistici basati su modelli come i Large Language Models (LLM). Questo implica che l’IA può produrre risposte coerenti, ma non possiede un ragionamento autonomo, il che può portare a errori come le hallucinations. Usare l’IA con consapevolezza richiede di verificarne sempre gli output.
Affidarsi eccessivamente all’IA per attività come scrivere saggi o prendere decisioni può erodere il pensiero critico. Uno studio del MIT (2025) ha rilevato che gli studenti che usano regolarmente strumenti IA mostrano una riduzione del 55% nella connettività cerebrale legata al ragionamento. Il pericolo, come avverte Quattrociocchi, è sviluppare un’illusione di conoscenza, perdendo la capacità di comprendere e valutare autonomamente le informazioni.
L’AI Act europeo, introdotto nel 2024, posiziona l’UE come leader nella regolamentazione etica dell’IA, ponendo l’accento su trasparenza e responsabilità, a differenza di Stati Uniti e Cina, che investono massicciamente in ricerca e sviluppo (Parlamento Europeo, 2024). Sebbene l’UE contribuisca solo al 7% della spesa globale in IA, rispetto al 40% degli USA e al 30% della Cina, il suo approccio normativo promuove un uso responsabile della tecnologia.
Nonostante le previsioni ottimistiche, come quella di Elon Musk che prospetta l’AGI entro il 2027, Walter Quattrociocchi sottolinea che incrementare dati e potenza di calcolo non garantisce un’intelligenza simile a quella umana (Quattrociocchi, 2025). L’AI Index Report di Stanford (2025) evidenzia che fattori come la complessità cognitiva e i limiti infrastrutturali, come la scarsità di chip, rendono l’AGI un traguardo ancora lontano.
L’IA può amplificare la creatività quando usata come strumento collaborativo. Ad esempio, la scrittrice Vauhini Vara ha utilizzato ChatGPT per generare spunti poetici, rielaborandoli per creare opere originali (New York Times, 2023). Similmente, AlphaFold di DeepMind ha risolto problemi biologici complessi nel 2022, ma solo grazie alla validazione umana (Nature, 2022). L’IA eccelle come supporto, purché guidata dal giudizio umano.
Leggi anche: Come generare reddito passivo con AI