Ciclo: XL

Dottorando: Matteo Da Pelo

Ruolo: R1 - First Stage Researcher

Supervisor: Prof. Pietro Salis – Università di Cagliari, Prof. Antonio Lieto – Università di Salerno


Dopo molti anni di studi, tra cui una laurea triennale in Filosofia, una laurea magistrale in Logica, Filosofia e Storia della Scienza e una in Filosofia dell'Intelligenza Artificiale e Mondo Digitale, ora sono uno studente di dottorato presso UniCa. Il mio progetto mira a studiare la posizione dell'IA Forte, ovvero che la nostra cognizione è interamente simulabile, e dimostrare che almeno la sua forma "più debole" è possibile, in un approccio cognitivo dinamico, incarnato ed emergentista. Uno dei miei obiettivi più importanti è mostrare il potere epistemologico dei modelli di IA: per una migliore comprensione della nostra cognizione, lo studio di queste nuove forme cognitive digitali potrebbe essere davvero eccezionale. I miei interessi di ricerca sono ovviamente l'Intelligenza Artificiale e la sua Filosofia, la Filosofia dell'Informazione, la Filosofia delle Tecnologie, la Filosofia della Mente, la Logica Paraconsistente, la Bioetica e l'Etica dell'IA.

Il Test di Turing (TT) è stato il primo e più influente metodo proposto per valutare l’intelligenza artificiale (IA). Formulato come un test di stampo comportamentista, ha rappresentato per decenni un punto di riferimento cruciale per il confronto tra intelligenza umana e artificiale. Tuttavia, pur mostrando capacità avanzate per le loro epoche, sistemi come il General Problem Solver (GPS), ELIZA, Semantic Networks (SN), SOAR, SHRDLU e, successivamente, DeepBlue e AlphaGo, non hanno mai superato il TT nel senso più rigoroso del termine. L’avvento dell’architettura Transformer nel 2018 ha radicalmente trasformato il panorama dell’IA, e con la pubblicazione di GPT-3 nel 2020 è divenuto evidente che il TT poteva essere superato, almeno in alcuni contesti. Questo cambiamento ha reso urgente lo sviluppo di test più oggettivi per valutare le capacità dell’IA, portando alla diffusione dei benchmark, come GLUE e SuperGLUE, che misurano le prestazioni su specifici compiti linguistici. Tuttavia, i benchmark non riproducono l’intento originario del TT, che non era solo una misura di performance, ma un test comparativo tra intelligenza artificiale e umana. Confrontare le capacità dei Large Language Models (LLMs) con quelle umane rimane metodologicamente problematico, poiché questi sistemi non sono progettati per simulare la cognizione umana, bensì per ottimizzare l’elaborazione del linguaggio naturale su larga scala. Già negli anni ‘60, Marvin Minsky aveva distinto due principali approcci nell’IA: i programmi “Machine-Oriented”, focalizzati sulla risoluzione di problemi computazionali, e quelli “Human-Centered”, orientati alla modellizzazione della cognizione umana. I LLMs appartengono chiaramente alla prima categoria, il che solleva interrogativi sulla loro idoneità come strumenti per la ricerca cognitiva. Nel 2021, Antonio Lieto ha proposto la Minimal Cognitive Grid (MCM), un framework per valutare il grado di “cognitività” di un sistema IA, offrendo un criterio più rigoroso per distinguere i modelli basati sulla scienza cognitiva da quelli puramente statistici. Il mio lavoro di ricerca si concentra sull’analisi critica dei test per l’IA, dal TT ai moderni benchmark, con particolare attenzione alla distinzione tra IA orientata alla risoluzione di problemi e IA con un design ispirato alla cognizione umana. Un obiettivo centrale di questo progetto è valutare la possibilità di sviluppare strumenti di valutazione più adeguati per distinguere tra diverse tipologie di sistemi intelligenti. A lungo termine, il progetto mira a dimostrare come l’IA cognitiva possa non solo offrire nuove prospettive per il miglioramento dei sistemi artificiali, ma anche contribuire alla comprensione della nostra stessa cognizione.

Matteo Da Pelo

Questionario e social

Condividi su:
Impostazioni cookie