Una recente ricerca condotta dall’Università di Tokyo ha rivelato una connessione inaspettata tra i modelli linguistici di grandi dimensioni (LLM), come ChatGPT, e un disturbo neurologico del linguaggio umano noto come afasia di Wernicke.
Cos’è l’afasia di Wernicke?
L’afasia di Wernicke è un disturbo neurologico del linguaggio causato da un danno alla parte posteriore del lobo temporale sinistro del cervello, nota come area di Wernicke. Le persone affette parlano con fluenza e ritmo normali, ma il contenuto del discorso può risultare incomprensibile, privo di senso o incoerente, spesso con uso improprio delle parole. È un’afasia di tipo recettivo, poiché chi ne soffre ha anche difficoltà a comprendere il linguaggio altrui, nonostante mantenga intatta la capacità articolatoria.
Il cuore della scoperta
Gli studiosi hanno scoperto che, sia nelle chatbot basate su LLM che nei cervelli di pazienti affetti da afasia di tipo recettivo, viene generato un linguaggio fluente ma incoerente, frutto di un’elaborazione interna troppo rigida e strutturata, che può compromettere la chiarezza e l’accuratezza delle informazioni trasmesse.
Come è stata condotta l’analisi?
Attraverso una tecnica chiamata “energy landscape analysis”, utilizzata per mappare gli stati dinamici dei segnali cerebrali, il team ha confrontato:
- Attività cerebrali a riposo di persone affette da diversi tipi di afasia.
- Dinamiche interne di modelli AI come GPT-2, LLaMA e ALBERT.
I risultati? Notevoli similitudini nei modelli di transizione e durata degli stati interni tra cervelli umani con afasia recettiva e LLM.
“Questi modelli AI sembrano intrappolati in schemi rigidi di attivazione, proprio come nei cervelli colpiti da afasia”, spiega il Professor Takamitsu Watanabe.
Implicazioni future
Lo studio apre scenari promettenti sia nel campo della medicina che nello sviluppo di sistemi di intelligenza artificiale più evoluti.
- In ambito medico, il metodo potrebbe rivoluzionare la diagnosi dell’afasia, andando oltre i soli sintomi esterni, ma utilizzando i modelli di attività neurale per ottenere diagnosi più precise e personalizzate.
- Nel settore dell’AI, offre una nuova lente per comprendere e migliorare l’architettura interna dei LLM, rendendoli più affidabili e coerenti.
Conclusioni
Nonostante l’apparente eloquenza di strumenti come ChatGPT, la loro capacità di generare informazioni sbagliate ma convincenti resta una sfida. L’utente medio, senza conoscenze approfondite, rischia di fidarsi ciecamente di risposte che suonano corrette ma non lo sono.
La linea tra cervello umano e intelligenza artificiale si fa sempre più sottile, ma le limitazioni interne di entrambi ci ricordano quanto sia cruciale progettare sistemi intelligenti con maggiore flessibilità, chiarezza e senso critico.