Tutto il World Wide Web: ecco quante informazioni potrebbe contenere la nostra memoria.
Ricercatori dell’Istituto Salk hanno riportato importanti rivelazioni sulla dimensione delle connessioni neurali, ritenendo che la nostra memoria può essere molto più grande di quanto si stimi: il professor Terry Sejnowski, co-autore dell’articolo pubblicato su eLife, afferma che dalle misurazioni effettuate, la capacità della nostra memoria sarebbe di almeno un petabyte (un milione di miliardi di byte), elevando alla decima le vecchie stime.
Il team di ricercatori ha costruito una rappresentazione tridimensionale del tessuto dell’ippocampo di un ratto, notando qualcosa di insolito. In alcuni casi, un singolo assone di un neurone ha formato due sinapsi, raggiungendo un dendrite di un secondo neurone: ciò significa che il primo neurone sembrava mandare un doppio messaggio al neurone ricevente.
In un primo momento, i ricercatori non hanno badato molto a questi duplicati, che nell’ippocampo avvengono circa il 10% delle volte. Ma un membro dello staff scientifico del Salk, Tom Bartol, ha avuto un’illuminazione: se si potesse misurare la differenza tra due sinapsi simili a queste, si potrebbero avere delle nuove rivelazioni sulla dimensione reale delle sinapsi.
Per fare questo, i ricercatori hanno utilizzato microscopi avanzati e algoritmi computazionali sviluppati da loro stessi per ricostruire la connettività, le forme, i volumi e le superfici del tessuto cerebrale a livello nanomolecolare. Gli scienziati si aspettavano che le sinapsi avrebbero avuto dimensioni piuttosto simili, ma con sorpresa hanno scoperto che erano pressoché identiche, con una differenza di appena l’8%.
Poiché la capacità di memoria dei neuroni dipende dalle dimensioni delle sinapsi, questa differenza dell’otto per cento si è rivelata essere un numero chiave e quindi da inserire nei modelli algoritmici per misurare la quantità di informazioni che potrebbero essere immagazzinate nella connessioni sinaptiche.
Questa rivelazione suggerisce che vi possono essere ben 26 categorie di dimensioni delle sinapsi, e non solamente alcune come si riteneva in precedenza. Secondo i ricercatori “ci sono 10 dimensioni di sinapsi in più di quanto si pensasse”, spiega Bartol. In termini informatici, 26 formati di sinapsi corrispondono a circa 4,7 “bit” di informazioni. In precedenza, si pensava che il cervello fosse capace di immagazzinare solo uno o due bit di memoria a breve e lungo termine nell’ippocampo.
Questa precisione di grandezza è straordinaria e ha implicazioni di vasta portata. “Ci eravamo spesso chiesti come la notevole precisione del cervello potesse risultare da sinapsi inaffidabili”, spiega Bartol. Una risposta, a quanto pare, è nel costante adeguamento delle sinapsi. Il team ha utilizzato i nuovi dati ed elaborato un modello statistico per scoprire quanti segnali ci vorrebbero perché un paio di sinapsi arrivino a quella differenza dell’otto per cento.
I ricercatori hanno calcolato che per le sinapsi più piccole, circa 1.500 eventi causano un cambiamento nella loro dimensione / capacità (in circa 20 minuti) e per le più grandi, solo duecento eventi di segnalazione (da 1 a 2 minuti) causano un cambiamento.
“Questo significa che ogni 2 o 20 minuti, le sinapsi stanno adeguando se stesse in base ai segnali che ricevono”, spiega Bartol.
“Il nostro lavoro pone le basi per nuovi modi di pensare al cervello e al computer“, sottolinea la co-autrice Harris. “Ha aperto un nuovo capitolo nella ricerca di meccanismi di apprendimento e memoria.” Harris aggiunge che i risultati suggeriscono tuttavia nuove domande da esplorare, per esempio valutare se regole analoghe valgono anche per le sinapsi in altre regioni del cervello e come tali regole differiscono durante lo sviluppo, e ancora come le sinapsi cambiano durante le fasi iniziali di apprendimento.