La bella recensione di Luca De Biase sull’ultimo libro di Howard Rheingold (Net Smart. How to Thrive Online) dedicato alla sfida che i nuovi media ci pongono, inizia con una considerazione indiscutibile: “Sul finire del Quattrocento, il sapere si tramandava con i manoscritti e in Europa ce n’erano 30mila. L’invenzione di Johannes Gutenberg scatenò un cambiamento radicale: in soli 50 anni dall’introduzione della stampa a caratteri mobili, in Europa circolavano più di 10 milioni di libri. E mentre qualcuno lamentava l’eccessiva e ingestibile quantità di informazioni anche di basso valore che erano state messe in circolazione con l’avvento della nuova tecnologia, la conoscenza scritta uscì dal territorio controllato dalle vecchie élite culturali. [...] Progressivamente l’Europa si dotò degli strumenti per gestire la conoscenza e organizzò un sistema educativo totalmente rinnovato. Ci vollero secoli. Oggi non abbiamo altrettanto tempo.”
Rheingold affronta il problema di come fare uso degli strumenti online senza essere sovraccaricati da troppa informazione, ma qualcosa della sua ricetta potrebbe non persuadere del tutto. Il problema della complessità informazionale dell’epoca che stiamo vivendo (il diluvio informazionale, come lo ha definito Pierre Lévy riprendendo Royan Scott) rappresenta una vera e propria sfida per il nostro sistema cognitivo. La facilità con cui oggi è possibile produrre e distribuire informazioni nei diversi tipi (evidenze scientifiche, fatti, idee o semplici opinioni) e nei diversi formati (da quelli più tradizionali come il libro, la rivista o la televisione a quelli elettronici) rendono di fatto impossibile, per l’individuo – ma anche per un gruppo – il gestirle nella loro totalità. Lévy suggerisce l’esigenza di imparare a costruire un rapporto con la conoscenza completamente nuovo. Un rapporto in cui, abbandonata “la nostalgia di una cultura ben costituita, organica, totale” si possa finalmente arrivare ad una conoscenza in cui è necessario accettare i limiti del parziale e del provvisorio e dove solo l’intelligenza collettiva, ovvero il lavoro congiunto dell’individuo e del suo (piccolo) gruppo, possono contribuire a trovare i riferimenti, ad orientare a dare visibilità e trasparenza ad alcune conoscenze disponibili.
Il problema non è così semplice. Facebook, Tweeter ed altri strumenti sociali ci mostrano come il gruppo possa anche annodarsi attorno a discussioni futili, a rilanci estemporanei di frammenti di notizie, al dibattito autoreferenziale. Persino i “social reader“, gli strumenti che alcuni quotidiani hanno adottato per aiutare i propri lettori a contrastare il problema della moltiplicazione delle sorgenti (e della quantità) di notizie, non sembra possano aiutarci. La cura suggerita da Lévy, che sembra concretizzarsi bene in questi strumenti (che quotidiani come Washington Post, Wall Street Journal, Guardian e il Corriere della Sera hanno prontamente allestito), purtroppo non è in grado di combattere il virus della dispersività. Entri per leggere una notizia, magari hai una domanda ben precisa in testa a cui vuoi dare una risposta, e finisci impigliato nella rete dei rimandi e delle curiosità segnalate dagli amici. Se è vero che il leggere un articolo con sistemi di questo tipo crea dei sistemi di fruizione personali (la pagina si compone a partire dai propri interessi) il tirare in ballo gli amici (che sono lì, anche in tempo reale) e le comunità delle quali facciamo parte porta ad inseguire, potenzialmente senza sosta, le letture, i commenti e gli interessi degli altri.
Qualcuno (più di uno, per la verità) ha iniziato ad accusare la rete di contribuire non solo alla dispersione, ma anche ad una fruizione sempre più fugace ed effimera e quindi a forme diverso di conoscere rispetto a quelle del passato recente. Nicholas Carr (Internet ci rende stupidi?, Raffaello Cortina 2011) non sembra avere dubbi nel ritenere che i rischi siano maggiori dei benefici. La sua posizione è chiara: mentre il libro incoraggia il pensiero profondo e creativo, Internet favorisce l’assaggio rapido e distratto di piccoli frammenti di informazione. La posizione, in Italia, è stata da tempo discussa e sostenuta dal linguista Raffaele Simone (La terza fase. Forme di sapere che stiamo perdendo, Laterza, 2000; La mente al punto. Dialogo sul tempo e il pensiero, Laterza, 2002). Le tecnologie elettroniche starebbero trasformando (in peggio) l’uomo riportando in auge modalità conoscitive antiche, pre-alfabetiche, il cui effetto più evidente sarebbe rappresentato dall’incapacità di organizzare ed articolare in maniera logica e consequenziale (che è il tipico apporto dato dalla cultura alfabetica). A parte le ragioni degli opposti schieramenti che vedono da una parte i detrattori delle nuove tecnologie e dall’altra i loro apologeti impegnati a sottolineare i vantaggi del pensiero olistico, reticolare e sincronico che deriverebbe, invece, dall’uso intensivo della rete (per una risposta a Simone si veda ad esempio Domenico Parisi) resta il dato oggettivo che:
- governare la crescente ed inesauribile quantità di risorse a disposizione è impresa tutt’altro che banale e;
- anche il solo passare rapidamente in rassegna i titoli di una tale quantità di risorse richiede tempo ed alimenta il senso di smarrimento e frustrazione.
Lo stesso Lévy sottolinea “vi dicono: potrete avere accesso a tutte le informazioni, alla totalità delle informazioni, ma è proprio il contrario: adesso sapete che non avrete mai accesso alla totalità“.
Quello che è certo, al di là della ragione e del torto delle diverse posizioni, ovvero di chi ritiene che i rischi siano maggiori delle potenzialità (o viceversa), è che non è possibile tornare indietro. Il progresso tecnologico non si ferma. Possiamo solo cercare di capire meglio e, conseguentemente, cercare di regolare i tempi e i modi di utilizzo, accettando la sfida. Imparare (e per quanti hanno compiti educativi, anche insegnare) ad utilizzare al meglio gli strumenti ovvero, riprendendo Rheingold, imparare a governare la complessità: «Se le persone non conoscono come funzionano i media sono travolte da torrenti di disinformazione, pubblicità, messaggi indesiderati, pornografia, rumore, sciocchezze di ogni genere». Per evitare che le informazioni ci sommergano e ci manipolino è cioè necessario «conoscere come funziona la nostra relazione con i media: come si conquista l’attenzione, come si invita alla partecipazione, come si sviluppa la collaborazione, come si legge criticamente l’informazione, come si usano attivamente gli strumenti della rete».
De Biase riprende ed approfondisce nel suo blog alcune delle soluzioni proposte da Rheingold come quella del dotarsi di “crap detector” (sensore di boiate) o del “fact checking” (verifica dei fatti), ovvero di strumenti intellettuali necessari per controllare la veridicità delle informazioni e dei fatti che vengono proposti dai media. La partita, in buona sostanza, si giocherebbe soprattutto qui: sulla capacità di vagliare e analizzare criticamente l’affidabilità dell’informazione. I criteri da seguire (o, conseguentemente, le capacità da sviluppare) sono molte, ma il compito – se fosse solo questo – non sarebbe impossibile. La capacità di guardare criticamente alle informazioni è una delle competenze chiave a cui anche l’insegnamento scolastico mira (o dovrebbe mirare).
C’è qualcosa di altro che varrebbe la pena di tenere in considerazione oltre all’indubbia esigenza di sviluppare la capacità valutare criticamente i materiali individuati grazie alla rete. Ed è, appunto, il problema della loro quantità e, ovvero come avvertiva Umberto Eco in anni non sospetti: “troppa informazione equivale a nessuna informazione”.
Facciamo un esempio. Anche rimanendo nel “ristretto” ambito delle fonti affidabili, ad esempio le riviste scientifiche (ISI o equivalenti), e restringendo ulteriormente il campo alle riviste di un determinato settore scientifico (ad esempio quello dell’insegnamento e apprendimento o, più specifico ancora, dell’educational technology), quante sono le fonti a livello mondiale e quante sono le persone che quotidianamente producono nuovi contributi? Centinaia? Migliaia? E quante nuove iniziative, grazie anche a movimenti come quello dell’Open Access, nascono all’interno di Università, centri di ricerca o semplici gruppi di lavoro? La facilità con cui è possibile aprire un blog (molti ricercatori hanno ormai il loro), creare un Open Access Journal o dare vita a spazi di raccolta online di contenuti digitali più che attendibili, spiazza il lettore sempre più sottoposto alla difficile scelta tra il seguire solo qualcosa (ad esempio dopo aver individuato tre o quattro riviste consultare solo quelle) o il disperdersi in una ingestibile quantità di contributi. Nel primo caso il rischio è quello di perdere qualcosa. Ci potrebbe essere una scoperta rilevante che qualcuno ha fatto da qualche parte nel mondo o, più semplicemente, evidenze utili per una argomentazione attenta. Limitarsi a consultare solo alcune fonti, fossero anche le più blasonate, sottopone al rischio di parzialità. Nel secondo caso, invece, il rischio è quello dell’inondazione di dati e ricerche che si incrociano, si ripetono, si contraddicono. In altre parole qui, è in gioco la possibilità di arrivare ad una sintesi.
Senza contare che oggi il 90% di quanto viene prodotto negli ambienti online decade solo dopo pochi giorni dopo alla sua pubblicazione. Le notizie sono fluide, gli autori dei blog rivedono, riscrivono, rispondono, rettificano.
Probabilmente potranno dare una mano sofisticati aggregatori, strumenti capaci di sostenere e implementare in maniera semi-automatica i processi di gestione della conoscenza personale (il così detto PKM – personal knowledge management).
Si fa sempre più urgente la disponibilità di strumenti dinamici – a disposizione di tutti noi (nativi o no) – per selezionare, aggregare, ritrovare le informazioni assieme a strumenti personali per archiviare.
Nel campo della ricerca, ad esempio, stanno facendo passi da gigante ambienti comeScience Direct dell’editore Elsevier o strumenti come Zotero, Mendely, Connotea.
Ancora non risolvono del tutto il problema della gestione della complessità, ma rappresentano un primo rudimentale passo avanti per integrare e rendere automatica quella che è poi l’antico sogno dell’umanità di giungere a conoscenza certa – o quanto meno affidabile – dei fenomeni. Le ventiquattro ore della giornata, purtroppo, sono sempre quelle e una parte di questo tempo, oggi, se ne va anche nel testare (e poi usare) questi strumenti nella speranza che possano davvero aiutarci.
Bibliografia
Carr, N. (2011). Internet ci rende stupidi? Come la rete sta cambiando il nostro cervello.Milano: Raffaello Cortina.
Cuban, L. (2001). Oversold & underused: Computers in the classroom. Cambridge, MA: Harvard University Press.
Davidson, C. N. (2011). Now You See It: How the Brain Science of Attention Will Transform the Way We Live, Work, and Learn (1st ed.). New York, NY: Viking.
Healy, J. M. (1998). Failure to connect: How computers affect our children’s minds—and what we can do about it. New York: Touchstone.
Oppenheimer, T. (2003). The flickering mind. The false promise of technology in the classroom, and how learning can be saved. New York: Random House
Rheingold, H. (2012). Net Smart: How to Thrive Online. Cambridge, MA: The MIT Press.
Simone, R. (2000). La terza fase. Forme di sapere che stiamo perdendo. Bari: Laterza.
Simone, R. (2002). La mente al punto. Dialogo sul tempo e il pensiero. Bari: Laterza.
Stoll, C. (2001), Confessioni di un eretico high-tech, perché i computer nelle scuole non servono ed altre considerazioni sulle nuove tecnologie, Milano: Garzanti.
Nessun commento:
Posta un commento