Schizofrenia digitale, riflessioni sull’Era Digitale, echi dal passato e tattiche di sopravvivenza digitale. Se ti piace questa rubrica settimanale, ti piacerà anche tutto il resto di Cyber Hermetica!
⚡ SEMIOTIC FLASHES
Riflessioni settimanali personali. Decifrare il significato, un flash alla volta.
Afasia artificiale e mutazione del Logos
La settimana è passata all’insegna delle abbuffate pasquali (avanzi del giorno prima che si accumulavano agli avanzi del giorno dopo) e del binge watching di Dr. House. La mia ragazza non l’aveva mai visto, e ne abbiamo approfittato per recuperare qualche episodio svaccati sul divano a casa dei miei genitori.
C’è un episodio in particolare che mi ha stuzzicato la fantasia, il decimo della seconda stagione “Failure to Communicate”. Nell’episodio il paziente soffre della Afasia di Wernicke, un disturbo del linguaggio in cui una persona riesce a parlare in modo fluente, con frasi lunghe e ben costruite, ma le parole usate sono spesso sbagliate o senza senso. Chi ne soffre non si rende conto che il suo linguaggio è confuso, e fatica anche a capire quello che gli altri dicono.
Non sono un medico, quindi mi sono fatto spiegare a grandi linee da chatGPT la natura di questo disturbo. Immagina un sistema linguistico con tre componenti principali:
Generatore di significati (cosa voglio dire?)
Selettore lessicale (quali parole lo esprimono?)
Compositore sintattico (come le metto in ordine?)
Ecco, l'’afasia colpisce le parti del cervello che hanno la funzione di selettore. In pratica, il paziente produce frasi fluide, sintatticamente ben formate, ma semanticamente incoerenti. Solitamente usa parole sbagliate ma vicine per suono o significato (es. “spada” al posto di “scala”).
Nell’episodio di Dr. House il paziente continuava a ripetere una frase che poi sarà centrale per la diagnosi:
Couldn't tackle the bear! Couldn't tackle the bear! They took my stain!
Se ti stai chiedendo per quale motivo io stia parlando di queste cose, adesso te lo dico. Riflettendo su questo episodio, mi sono reso conto che dietro a un semplice disturbo linguistico si nascondono grandi complessità cibernetiche.
L’afasia potrebbe infatti essere intesa come il fenomeno delle cosiddette “allucinazioni” degli LLM, che in determinati contesti possono selezionare parole simili al significato che vogliono comunicare, ma non corrette per il contesto specifico. Questo accade soprattutto a livelli di temperatura elevati.
La temperatura nei modelli LLM è un parametro tecnico che controlla il grado di randomicità nella selezione delle parole successive in una frase. Cioè è il parametro che definisce l’equilibrio tra ordine e caos nella generazione linguistica: Una temperatura bassa produce output molto prevedibili e altamente coerenti tra loro, perché il modello sceglie quasi sempre la parola successiva più probabile rispetto alla precedente.
Con una temperatura molto bassa il modello risponde in modo estremamente meccanicistico. Viceversa, impostando una temperatura più alta, gli output diventano più creativi ma anche statisticamente soggetti a incoerenza o allucinazioni totali. Il modello esplora alternative a bassa probabilità statistica, e il risultato è soggetto ad alta varianza.
Chi ha giocato con generatori d’immagini come Midjourney sa che in base alla libertà statistica (temperatura) che viene lasciata al modello, l’immagine generata può essere completamente diversa rispetto alle aspettative iniziali date dal prompt.
L’afasia umana potrebbe quindi essere vista come un’alterazione della configurazione di temperatura interna del cervello umano, che inizia a produrre frasi semanticamente senza senso.
Similmente, potremmo dire che la generazione del linguaggio segue regole simili sia per gli esseri umani che per i LLM, ma con significative differenze ontologiche. Il linguaggio artificiale è infatti una reazione a un evento esterno — il prompt umano. Viceversa, il linguaggio umano deriva da un bisogno interno, è un’emanazione del Sè.
Tuttavia, potremmo anche sostenere che il linguaggio non è altro che uno strumento statistico per cogliere idee trascendenti che esistono già a livello universale. L’essere umano non “inventa” le parole, ma le scopre — proprio come i numeri. Il linguaggio diventa così un goffo tentativo di mappare la dimensione ineffabile delle idee (forme) — immutabili, trascendenti. È l’intuizione del mondo delle idee platonico (Eidos, μορφή). L’idea è l’elemento originario. Il pensiero umano, che percepisce l’idea, è un primo tentativo di comprensione. Il linguaggio, che cerca di descrivere la percezione dell’idea, è un secondo tentativo di comprensione e comunicazione dell’idea percepita.
In questo contesto gli LLM sarebbero la copia della copia della copia: partono da input linguistici umani per riformulare parole e concetti che statisticamente possano risultare coerenti con l’input umano.
Non per questo però possiamo declassare il linguaggio artificiale a mera performance vuota di significato. Il confronto tra umani e LLM innesca infatti un circuito cibernetico con feedforward e feedback loop.
L’umano deforma l'Idea. Il pensiero deforma l’Idea. Il linguaggio deforma il pensiero. La macchina deforma il linguaggio (nuove espressioni linguistiche). L'umano si adatta alla deformazione della macchina. La macchina viene addestrata sulla base delle nuove deformazioni linguistiche.
(↶ feedback)
[LINGUAGGIO MACCHINA]
↓
[LINGUAGGIO UMANO]
↓
[PENSIERO UMANO]
↓
[IDEA]
↑
(↷ feedforward)
E se tutto questo è vero, le deformazioni linguistiche degli LLM potrebbero portare, nel tempo, a una mutazione del pensiero umano: nuovi neologismi, nuovi modi di formulare concetti (percezione delle Idee platoniche), nuove strutture sintattiche. Non è però per forza un male. A nuove parole e nuove costruzioni semantiche può corrispondere la scoperta di nuove idee prima inarrivabili per la sola mente umana.
L’uomo ha sempre evoluto il pensiero deformando il linguaggio: miti, poesia, ermetismo, paradosso filosofico. Ora l’uomo e la macchina sono entrati in un unico loop cibernetico di mutazione linguistica accelerata. Gli LLM sono mutageni semantici.
In un certo senso, le allucinazioni degli LLM potrebbero aprirci le porte verso nuove forme di conoscenza.
💻 DIGITAL GRIMOIRE
Tattiche di sopravvivenza digitale: OpSec, Cybersecurity, OSINT e tecniche per dominare l’era digitale.
Schizomaxxing con o3
Sam Altman, fondatore di OpenAI, ha detto: if you are not skillsmaxxing with o3 at minimum 3 hours every day, ngmi. Che si traduce più o meno con “se non usi o3 per migliorare le tue skill, non ce la farai”.
Non mi piace chi usa queste argomentazioni per mettere ansia alla gente, ma sicuramente gli LLM, specie quelli con ragionamento avanzato come chatGPT o3, possono essere sfruttati per migliorare le proprie abilità. C’è un metodo in particolare che a me piace molto, ed è quello di trasformare le idee. Funziona così:
Domanda → Raffinazione → Iterazione
Inizia la conversazione con un prompt grezzo. Un pensiero, anche scomposto. Una riflessione, un’idea appena abbozzata. Lascia che o3 risponda a modo suo, poi inizia a lavorare su quella. Scomponi la risposta come un’alchimista: riducila alle sue componenti essenziali, elimina le impurità (ciò che non ti interessa), trasmuta il risultato in un ulteriore prompt raffinato. Oppure chiedi a o3 di farlo per te, magari cambiando anche lo stile di esposizione e chiedigli di spiegarti le assunzioni implicite.
Un altro consiglio utile è mantenere un archivio delle interazioni più significative. ChatGPT mantiene uno storico delle chat, ma può diventare difficile risalire nel tempo a ciò che ti serve. Io uso Notesnook.
Così facendo puoi chiedere a o3 di distillare i concetti, o collegarli ad altre idee precedenti. In questo modo la conoscenza diventa veramente *tua* e non ristagna. Occhio alle allucinazioni.

📡 DIGITAL SOVEREIGNTY SIGNALS
Trasmissioni dalla infosfera: eventi e notizie che impattano la nostra realtà digitale.
Ancora più allucinazioni
Secondo test interni di OpenAI, i nuovi modelli o3 e o4-mini, i cosiddetti “reasoning models”, più intelligenti dei modelli precedenti, soffrono ancora di più di allucinazioni. Un fenomeno peculiare che i ricercatori ancora faticano a comprendere del tutto, che stranamente sembra aumentare proporzionalmente alle capacità dei modelli.
E se l’allucinazione fosse una feature, piuttosto che un bug? Link all’articolo.
🌐 SUBSTACK’S SUBNET
Voci emergenti: articoli e contenuti su Substack, selezionati per ispirare e connettere.
Il futuro delle crypto
Siamo sull’orlo di una rivoluzione temporale. Anzi, forse la stiamo già vivendo. Tutto sta cambiando, e in fretta. Sei mesi fa sono diventato padre ed è in quella circostanza che la mia percezione del tempo è cambiata radicalmente. Il tempo trascende la dimensione fisica ma anche quella metafisica. La società contemporanea ci offre l'illusione di un eterno presente, ma le nostre scelte temporali influenzano le nostre vite in modi che la cultura moderna non sempre apprezza….
Questa settimana propongo un pezzo scritto da me, per Rivista Alata di
.
📟 RETRO-ACCELERATION
Frammenti di retro-accelerazione: cypherpunk, culti cibernetici, profeti digitali e schizo-accelerazionisti.
L'accelerazione viene inizialmente proposta come un'aspettativa cibernetica. In qualsiasi circuito cumulativo, stimolato dal proprio output e quindi auto propulsivo, l'accelerazione è il comportamento normale. All'interno del terreno diagrammabile dei processi diretti da feedback, si trovano soltanto esplosioni e trappole, nelle loro diverse sfumature. L'accelerazionismo identifica il diagramma di base della modernità come esplosivo.
— Teleoplexy: Notes on Acceleration (Nick Land)
🌀 SYMBOLS
Meme, immagini e simboli visivi che decodificano la schizofrenia dell’era digitale.
Hai già letto l’ultima su Cyber Hermetica?
Alla prossima settimana per un nuovo appuntamento di Sunday’s Schizophrenization