📅 Anno:

← Torna al Blog | 23 post

SONETTO 116 di William Shakespeare

Non sia mai ch’io ponga impedimenti all’unione di anime fedeli; Amore non è amore se muta quando scopre un mutamento o tende a svanire quando l’altro s’allontana. Oh no! Amore è un faro sempre fisso che sovrasta la tempesta e non vacilla mai; è la stella-guida di ogni sperduta barca, il cui valore è sconosciuto, benché nota la distanza. Amore non è soggetto al Tempo, pur se rosee labbra e gote dovran cadere sotto la sua curva lama; Amore non muta in poche ore o settimane, ma impavido resiste al giorno estremo del giudizio. Se questo è errore e mi sarà provato, io non ho mai scritto, e nessuno ha mai amato.

Automatizzare Linux From Scratch: una sfida di coerenza tecnica e concettuale

Introduzione

Il progetto Linux From Scratch (LFS) rappresenta una delle esperienze più radicali di apprendimento e costruzione del sistema operativo GNU/Linux. L’idea di base — compilare da zero ogni componente, dal bootstrap del toolchain al kernel — non è soltanto un esercizio tecnico, ma un atto di comprensione profonda della dipendenza reciproca tra codice, ambiente e conoscenza.
Automatizzare tale processo con strumenti come Docker appare, a prima vista, una contraddizione: come rendere ripetibile e isolato ciò che nasce per essere esplorato e compreso nel suo divenire manuale?

Dal Codice alla Pagina: La Creazione di un Editor Integrato per il Blog

Chiunque gestisca un blog basato su un generatore di siti statici come Jekyll conosce la routine: apri l’editor di codice, scrivi in Markdown, avvii un server locale per l’anteprima, fai un commit su Git e infine un push sul repository.
È un flusso di lavoro potente e flessibile, ma non sempre il più immediato, specialmente quando l’ispirazione arriva e si vorrebbe solo iniziare a scrivere senza barriere.

La rivoluzione del Transformer: l’attenzione come principio architettonico dell’intelligenza artificiale

Introduzione

Il paper “Attention Is All You Need” (Vaswani et al., 2017) segna una discontinuità radicale nella storia dell’intelligenza artificiale.
La sua proposta — sostituire le reti ricorrenti con un meccanismo di attenzione autoesplicativa — non è solo un miglioramento tecnico, ma una riconfigurazione concettuale del modo in cui una macchina apprende e rappresenta relazioni.
Da quel momento, il Transformer è divenuto l’architettura di riferimento per modelli linguistici, visivi e multimodali, fino alle applicazioni più avanzate dell’IA generativa.

Dalla neutralità alla governance algoritmica: il potere tecnico nell’epoca dell’intelligenza artificiale

Introduzione

Nelle società digitalmente mature, il potere assume forme nuove: non più soltanto istituzionali o economiche, ma tecniche. La pretesa neutralità degli strumenti di calcolo e valutazione — indicatori, standard, algoritmi — costituisce oggi una delle modalità più pervasive della governance contemporanea.
L’intelligenza artificiale, in particolare, si presenta come tecnologia di supporto alla decisione, ma tende progressivamente a diventare tecnologia di governo: non solo elabora i dati, ma li ordina, li interpreta e li trasforma in regole implicite di condotta.

SimPy: modellare il tempo e le risorse nella complessità dei sistemi

Introduzione

SimPy è una libreria di Python per la simulazione a eventi discreti, utilizzata per modellare sistemi complessi in cui il tempo, le risorse e i processi interagiscono secondo regole dinamiche.
Dalla logistica alla produzione industriale, dalle reti di comunicazione ai sistemi sociali, SimPy consente di esplorare il comportamento di entità autonome che competono per risorse limitate o cooperano secondo schemi temporali.
La sua forza non risiede nella velocità, ma nella chiarezza concettuale: SimPy è pensato per trasformare un problema dinamico in una narrazione algoritmica del tempo.

Scrivere come pensare: LaTeX e la forma razionale del testo

Introduzione

LaTeX non è semplicemente un programma di videoscrittura, ma un linguaggio per la costruzione logica dei testi. Nato dall’incontro tra il sistema di composizione TeX di Donald Knuth e l’estensione di Leslie Lamport, LaTeX si è affermato come lo strumento di riferimento per la scrittura scientifica, tecnica e accademica.
La sua particolarità risiede nella separazione netta tra contenuto e forma: l’autore non “disegna” il testo, ma ne descrive la struttura semantica. In questa distinzione si riflette una visione del sapere fondata sulla chiarezza, sulla verificabilità e sulla riproducibilità.

Pensare con il codice: SICP e la logica di Scheme secondo R5RS

Introduzione

Structure and Interpretation of Computer Programs (SICP) è uno dei testi fondamentali dell’informatica moderna. Pubblicato da Harold Abelson e Gerald Jay Sussman, rappresenta molto più di un manuale di programmazione: è una riflessione profonda sulla natura dei linguaggi, sull’astrazione come forma di pensiero e sulla costruzione concettuale dei sistemi.
Scritto originariamente per accompagnare i corsi del MIT, SICP adotta Scheme, un dialetto del Lisp conforme allo standard R5RS (Revised⁵ Report on the Algorithmic Language Scheme). Questa scelta non è casuale: Scheme incarna una sintassi minimale che consente di esplorare i principi fondamentali del calcolo senza distrazioni sintattiche o dipendenze infrastrutturali.

Costruire dal principio: riflessioni su Linux From Scratch e l’autonomia digitale

Introduzione

Linux From Scratch (LFS) è un progetto didattico e tecnico che consente di costruire un sistema Linux partendo interamente dal codice sorgente. Non si tratta di una distribuzione nel senso tradizionale, ma di un percorso: un metodo per comprendere la struttura interna del sistema operativo, i processi di compilazione e le dipendenze reciproche che sostengono ogni componente.
In un’epoca di crescente astrazione tecnologica, dove l’utente è sempre più distante dal funzionamento del software, LFS rappresenta un esperimento controcorrente: un ritorno alla trasparenza e alla responsabilità del sapere tecnico.

La filosofia implicita di Python: un’analisi di import this

Introduzione

All’interno dell’ecosistema Python esiste un frammento di testo che ha assunto nel tempo un valore simbolico e quasi pedagogico: lo Zen of Python, accessibile digitando nel terminale import this. L’istruzione, che apparentemente richiama un modulo come tanti, restituisce invece una breve raccolta di aforismi redatti da Tim Peters, sviluppatore di lunga data della comunità Python. Quei venti principi condensano l’essenza culturale del linguaggio, più che la sua sintassi o semantica.

Il principio DNSH: quando la sostenibilità diventa criterio tecnico e vincolo operativo

Il principio DNSH (Do No Significant Harm) — letteralmente “non arrecare danni significativi” — rappresenta uno dei pilastri della nuova architettura normativa europea in materia di sostenibilità.
Non è uno slogan politico, ma un criterio tecnico-giuridico che definisce le condizioni con cui un intervento, un progetto o una tecnologia possono essere considerati compatibili con gli obiettivi ambientali dell’Unione Europea.
È il filtro che separa la sostenibilità dichiarata da quella effettiva.

Pubblicare in parallelo su Blog e LinkedIn: strategia, strumenti e interoperabilità dei contenuti

Pubblicare in modo coordinato su blog personale e LinkedIn è oggi una delle strategie più efficaci per costruire una presenza digitale solida, coerente e professionale.
Il blog rappresenta diventa culla del pensiero, dove il contenuto può sedimentare, essere aggiornato e indicizzato. LinkedIn, al contrario, è lo spazio della circolazione del pensiero, dove le idee vengono messe alla prova del confronto e raggiungono nuovi interlocutori.
Integrare le due dimensioni significa riuscire a trasformare ogni articolo in un oggetto comunicativo vivo, che genera valore nel tempo ma resta ancorato a una fonte autorevole e stabile.

Progetto Etna: architettura sperimentale per il monitoraggio vulcanico intelligente

Il Progetto Etna (etna.novelli.me) è un framework sperimentale concepito per esplorare nuove frontiere del monitoraggio vulcanico attraverso tecniche di intelligenza artificiale, automazione e analisi dei dati.
Nasce con l’obiettivo di integrare competenze di informatica, geofisica e ingegneria del software in una piattaforma modulare, orientata alla ricerca e alla prototipazione rapida.

Analisi dei punti funzione: misurare il valore reale di una codebase

La Function Point Analysis (FPA), formalizzata dall’IFPUG – International Function Point Users Group, rappresenta uno dei metodi più solidi e oggettivi per misurare la dimensione funzionale di un sistema software.
A differenza delle metriche basate sulle linee di codice, la FPA valuta il software dal punto di vista dell’utente, misurando cosa il sistema fa, non come è stato implementato.