In un precedente articolo, abbiamo parlato di come Ollama gestisce la memoria durante il caricamento e l’esecuzione dei modelli di linguaggio di grandi dimensioni (LLM).
Leggi
In un precedente articolo, abbiamo parlato di come Ollama gestisce la memoria durante il caricamento e l’esecuzione dei modelli di linguaggio di grandi dimensioni (LLM).
Leggi
Leggi gli ultimi post per rimanere aggiornato/a

Imparare a studiare e fare narrowing di ciò che si studia risulta fondamentale.
Leggi
Quando si sviluppa un videogioco in Realtà Virtuale, una delle sfide principali è il rendering simultaneo delle due camere, una per ciascun occhio.
Leggi
A volte, l’innovazione tecnologica nasce da una visione chiara e dalla capacità di trasformare idee in realtà concrete, anche se iniziare da zero può rappresentare una vera e propria sfida.
Leggi
Se hai mai passato ore a cercare la causa di un rallentamento in produzione sfogliando migliaia di righe di log, sai già di cosa parlo.
Leggi
Introduciamo un nuovo argomento nel blog: l’automazione! Oggi, con questo post, Luca Tomasino ci guida nell’installazione di n8n in modalità self-hosted tramite Docker, permettendoci di esplorare le potenzialità di questa piattaforma senza costi iniziali.
Leggi
Guardare dietro le quinte di come funzionano i modelli di linguaggio di grandi dimensioni (LLM) è fondamentale per comprendere le loro prestazioni e limitazioni, e uno degli aspetti più critici è la gestione della memoria, che influisce direttamente sulla velocità di risposta e sulla capacità del modello di mantenere il contesto durante una conversazione.
Leggi
Nel contesto dei sistemi software moderni, la gestione efficiente delle operazioni di lettura e scrittura sui dati è fondamentale per garantire prestazioni ottimali e scalabilità.
Leggi
Dopo aver esplorato i principi teorici del Confidential Computing, passiamo alla pratica.
Leggi
Oggi parliamo di innovazione con Gianluigi Mucciolo, Principal Solution Architect in AWS, con una lunga esperienza nella progettazione di architetture software scalabili e affidabili, unendo competenze nel campo dell’intelligenza artificiale e del cloud computing.
LeggiManda una mail a collaborazioni[at]theredcode.it con la tua proposta e diventa la prossima penna del blog!
Ma sì, facciamolo!