La Cache di ASP.NET è un tipico esempio di risorsa condivisa, a cui accedono contemporaneamente diversi thread. Un tale scenario è potenzialmente a rischio di race condition: quando due thread agiscono nello stesso istante sul medesimo oggetto, in generale il risultato finale non è determinabile a priori e questo, in assenza di meccanismi di sincronizzazione, può portare a bug e malfunzionamenti che sono difficili da individuare.
Se leggiamo la documentazione di MSDN relativa all'oggetto System.Web.Caching.Cache, possiamo notare che fortunatamente si tratta di un oggetto Thread Safe, ossia che possiede già internamente tutti i meccanismi per gestire correttamente accessi concorrenti. Tuttavia ciò non ci mette al riparo da utilizzi errati che, come sviluppatori, potremmo compiere interagendo con esso.
Consideriamo ad esempio questo frammento di codice, piuttosto comune quando si vuole determinare se aggiungere o meno un oggetto in cache:
var myResult = Cache["MyResult"] as SomeType; // (1) if (myResult == null) { myResult = ExecuteSomeQueryOnDatabase(); this.Cache["MyResult"] = myResult; // (2) }
Lo snippet precedente sembra formalmente corretto, eppure in un ambiente multithreading, come tipicamente è una Web Application, nulla vieta che, tra l'istante in cui viene recuperato il contenuto della cache (1) e quello in cui tale valore viene effettivamente scritto (2), un altro thread abbia eseguito il medesimo codice e già popolato la cache con il dato MyResult.
Nel migliore dei casi, l'effetto è l'esecuzione di una seconda query sul database (che comunque potrebbe essere evitata), ma in casi più complessi una tale situzione potrebbe comportare bug difficilmente diagnosticabili e riproducibili.
Per evitare queste eventualità, è sufficiente sincronizzare l'accesso in scrittura alla cache utilizzando una risorsa statica:
private static object syncObject = new object(); public SomeType GetSomeResult() { var myResult = Cache["MyResult"] as SomeType; if (myResult == null) { lock (syncObject) { if (Cache["MyResult"] == null) { myResult = ExecuteSomeQueryOnDatabase(); this.Cache["MyResult"] = myResult; } } } return myResult; }
Lo statement lock, infatti, assicura che solo un thread per volta possa acquisire la risorsa syncObject e quindi eseguire il codice all'interno del blocco. La duplice condizione di if (chiamata double check pattern) serve ad evitare di recuperare il dato dal database nel caso in cui un thread abbia scritto sulla cache mentre l'altro era in attesa di poter acquisire il lock.
Per quanto riguarda l'accesso in lettura, invece, non è necessaria alcuna precauzione particolare, grazie alla thread safety dell'oggetto Cache.
Commenti
Per inserire un commento, devi avere un account.
Fai il login e torna a questa pagina, oppure registrati alla nostra community.
Approfondimenti
Criptare la comunicazione con mTLS in Azure Container Apps
Sfruttare MQTT in cloud e in edge con Azure Event Grid
Path addizionali per gli asset in ASP.NET Core MVC
Aggiungere interattività lato server in Blazor 8
Utilizzare la funzione EF.Parameter per forzare la parametrizzazione di una costante con Entity Framework
Eseguire i worklow di GitHub su runner potenziati
Le novità di Angular: i miglioramenti alla CLI
Utilizzare Azure AI Studio per testare i modelli AI
Disabilitare automaticamente un workflow di GitHub
Utilizzare i primary constructor di C# per inizializzare le proprietà
Limitare le richieste lato server con l'interactive routing di Blazor 8
Eseguire query manipolando liste di tipi semplici con Entity Framework Core
I più letti di oggi
- Simulare Azure Cosmos DB in locale con Docker
- Utilizzare il metodo Index di LINQ per scorrere una lista sapendo anche l'indice dell'elemento
- ecco tutte le novità pubblicate sui nostri siti questa settimana: https://aspit.co/wkly buon week-end!
- .NET Conference Italia 2024 - Milano
- .NET Conference Italia 2023 - Milano e Online