Necesito obtener datos de una API que es bastante lenta y rara vez cambia, así que pensé en usar un caché en memoria. Primero probé un enfoque muy simple simplemente guardándolo en una variable fuera del alcance de la función del cargador en mi ruta:
let cache; export const loader = async () => { if (!cache) { // we always end up here cache = await (await fetch("...)).json() } }
pero eso no funcionó. Luego probé una biblioteca de almacenamiento en caché adecuada ( lru-cache
), pero ese caché también estaba siempre vacío. Luego me di cuenta de que el archivo completo se recargó en cada solicitud, lo que supongo que es una cosa del modo de desarrollo, así que intenté mover la creación del caché a un archivo separado cache.server.ts e importarlo desde allí.
import LRU from "lru-cache"; console.log("Creating cache"); // this is logged on each request const cache = new LRU({ max: 200 }); export default cache;
Pero ese archivo también parece recargarse en cada solicitud.
Si construyo una versión de producción y la ejecuto, todo funciona muy bien, pero sería bueno tener alguna forma de hacer que funcione también en modo de desarrollo.
Remix purga la memoria caché require
en cada solicitud en desarrollo para admitir <LiveReload/>
. Para asegurarse de que su caché sobreviva a estas purgas, debe asignarlo al objeto global
.
Aquí tienes un ejemplo del Tutorial de Chistes
import { PrismaClient } from "@prisma/client"; let db: PrismaClient; declare global { var __db: PrismaClient | undefined; } // this is needed because in development we don't want to restart // the server with every change, but we want to make sure we don't // create a new connection to the DB with every change either. if (process.env.NODE_ENV === "production") { db = new PrismaClient(); } else { if (!global.__db) { global.__db = new PrismaClient(); } db = global.__db; } export { db };
https://remix.run/docs/en/v1/tutorials/jokes#connect-to-the-database