Problemas :
Estoy haciendo una búsqueda de datos de un sitio web que contiene miles de archivos .json , ahora estoy leyendo esos .json con un bucle directo para llamadas $.getJSON . Funciona bien dentro de ~3000 archivos, pero cuando el tamaño sube a 5000 o incluso a 20000 (número máximo que tengo que leer). El navegador Chrome se vuelve súper lento u obtiene ERR_INSUFFICIENT_RESOURCE .
Lo que estoy haciendo ahora mismo:
example.org/1.json a 20000.json.json en arrayone[] , procese la matriz de datos capturadosarrayone[] , hago otro $.getJSON en example.org/someplace/1.json a 20000.json.json en arraytwo[]arrayone[] & arraytwo[] Entonces, dado que tengo que leer 20000 archivos, en realidad es una llamada de 40000 $.getJSON .
Busca ayuda:
¿Existe una forma más inteligente de leer múltiples .json con un mejor rendimiento? Espero que quede claro, gracias de antemano!