Skip to content

[R-es] Cantidad de datos

2 messages · Kjetil Halvorsen, Julio Alejandro Di Rienzo

#
Hola!

2009/8/7 Manuel Bonilla <napso00 en gmail.com>:
Seguramente incluye overhead durante la lectura, que puede ser grande.
Si usas read.table,
puedes tratar de leer los datos directamente con scan(), que usa menos
memoria. Si usas windows, la utilización de la memoria no es óptimo,
en este caso puede ayudar cambiar a linux!
Otras ideas: lee
CRAN Task View: High Performance and Parallel Computing, y
partucularmente los paquetes (CRAN)  biglm que puede estimar modelos
lm() y glm() con datos no en memoria, leyendo los datos por partes., y
bigmemory que también parece interesante.

Otra idea: Con preguntas similares en R-help, Brian Ripley multiples
veces ha comentado
que con conjuntos de datos de este tamaño no se puede esperar
homogeneidad. Seguramente
existe multiples subgrupos dentro de los datos, que se puede analizar
por separado, y despues
juntar los analisis, talvez como un "meta-analisis". para este puede
ayudar representar los datos
usando una base de datos, R tiene múltiples paquetes que hace interfaz
a varios bases de datos.

kjetil