Skip to content
Prev 6313 / 15379 Next

[R-es] ¿Alguna explicación para este fenómeno? (Relativo al uso de memoria)

Hola, ¿qué tal?

Al final he descubierto el motivo del problema. Cierto que esperaba
cierto nivel de _overhead_, pero nunca tantísimo. Por mucho _overhead_
que haya, no se pasa de 7MB a 5GB.

El problema era que (a pesar de mi opción stringsAsFactors = F) los
niveles de los factores se copiaban íntegros en cada una de las
columnas de tipo factor de cada una de las tablas resultantes. Aunque
no se usasen.

He convertido los factores a caracter, he vuelto a trocear el df
resultante y el resultado ha sido:
33052680 bytes
3813944 bytes

Es decir, con _overhead_ el tamaño del objeto resultante ha crecido en
un orden de magnitud (asumible), no en tres o cuatro (no asumible).

¿Seré yo el único al que los dichosos factores le han hecho perder
horas y horas de trabajo?

Salud,

Carlos J. Gil Bellosta
http://www.datanalytics.com


El día 13 de junio de 2013 20:54, Marcuzzi, Javier Rubén
<javier.ruben.marcuzzi en gmail.com> escribió: