028
11.09.2006, 13:35 Uhr
flappinski
|
@virtual: Vielen Dank, das ist ja sehr ausführlich, ich werde mich mal an die Ausarbeitung Deiner Vorschläge machen. Nur soviel zur Vorinfo: Der Abbruch scheint zwar immer mit diesen beiden Funktionen zusmammenzuhängen, aber tritt nach unterschiedlich weitem Programmdruchlauf auf. Der Unterschied ist zwar minimal (zwischen 180000 und 190000 besrbeiteten Zeilen, aber spürbar, und zwar bei haargenau gleichem Datensatz, und ich habe keinerlei parallel laufende Prozesse laufen. Gibt es denn noch irgendwelche Limits, die ich bei der Programmausführung habe? Ausgabe von ulimit -a:
core file size (blocks, -c) 0 data seg size (kbytes, -d) unlimited file size (blocks, -f) unlimited max locked memory (kbytes, -l) 32 max memory size (kbytes, -m) unlimited open files (-n) 1024 pipe size (512 bytes, -p) 8 stack size (kbytes, -s) unlimited cpu time (seconds, -t) unlimited max user processes (-u) 262144 virtual memory (kbytes, -v) unlimited
2) Die datei in stream_to_file_app ist tatsächlich riesig (bis zu 5 GB). Aber gerade deshlab schreibe ich sie sequenziell, versuche also, die Information NICHT im Speicher zu behalten. Was macht denn die Dateigrösse so problematisch? Naja, ich berichte, wenn ich die anderen Sachen umgesetzt habe, danke, Stephan
p.s. auf jeden Fall schon mal vielen Dank, dass ich endlich verstanden habe, warum so viele immer mit const übergeben..... (ich dachte immer, solange ich nicht die Variable verändere, ist das egal) Dieser Post wurde am 11.09.2006 um 13:38 Uhr von flappinski editiert. |