Office - Word, Excel und Co. 9.702 Themen, 40.802 Beiträge

Ressourcenverbrauch in Excel und OOcalc optimieren

Olaf19 / 56 Antworten / Flachansicht Nickles

Hallo zusammen!

Excel und OOcalc hängen sich bei mir regelmäßig auf, wenn Datenmenge und Komplexität ein gewisses Maß überschritten haben. Ich frage mich, ob man dem durch eine cleverere "Ressourcenverteilung" nicht entgegenwirken kann – was immer das sein mag...

Die Ausgangssituation: eine Tabellenkalkulationsdatei mit ca. 90.000 Zeilen und mehreren 100 Spalten, Tendenz leider steigend. Jede Zelle, mit Ausnahme derer in Spalte A und Zeile 1 enthält eine, wenn auch relativ einfach gestrickte, kurze Formel. So sehen die Fehler aus:

...und kurz darauf:

Das Einfrieren geschieht typischerweise beim Abwärtskopieren von Formeln oder beim Versuch, bestimmte Zeilen zu löschen, während gerade ein Filter aktiv ist. Versucht habe ich es unter folgenden Systemvoraussetzungen:

  • MacBook Pro und Mac Mini, jeweils mit 2,6 GHz-Prozessor, 4 Kerne mit Hyperthreading und 16 GB RAM, OpenOffice Calc 4.1 und MS Office Mac 2011,

  • Windows PC mit 2 GHz Core i5 und 4 GB RAM, Microsoft Office 2010

Obwohl der Windows PC schwächer ausgestattet ist als meine aktuellen Macs, habe ich damit noch relativ die besten Ergebnisse erzielt. Anscheinend ist MS Office für Windows deutlich robuster als die Mac-Version (die mir eh nicht gefällt) und als Open Office.

Übrigens, früher auf älteren Macs und meinem alten Windows-PC mit damaligen OO- und MS-Office-Versionen habe ich die gleichen Erfahrungen gemacht, zu deutsch: die neuen Geräte funktionieren nicht besser.

Daher nun zu meiner Kernfrage: Sind Tabellenkalkulationen generell nicht für solche Datenmassen konstruiert, oder kann man die Einfrier-Probleme irgendwie lösen? 16 GB Arbeitsspeicher sind ja nun wirklich nicht wenig, und eine 4-Kerner mit Hyperthreading sollte einige PS auf die Straße bringen.

Was würdet ihr tun?

THX
Olaf

"Das sind Leute, die von Tuten und Ahnung keine Blasen haben" (ein Reporter auf die Frage nach der politischen Bildung des typischen Anhangs von Donald Trump)
bei Antwort benachrichtigen
mawe2 neanderix „Genau das. Deine Angaben zur Zeilen-/Spaltenzahl lassen mich ...“
Optionen
Sind Tabellenkalkulationen generell nicht für solche Datenmassen konstruiert,
Genau das.

Dann fragt man sich aber, wieso z.B. die Zeilenzahl bei xlsx > 1 Mio beträgt, während es bei xls noch 65536 waren? Wieso hat man die Dimensionen der Datenblätter damals (2007) so großzügig erweitert, wenn man dieses Potenzial dann letztendlich überhaupt nicht nutzen kann?

Ob Olafs Problem wirklich ein echtes Datenbankproblem ist, möchte ich zumindest anzweifeln.

Bei Datenbanken kommt es auf die Beziehungen zwischen den Tabellen an, Inhalte werden über Schlüsselfelder abgebildet und referenzielle Integrität sorgt für eine Stabilität in den logischen Verbindungen.

Was davon ist bei Olafs Problem nötig?

Gruß, mawe2

bei Antwort benachrichtigen
Siehe auch hier: ... Olaf19