amiga-news ENGLISH VERSION
.
Links| Forum| Kommentare| News melden
.
Chat| Umfragen| Newsticker| Archiv
.

amiga-news.de Forum > Andere Systeme > kann mann Festplatten leiser tunen? [ - Suche - Neue Beiträge - Registrieren - Login - ]

1 2 3 -4- 5 6 7 [ - Beitrag schreiben - ]

09.12.2008, 22:54 Uhr

Flinx
Posts: 1073
Nutzer
Zitat:
Original von Maja:
In deiner Logik scheinen die restlichen Bauteile einer Festplatte komplett zu fehlen.


Das habe ich noch übersehen.
In Deiner Logik fehlen sie, nicht in meiner. Genau die restlichen Bauteile der Platte sind doch der Grund, daß der Unterschied zwischen magnetischem und Halbleiterspeicher unerheblich ist, da man diese Grenze beim Beschreiben nicht erreichen wird. Denn es gibt andere Grenzen, die vorher wirksam werden, und deshalb kannst Du die magnetische Platte in der Praxis auch nicht öfter beschreiben als die SSD.

[ - Antworten - Zitieren - Direktlink - ]

09.12.2008, 23:22 Uhr

Maja
Posts: 15429
Nutzer
Zitat:
Original von Flinx:
Da gibt es einen festen Zusammenhang zu den an die Platte gesendeten Datenmengen.

Wie bereits erwähnt 360 GB/h in Dateien von 4 MB oder 40 MB macht schonmal einen Unterschied in der Anzahl der Schreibzugriffe pro Stunde.
Zitat:
Ich habe Dir vorgerechnet, wie lange es dauert, die nötige Anzahl an Schreibvorgängen zum Kaputtmachen der ersten Zellen zu liefern, wenn Du ununterbrochen Schreibzugriffe auf die Platte machst.
Du hast mir nur beschrieben, wie lange es dauert bist die ersten Zellen defekt sind, wenn ständig 360 GB/h auf ein 128 GB Medium geschrieben werden. Damit weiß ich immer noch nicht, wie viele Zugriffe dabei zusammen kommen, denn ich weiß nicht, wie groß die Dateien sind, die dabei geschrieben/überschrieben werden.
Zitat:
Wie viele das dann in der Realität sind, kannst Du allenfalls abschätzen und es hängt sehr von der Art der Benutzung des Laufwerks ab. Aber auf jeden Fall sind es weniger als bei pausenlosem Schreiben.
Wie kommt man von "kann man nur schätzen" auf "auf jeden Fall"?
Zitat:
Wenn aber die Ausfallzeiten im Serverschrank nur um die Hälfte sinken, lohnt sich der Mehrpreis allemal, der geringere Stromverbrauch ist da nur ein angenehmer Nebeneffekt.
Nicht solange man 8 SSD braucht, um eine Festplatte zu ersetzen.
Zitat:
Auf dem Foto oben siehst Du, wie schnell einem auch ein RAID-Verbund um die Ohren fliegen kann, wenn zwei Platten im Abstand von einer Stunde den Geist aufgeben. Alles deutet darauf hin, daß einem das mit SSDs nicht mehr so oft passieren wird.
Dass herkömmliche Technik unerwartet versagen kann, ist für sich allein kein Vorteil neuer Technik.

Zitat:
Genau die restlichen Bauteile der Platte sind doch der Grund, daß der Unterschied zwischen magnetischem und Halbleiterspeicher unerheblich ist, da man diese Grenze beim Beschreiben nicht erreichen wird. Denn es gibt andere Grenzen, die vorher wirksam werden,

Es gibt bei der HDD im Kontext kein vorher, weil es keine Begrenzung der Zyklen gibt. Die Begrenzung der möglichen Schreibzugriffe ist bei SSD gegenüber HDD ein zusätzlicher Faktor hinsichtlich der Lebenserwartung des Laufwerkes. Mehr habe ich nie behauptet. Ich habe auch nie behauptet, HDDs würden ewig halten, denn die begrenzte Haltbarkeit der restlichen Bauteile ist mir durchaus bekannt. Würdest Du mal versuchen, meiner Argumentation zu folgen und meine Beträge aufmerksam lesen, dann würde dir das auch klar werden.

Nachdem Du nun aber bereits erklärt hast, andere Bauteile von SSD würden lange vor dem Erreichen der maximal möglichen Schreibzugriffe versagen, stellte ich mir umso mehr die Frage, was einen bei SSD noch vom Hocker reißen soll. Denn das Thema, unter welchen Umständen nach welcher Zeit das Maximum an Schreibzugriffen erreicht sein wird, bleibt für die Praxis bisher eine Unbekannte. Dazu jetzt noch die Unbekannte der Lebsndauer anderer Bauteile und die Aussage von Herstellern über eine Lebenserwartung von 3 bis 5 Jahren, was alles andere als das 1,5-Fache der Lebenserwartung von Festplatten impliziert. Sorry, aber das mutet mir immer mehr wie die Intention an, unbedingt von der HDD weg zu wollen.

Nicht Du, sondern die Hersteller. Könnte an den inzwischen schlechten Margen für HDD liegen.

Wie dem auch sei. in ein paar Jahren werden wir mehr wissen. Leben wir weiter, dann werden wir sehen. Es geht mir nicht um recht haben. Ich bin nur skeptisch.




[ Dieser Beitrag wurde von Maja am 09.12.2008 um 23:23 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 07:37 Uhr

Flinx
Posts: 1073
Nutzer
Zitat:
Original von Maja:
Wie bereits erwähnt 360 GB/h in Dateien von 4 MB oder 40 MB macht schonmal einen Unterschied in der Anzahl der Schreibzugriffe pro Stunde.

Hmm, im ersten Fall sind es geringfügig weniger. Und?
Zitat:
Du hast mir nur beschrieben, wie lange es dauert bist die ersten Zellen defekt sind, wenn ständig 360 GB/h auf ein 128 GB Medium geschrieben werden. Damit weiß ich immer noch nicht, wie viele Zugriffe dabei zusammen kommen, denn ich weiß nicht, wie groß die Dateien sind, die dabei geschrieben/überschrieben werden.
Du hättest ruhig mal versuchen können, die Frage zu beantworten, was Du Dir unter einem Schreibvorgang vorstellst. Mit der Größe der Dateien hat das nämlich nicht allzuviel zu tun.
Zitat:
Wie kommt man von "kann man nur schätzen" auf "auf jeden Fall"?
Weil ich Dir das Dauerschreiben vorgerechnet habe und in der Praxis mit unbedingter Sicherheit weniger Schreibvorgänge stattfinden werden als kontinuierliches Schreiben (wenn der Besitzer des Gerätes nicht gerade den Verstand verloren hat)?
Zitat:
Nicht solange man 8 SSD braucht, um eine Festplatte zu ersetzen.
Es gibt durchaus Anwendungen, wo man für das Betriebssystem nicht viel Platz braucht: Linux, Oracle, Datensicherungsprogramm, und der Rest läuft über eine Glasfaser aus dem (abgebildeten) Storage-Array, wo die Datenbank untergebracht ist. Da lassen sich die zwei oder vier im Server eingebauten 2,5"-Platten gut durch SSDs ersetzen.
Zitat:
Es gibt bei der HDD im Kontext kein vorher, weil es keine Begrenzung der Zyklen gibt. Die Begrenzung der möglichen Schreibzugriffe ist bei SSD gegenüber HDD ein zusätzlicher Faktor hinsichtlich der Lebenserwartung des Laufwerkes. Mehr habe ich nie behauptet.
Naja, das ist aber gerade das Argument, das ich zu entkräften versuche. Es ist - ausgehend vom jetzigen Kenntnisstand - überhaupt kein relevanter Faktor.
Zitat:
Wie dem auch sei. in ein paar Jahren werden wir mehr wissen. Leben wir weiter, dann werden wir sehen. Es geht mir nicht um recht haben. Ich bin nur skeptisch.
Mal sehen, ob wir uns in sechs Jahren mal wieder in einem Forum treffen, dann können wir das ja mit Praxisdaten auswerten...


[ Dieser Beitrag wurde von Flinx am 10.12.2008 um 07:40 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 07:59 Uhr

rbn
Posts: 2001
Nutzer
Flinx, du redest doch von einem gänzlich verschiedenen Einsatzgebiet als Maja. Was du schreibst ist schön und gut, aber für mich selbst vollkommen uninteressant.

Mal als Beispiel (Da du ja nicht anzuerkennen scheinst, dass beim Homeuser ständig die Platte beansprucht wird): Hast du mal allein an Torrent gedacht?

Nehmen wir mal an ich habe hier 150 Torrents an hab (100 leechen, 50 seeden). Dann wird während dessen Internetradio gestreamt, oder TV gestreamt, oder Video von Platte geschaut, oder MP3 von der Platte gehört.

Natürlich wird auch noch gesurft, Email abgerufen, und dann arbeitet man ja auch tatsächlich auch noch mit dem Rechner, werden also leicht mal pro Stunde mehrmals mehrere Hundert MB große PSD Dateien gesichert und geladen.

Dann müssen fertige Torrents auch noch entpackt, kopiert werden.

Und der übliche Kram der nebenbei anfällt.

Ich behaupte, das allein mit den Torrents die Schreibtests mit (anscheinend großen Dateien) im Praxisbetrieb ad absurdum geführt werden.

Und wenn ich mich in meinem Bekanntenkreis umschaue ist das eine ziemlich typische Computerbenutzung, die ich hier beschrieben habe. (Ich frage mich immer noch, wie man mit 10 GB auf dem EeePC auskommt, wahrscheinlich weil man mit der Kiste eh nix vernünftiges machen kann.).

rbn

--
Marketing.
Modern.
Mittelständisch.

http://www.rhein-sieg-design.de

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 08:36 Uhr

Flinx
Posts: 1073
Nutzer
Zitat:
Original von rbn:
Mal als Beispiel (Da du ja nicht anzuerkennen scheinst, dass beim Homeuser ständig die Platte beansprucht wird): Hast du mal allein an Torrent gedacht?


Ich werde mich hüten, schon heutzutage einem Privatanwender eine SSD einzureden. Aber so schlimm ist das mit Torrent auch nicht, letztendlich kommt es nur auf die Gesamtzahl Schreibvorgänge je Bereich an, die erreicht werden muß, und da Du die runtergeladenen Filme (oder nein, das sind sicher alles Linux-Installations-ISOs) ja auch noch ansehen und wieder per Torrent weiterverteilen willst, gibt es ja auch genügend Lesevorgänge, die die Rechnung zugunsten der Lebensdauer verbessern. Sicherlich ist ständiger Torrent-Download eine Herausforderung für die Logik des Wear-Levelling, aber das sollte auch bei reinen Flash-SSDs schon kein Problem mehr sein, und wenn solche Laufwerke mal als Massenware beim Heimanwender ankommen, dann werden sie wahrscheinlich sowieso einen SDRAM-Puffer haben, der die Zugriffe abfedert.

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 11:21 Uhr

MaikG
Posts: 5172
Nutzer
Windows auf Netzwerkserver stellen, dann ist der Festplattencache
erhöht. Beim Amiga brauch ich nicht zu sagen wie das geht.

Habe gestern ein Torrent runtergeladen die LED blinkt höchtens
alle 2 sek(Win2k).

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 12:44 Uhr

DrNOP
Posts: 4118
Nutzer
Zitat:
Original von MaikG:
Habe gestern ein Torrent runtergeladen die LED blinkt höchtens
alle 2 sek(Win2k).

Was kein Wunder ist wenn du halt 'ne langsame Verbindung hast wo die Bits einzeln reintröpfeln...
--
Signaturen mit mehr als zwei Zeilen gehen mir auf den Wecker

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 17:43 Uhr

Maja
Posts: 15429
Nutzer
Zitat:
Original von Flinx:
Zitat:
Original von Maja:
Wie bereits erwähnt 360 GB/h in Dateien von 4 MB oder 40 MB macht schonmal einen Unterschied in der Anzahl der Schreibzugriffe pro Stunde.
Zitat:
Hmm, im ersten Fall sind es geringfügig weniger. Und?


Im ersten Fall sind es rund 82.000/h mehr. Ein Zehntel davon wäre gerinfügig.
Zitat:
Du hättest ruhig mal versuchen können, die Frage zu beantworten, was Du Dir unter einem Schreibvorgang vorstellst. Mit der Größe der Dateien hat das nämlich nicht allzuviel zu tun.
Wie praxisnah ist die Annahme, 360 GB/h würden ununterbrochen jeweils in einem einzigen Zyklus geschrieben, wenn über das tatsächliche Aufkommen an Zyklen/h nur vermutet werden kann?
Zitat:
Weil ich Dir das Dauerschreiben vorgerechnet habe und in der Praxis mit unbedingter Sicherheit weniger Schreibvorgänge stattfinden werden als kontinuierliches Schreiben (wenn der Besitzer des Gerätes nicht gerade den Verstand verloren hat)?
Woran wird diese unbedingte Sicherheit fest gemacht, während zugegeben wird, dass über das tatsächliche Aufkommen an Zyklen/h nur Vermutungen angestellt werden können?
Zitat:
Nicht solange man 8 SSD braucht, um eine Festplatte zu ersetzen.
Zitat:
Es gibt durchaus Anwendungen, wo man für das Betriebssystem nicht viel Platz braucht: Linux, Oracle, Datensicherungsprogramm, und der Rest läuft über eine Glasfaser aus dem (abgebildeten) Storage-Array, wo die Datenbank untergebracht ist. Da lassen sich die zwei oder vier im Server eingebauten 2,5"-Platten gut durch SSDs ersetzen.

Die Vermittlungsversuche muten immer skuriler an. Ein Betriebssystem ist kein Selbstzweck und das Betriebssystem allein macht höchstwahrscheinlich überall den geringsten Anteil am gesamten Datenaufkommen in einem System aus. Selbst dann, wenn das Betriebssystem Windows Vista heißt, welches rund ein Siebtel einer 128 GB SSD belegen würde. Festplatten sind nicht auf 1 TB gewachsen, weil an Platz für das Betriebssystem mangeln würde, sondern weil Anwendungsmöglichkeiten und Nutzungsverhalten immer mehr Platz forderten.
Zitat:
Es gibt bei der HDD im Kontext kein vorher, weil es keine Begrenzung der Zyklen gibt. Die Begrenzung der möglichen Schreibzugriffe ist bei SSD gegenüber HDD ein zusätzlicher Faktor hinsichtlich der Lebenserwartung des Laufwerkes. Mehr habe ich nie behauptet.
Zitat:
Naja, das ist aber gerade das Argument, das ich zu entkräften versuche. Es ist - ausgehend vom jetzigen Kenntnisstand - überhaupt kein relevanter Faktor.

Ein Kenntnisstand, der - so scheint es - hauptsächlich von Mutmaßungen über reale Gegebenheiten ausgeht. Das überzeugt mich nicht.
Zitat:
Mal sehen, ob wir uns in sechs Jahren mal wieder in einem Forum treffen, dann können wir das ja mit Praxisdaten auswerten...
Entweder SSD verfügt innerhalb der nächsten 5 bis 8 Jahre in der Praxis zumindest über dasselbe Preis-/Leistungsverhältnis (Preis pro MB, reale - nicht vermutete - Lebensdauer) wie heutige HDDs oder das Thema ist für den Markt gegessen.

Ich lasse mich gern eines Besseren belehren. Das wird jedoch nur mit entsprechend positiven Ergebnissen aus dem Langzeiteinsatz in der Praxis gelingen, in unterschiedlichen Einsatzgebieten.

Was ich momentan sehe ist ein verhältnismäßig hoher Aufwand, ein vorhandenes Problem möglichst gering zu halten und dabei als Innovation zu vermitteln, was vom Prinzip Workaround ist. Die Anstrengungen möglichst viele Schreibzugriffe versprechen zu können, sind enorm. Was sich natürlich auch im Preis bemerkbar macht, denn Forschung und Entwicklung sind teuer. So nüchtern sehe ich das momentan.


[ Dieser Beitrag wurde von Maja am 10.12.2008 um 17:45 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 18:00 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von rbn:
Nehmen wir mal an ich habe hier 150 Torrents an hab (100 leechen, 50 seeden). Dann wird während dessen Internetradio gestreamt, oder TV gestreamt, oder Video von Platte geschaut, oder MP3 von der Platte gehört.

Natürlich wird auch noch gesurft, Email abgerufen, und dann arbeitet man ja auch tatsächlich auch noch mit dem Rechner, werden also leicht mal pro Stunde mehrmals mehrere Hundert MB große PSD Dateien gesichert und geladen.

Dann wäre Deine SSD, so Du eine dazu einsetzen würdest, weit davon entfernt, wirklich belastet zu werden. Das meiste, was Du da aufzählst, bedeutet ja, vom Medium zu lesen.
Zitat:
Ich behaupte, das allein mit den Torrents die Schreibtests mit (anscheinend großen Dateien) im Praxisbetrieb ad absurdum geführt werden.
Wieso?!
Weil Du die Schreibvorgänge immer wieder für Lesevorgänge unterbrichst, soll die Belastung höher sein, als im Dauerschreibtest?! Die Logik musst Du schon etwas genauer erklären.

Abgesehen davon sind Torrents mit halbwegs aktueller Software genauso effizient oder sogar effizienter als normale Downloads. Während sich immer mehr Webserver aufgrund ihrer Content Management Systeme zu fein sind, die zu erwartende Dateigröße im Http-Header zu übergeben, ist diese Information bei Torrents natürlich Pflicht, wenn man die Datei in Chunks für parallele Downloads aufteilen will.
Dazu werden Sparse-Files angelegt, also Dateien, die im Dateisystem bereits mit ihrere vollen Größe reserviert sind, deren Blöcke aber nicht beschrieben werden, solange sie leer sind. Das heißt, die Größenangabe der Datei muss nicht ständig aktualisiert werden und auch das befüllen mit 0 bytes fällt weg. Unterm Strich weniger Schreibvorgänge als beim sequentiellen Schreiben mit unbekannter Länge.

mfg

--
Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 18:07 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von Maja:
Im ersten Fall sind es rund 82.000/h mehr. Ein Zehntel davon wäre gerinfügig.
...
Wie praxisnah ist die Annahme, 360 GB/h würden ununterbrochen jeweils in einem einzigen Zyklus geschrieben, wenn über das tatsächliche Aufkommen an Zyklen/h nur vermutet werden kann?

Ach Maja, es ist immer noch wie am Anfang des Thread. Du hast keine Ahnung von dem was Du schreibst, und merkst nicht mal, was für einen Unsinn Du fabrizierst.

Du wurdest mehrfach gefragt, was Du unter einem Schreibzyklus verstehst, weil sich immer mehr herauskristallisiert hat, das es etwas absurd falsches sein muss.

Die Rechnung, die Du dort oben aufstellst, unterstreicht das nur noch mehr.

Nur mal als Denkanstoß: eine Speicherzelle ist immer gleich groß, egal wie groß die Datei ist, die Du auf einem Medium schreibst. Die Speicherzelle hat eine begrenzte Anzahl Schreibzyklen, nicht die Datei.

Alles andere solltest Du vielleicht mal selber versuchen, herauszufinden. Du kannst es natürlich weiterhin ignorieren, und Dich mit absurden Aussagen wie der da oben lächerlich machen.

mfg

--
Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 18:25 Uhr

Flinx
Posts: 1073
Nutzer
Zitat:
Original von Maja:
Im ersten Fall sind es rund 82.000/h mehr.

Das solltest Du genauer erläutern. Und beantworte jetzt bitte die Frage, die ich Dir zum dritten Mal stelle: Was ist (für Dich) ein Schreibzugriff? Und wieso sollte das Schreiben einer großen Datei Deiner Meinung nach mit weniger Schreibvorgängen pro Zeiteinheit auskommen als das Schreiben vieler kleiner?
Zitat:
Wie praxisnah ist die Annahme, 360 GB/h würden ununterbrochen jeweils in einem einzigen Zyklus geschrieben, wenn über das tatsächliche Aufkommen an Zyklen/h nur vermutet werden kann?
Verstehe ich nicht. Was für Zyklen pro Stunde? Womit willst Du eine stärkere Belastung der einzelnen Speicherzelle herbeidiskutieren als sie beim Dauerschreiben entsteht?
Zitat:
Die Vermittlungsversuche muten immer skuriler an.
Wenn Du mal mitdenken würdest, hättest Du verstanden, daß ich Dir ein Beispiel genannt habe, wo die SSD auch beim heutigen Preis-/Leistungsverhältnis vorteilhaft einzusetzen geht, selbst wenn die von Dir postulierten Unsicherheiten über die Lebensdauer begründet wären.

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 19:24 Uhr

Maja
Posts: 15429
Nutzer
@Holger:

Hat deine Mutter dir keine Umgangsformen beigebracht? Wenn Du es irgendwann mal auf die Reihe bekommen solltest, nicht den unzivilisierten Vorzeigeproll raushängen zu lassen, kommen wir vielleicht ins Gespräch.

Zitat:
Original von Flinx:
Und wieso sollte das Schreiben einer großen Datei Deiner Meinung nach mit weniger Schreibvorgängen pro Zeiteinheit auskommen als das Schreiben vieler kleiner?

Beispiel: 50 Dateien pro Zelle = 50 Schreibzyklen. Falls das ein Irrtum sein sollte, kläre mich bitte auf und sage mir, wie sich Schreibzyklus bezogen auf eine Speicherzelle definiert.


[ Dieser Beitrag wurde von Maja am 10.12.2008 um 19:25 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 19:34 Uhr

Flinx
Posts: 1073
Nutzer
@Maja:
Uff, das wird ja anstrengend. Ich antworte morgen früh...

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 19:59 Uhr

Maja
Posts: 15429
Nutzer
@Flinx:

Nicht unbedingt. Wenn z. B. 1 Schreibzyklus = unabhängig von der Anzahl der Dateien Zelle 1x komplett vollschreiben, bedeutet, dann reicht ein Satz. Ich bin allen Unkenrufen zum Trotz nicht völlig begriffsstutzig.

[ - Antworten - Zitieren - Direktlink - ]

10.12.2008, 22:39 Uhr

Bogomil76
Posts: 2800
Nutzer
Oh, Festplatten sind nicht nur deshalb so "riesig" geworden, weil mans braucht bzw. die Anwender es wirklich benötigen, sondern eher aus dem Grund wieso Hunde sich auch selbst lecken. Weil man es kann ;)

Also die meisten wollen nur ne riesige Platte, brauchen sie aber gar nicht. Und ich habe viele Kunden, weit über 500 (keine Angeberei), und kenne keinen der wirklich 1 TB vollkriegt. Bis auf 2 Agenturen, aber die haben auch 50 Mitarbeiter, auf den Einzelnen runtergerechnet ist das dann geringer.

Aber, nur weil man es nicht braucht, heisst ja nicht, nicht weiter zu entwickeln...

[ - Antworten - Zitieren - Direktlink - ]

11.12.2008, 00:11 Uhr

Maja
Posts: 15429
Nutzer
@Bogomil76:

Der Hund weiß zwar nicht, warum er sich leckt, dem Zweck läuft das aber nicht entgegen. Eine Festplatte weiß auch nicht, warum sie Daten speichert. Mit Festplatten ist es wie mit Bankkonten. Je größer das Guthaben, desto besser das Gefühl. Mit ein 1 TB ist Unkenntnis über den Sinngehalt von "Papierkorb leeren" auch kein Problem mehr. Nur noch installieren, nichts mehr deinstallieren. Nur noch löschen, nicht leeren. Man kriegt sie voll, irgendwann. Bis dahin haben Supporter etwas mehr Ruhe. ;)

Und jetzt mal Hand aufs Herz. 128 GB für 500 Euro und mehr ist, na ja, grenzwertig. Bei 4x mehr für weniger als ein Fünftel des Preises fällt die Entscheidung nicht schwer. Bei dem Preis-/Leistungsverhältnis spielt die Kapazität brauchen oder nicht eine untergeordnete Rolle. Weshalb sich auch asiatische SUVs mit Extras satt zum Preis eines Golfs mit Grundaustattung so großer Beliebtheit erfreuen dürfen, bzw. bisher durften.


[ - Antworten - Zitieren - Direktlink - ]

11.12.2008, 08:58 Uhr

rbn
Posts: 2001
Nutzer
@Holger:

Wenn man die Option im Torrent Programm seiner Wahl eingestellt hat, dann stimmt das.

Ich weiß ja nicht, was du bei Torrents verkehrt machst, aber wenn das so wie von mir beschrieben (bezogen auf die Menge - und bei hauptsächlich Torrents mit gutem bis sehr gutem Health) stattfindet, dann schreibt die Festplatte ununterbrochen.

Weiterhin hast du die von mir aufgezählten parallel laufenden Beschäftigungen des Rechners unterschlagen.

Ich wüsste gerne, warum meine Nutzungsbeschreibung bedeutet, dass meißtens gelesen wird. Ich behaupte, dass es sich besten Falls die Waage hält.

rbn

--
Marketing.
Modern.
Mittelständisch.

http://www.rhein-sieg-design.de

[ - Antworten - Zitieren - Direktlink - ]

11.12.2008, 10:00 Uhr

schluckebier
Posts: 1059
Nutzer
Zitat:
Original von Maja:
Beispiel: 50 Dateien pro Zelle = 50 Schreibzyklen. Falls das ein Irrtum sein sollte, kläre mich bitte auf und sage mir, wie sich Schreibzyklus bezogen auf eine Speicherzelle definiert.


Sag mal, was glaubst du eigentlich, wie groß so eine Zelle ist?

Irgendwie verstehe ich die Aufregung sowieso nicht, denn soweit ich weiß, sind ausgelutschte Zellen lediglich nicht mehr beschreibbar, können aber durchaus noch gelesen werden?

[ - Antworten - Zitieren - Direktlink - ]

11.12.2008, 10:05 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von rbn:
Ich weiß ja nicht, was du bei Torrents verkehrt machst, aber wenn das so wie von mir beschrieben (bezogen auf die Menge - und bei hauptsächlich Torrents mit gutem bis sehr gutem Health) stattfindet, dann schreibt die Festplatte ununterbrochen.

Weiterhin hast du die von mir aufgezählten parallel laufenden Beschäftigungen des Rechners unterschlagen.

Versuch doch mal logisch zu denken: eine Festplatte kann nicht mehrere Dinge gleichzeitig tun. Entweder sie schreibt Deinen torrent, oder sie schreibt etwas anderes oder sie liest, oder sie dreht Däumchen. Je mehr parallele Anwendungen Du ausführst, desto mehr entfernst Du Dich von einem dauerhaften Schreiben.

Dass Deine Festplatte ununterbrochen schreibt, obwohl Du massenhaft Dateien liest, kann gar nicht stimmen. Eine leuchtende LED bedeutet nicht, dass geschrieben wird.
Zitat:
Ich wüsste gerne, warum meine Nutzungsbeschreibung bedeutet, dass meißtens gelesen wird. Ich behaupte, dass es sich besten Falls die Waage hält.
Auch dann bist Du weit davon entfernt, einer Dauerbelastung durch Schreiben zu erzeugen.
Außerdem belastest Du die Festplatte so minimal, wie nur möglich: jede Anwendung schreibt in einen anderen Bereich. Da bräuchte man nicht einmal Wear-Levelling, das alles erzeugt durchschnittlich weniger als einen Schreibzugriff pro Zelle. Ja, wenn der durchschnittliche torrent-User dazu übergehen würde, seinen Sammlerinstinkt zu unterdrücken und auch mal was zu löschen, könnten mehrere Schreibzugriffe pro Zelle entstehen. Aber auch nicht mehr als bei jedem anderen Nutzungsschema.

mfg

--
Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

11.12.2008, 10:13 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von Maja:
Falls das ein Irrtum sein sollte, kläre mich bitte auf und sage mir, wie sich Schreibzyklus bezogen auf eine Speicherzelle definiert.

Versuch es doch mal selber rauszufinden, statt so zu tun, als ob Du die Weisheit mit Löffeln gefressen hast.
Dass Du überall um jeden Preis mitdiskutieren musst, je weniger Ahnung, desto unsachlicher, ist inzwischen hinlänglich bekannt, genauso wie Deine beliebten Ausflüge in die Metaebene, wenn Du merkst, dass Du falsch liegst.
Wenn ausgerechnet Du andere als unzivilisiert oder als Proll bezeichnest, beeindruckt das hier niemanden.

[ - Antworten - Zitieren - Direktlink - ]

11.12.2008, 11:00 Uhr

MaikG
Posts: 5172
Nutzer
Zitat:
Original von schluckebier:
Zitat:
Original von Maja:
Beispiel: 50 Dateien pro Zelle = 50 Schreibzyklen. Falls das ein Irrtum sein sollte, kläre mich bitte auf und sage mir, wie sich Schreibzyklus bezogen auf eine Speicherzelle definiert.


Sag mal, was glaubst du eigentlich, wie groß so eine Zelle ist?

Irgendwie verstehe ich die Aufregung sowieso nicht, denn soweit ich weiß, sind ausgelutschte Zellen lediglich nicht mehr beschreibbar, können aber durchaus noch gelesen werden?


Zwar ist 1 Zelle im Prinzip 1 Bit aber, da muss ich Maja
im gewissen sinne Recht geben, in SSDs können die nicht einzeln
Adressiert werden.

Zitat aus wiki:
>Was diese Laufwerke beim verteilten Zugriff so langsam schreiben >lässt, ist ihre interne Organisation. Sie sind in Blöcke unterteilt. >Wird auch nur ein Byte darin geändert, muss der gesamte Block neu >geschrieben werden.

Die forderung an höherer Schreibgeschwindigkeit wird diese Art der Organisation zukunftig ändern.

[ - Antworten - Zitieren - Direktlink - ]

11.12.2008, 16:35 Uhr

Maja
Posts: 15429
Nutzer
Zitat:
Original von Holger:
Versuch es doch mal selber rauszufinden, statt so zu tun, als ob Du die Weisheit mit Löffeln gefressen hast.

Hier sind Leute, die mir den Sachverhalt sicherlich erklären können. Du scheinst nicht dazu zu gehören.
Zitat:
Dass Du überall um jeden Preis mitdiskutieren musst, je weniger Ahnung, desto unsachlicher, ist inzwischen hinlänglich bekannt, genauso wie Deine beliebten Ausflüge in die Metaebene, wenn Du merkst, dass Du falsch liegst.
Wenn ausgerechnet Du andere als unzivilisiert oder als Proll bezeichnest, beeindruckt das hier niemanden.

Brauchst Du solche Diffamierungen für dein Selbstwertgefühl oder ist das der Versuch, eigene Unzulänglichkeiten in der Sache zu verschleiern? Deine Weisheit erschöpft sich hier jedenfalls - mal wieder - in Beleidigungen.


[ Dieser Beitrag wurde von Maja am 11.12.2008 um 16:36 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

11.12.2008, 20:47 Uhr

Bjoern
Posts: 1730
Nutzer
Hab ich was auf den Augen oder machst du gerade auch nix Anderes? ?(

[ - Antworten - Zitieren - Direktlink - ]

11.12.2008, 20:53 Uhr

Maja
Posts: 15429
Nutzer
@Bjoern:

Ich spreche mit ihm nur in seiner Sprache.

[ - Antworten - Zitieren - Direktlink - ]

12.12.2008, 02:25 Uhr

Andreas_Wolf
Posts: 2980
Nutzer
Nachdem ich den weiteren Diskussionsverlauf seit meinem letzten Beitrag gerade recht amüsiert gelesen habe, möchte ich natürlich auch noch Stellung zu dem an mich gerichteten Beitrag nehmen.

@ Maja:

Wenn du meinen Beitrag nicht nur gelesen, sondern auch zu verstehen versucht hättest, hättest du instantan die richtigen Fragen gestellt, z. B. "Was ist eine Speicherzelle bei einem Flash-Medium überhaupt?"

Aber im Einzelnen:

> Wo bleiben die neuen, x86-only CPUs?

Wieso plötzlich "only"? Wieso plötzlich "neuen"? Davon war vorher bei dir keine Rede. Es ging um "x86" und "bauen".

Neu-*entwickelte* (und damit wohlgemerkt nur ein Subset von deinem "baut") x86-CPUs seit September 2008 (ich hoffe, das erfüllt dein Kriterium "neu"):

AMD:
Oktober: Opteron 2350 HE, Opteron 8350 HE
November: Opteron 237x, Opteron 238x, Opteron 837x, Opteron 838x

Intel:
September: Xeon L/E/X74xx, Celeron 450, Pentium Dual-Core E5200, Core 2 Quad Q8200, Core 2 Duo E7300
Oktober: Core 2 Duo E7400
November: Core i7-9xx

>> Die Anzahl der Zugriffe -- also 1x 100 GB oder 2x 50 GB oder
>> 4x 25 GB usw. -- ist doch egal.

> Rein hypothetisch und ziemlich praxisfern.

Nein, absolut praxisnah.

> Du hast die vielen kleinen Dateien übersehen, die täglich neu
> erstellt bzw. überschrieben werden.

Die Anzahl oder Größe der Dateien hat nichts mit den Schreibzugriffen auf die Zellen zu tun.

> Womit wir u.a. auch wieder beim Thema journalisierendes Dateisystem
> wären.

Davon hast du zwar bereits am 04.12.2008, 00:56 Uhr geschrieben, aber Sinn ergibt das im hiesigen Kontext immer noch nicht.

>> Den zweiten dieser beiden Werte *kann* aber nun mal nur der
>> potentielle Käufer wissen, sonst niemand.

> Wie viele Schreibzugriffe fallen auf deinem Rechner täglich an?

Bei mir fallen gar keine Schreibzugriffe auf SSD-Zellen an, weil ich keine SSD habe. Und die (durchschnittliche) Datenmenge, die bei mir pro Tag auf meine HDD geschrieben wird, weiß ich nicht. Ich schrieb, dass es außer dem Kunden niemand wissen *kann*, nicht, dass es jeder (oder überhaupt ein) Kunde weiß. Das ist ein Unterschied.

> Und warum versuchst Du dann, genau das aus einer so allgemein
> gefassten Herstelleraussage abzuleiten?

Was versuche ich abzuleiten? Und noch mal: Die von dir zitierte Herstelleraussage ist nicht allgemein, sondern so genau, wie es genauer nicht geht (und schon rein logisch gar nicht gehen kann).

> Immerhin gabst Du dir redlich Mühe, es möglichst positiv zu rechnen.

Ich habe lediglich Äquivalenzumformungen vorgenommen, dazu musste ich mir keine Mühe geben. Im übrigen halte ich die aus der Herstelleraussage errechneten garantierten 2300 Schreibzugriffe pro Zelle für alles andere als positiv, angesichts der mittlerweile üblichen Zahlen, die in diesem Thread -- auch von dir -- genannt wurden.

> Der Hersteller Intention, mit allgemein gefassten Aussagen...

Und zum dritten Mal: Die Aussage ist das genaue Gegenteil von allgemein.

> ...eine gewisse Sorglosigkei hinsichtliche der langfristigen
> Haltbarkeit zu implizieren, ist bei dir scheinbar gut gelungen.

Ich glaube eher, deine Fantasie geht mit dir durch. 2300 garantierte Schreibzugriffe pro Zelle implizieren mit Sicherheit *keine* "langfristige Haltbarkeit", zumindest nicht bei mir.

> Über die tatsächliche Lebensdauer des Mediums unter realen
> Nutzungsbedingungen sagt das jedoch rein gar nichts aus.

Sofern du mit "Lebensdauer" eine Zeitangabe meinst (und nicht die Angabe der möglichen Schreibzyklen), hast du recht. Das liegt aber einzig daran, dass "reale Nutzungsbedingungen" in keinster Weise definiert sind. Nur der Nutzer selbst kann seine Nutzungsbedingungen kennen, wie ich dir bereits zu erklären versuchte. Sobald der Hersteller einfach irgendwelche Nutzungsbedingungen als "reale Nutzungsbedingungen" annimmt, um eine Zeitangabe statt der Angabe der möglichen Schreibzyklen tätigen zu können, wird die Angabe automatisch subjektiv und verfälscht (= "Werbeaussage"). Auch das habe ich bereits zu erklären versucht.

> Labortests und Hochrechnungen können reale Erfahrungswerte nicht
> ersetzen.

Doch, hier schon. Wenn ein SSD-Medium x-Mal langsamer/seltener beschrieben wird, dann hält es (mindestens?) x-Mal länger.

> 10 Millionen ist ein rein hypothetischer Wert

Ist mir bekannt. Du schriebst aber, dass es "spätestens bei einem Server relativ Banane" sei, selbst *wenn* dieser Wert tatsächlich zuträfe. Darauf bezieht sich meine Bitte an dich, dieses Szenario mit diesem Wert beispielhaft vorzurechnen.

> Es müsste insfofern erst mal bewiesen werden, ob 10 Millionen
> Lösch- und Schreibzugriffe überhaupt möglich sind.

Das ist wieder eine ganz andere Frage. Mir ging es um deine Aussage, was (bzw. was nicht) wäre, *wenn* dieser Wert zuträfe.

> ...dass dem Betreiber eines Server die Tatsache, dass die Zahl der
> möglichen Lösch- und Schreibzugriffe überhaupt begrenzt ist, mehr
> interessiert als die Frage, wie hoch die Messlatte dabei tatsächlich
> liegt.

So ein Quatsch. Die Zahl der möglichen Schreibzugriffe ist für einen Server-Betreiber genauso interessant wie die MTBF einer HDD.
Und wie hier im Thread bereits erwähnt wurde, kann mit kaputter HDD-Laufwerksmechanik nicht mal mehr lesend zugegriffen werden.
...oder, um dir die Absurdität deiner Argumentation vor Augen zu führen: "...dass dem Betreiber eines Server die Tatsache, dass die Zahl der möglichen Betriebsstunden einer HDD überhaupt begrenzt ist, mehr interessiert als die Frage, wie hoch die Messlatte dabei tatsächlich liegt".

> Zumal die Hersteller selbst dazu offenbar keine absoluten Aussagen
> machen wollen.

No. 4: Doch, tun sie.

> Jetzt müsstest Du noch erklären, was die Schreibgeschwindigkeit für
> eine Rolle spielt.

Sehr gern: Je höher die Schreibgeschwindigkeit (beim Dauerschreiben!), desto mehr Schreibzugriffe pro Zeit und Zelle, desto kleiner wiederum die Zeitspanne, bis die Zahl der möglichen Schreibzugriffe erreicht ist.
Bei "natürlicher" Benutzung (wie z. B. der im Thread diskutierten Herstellerangabe mit willkürlich gewählter, aber konstanter Datenmenge pro Zeit) spielt die echte Schreibgeschwindigkeit natürlich keine Rolle. Wer will, kann aber natürlich auch die Herstellerangabe "100 GB pro Tag" als Dauerschreibgeschwindigkeit von 1,16 MB/s (was natürlich weit unterhalb der echten "Momentanschreibgeschwindigkeit" des Mediums liegt) interpretieren. Einen tieferen Sinn sehe ich darin allerdings nicht, zumal sie nur mit der Angabe der Mediengröße ("80 GB") und der Haltbarkeitsdauer ("5 Jahre lang") Aussagekraft besitzt.

> Um das vorzeitige Aussfallen einzelner Zellen möglichst zu vermeiden,
> wird die Gesamtheit aller Zugriffe möglichst gleichmäßig auf alle
> Zellen verteilt.

...womit automatisch das nachzeitige Ausfallen der anderen Zellen vermieden wird. Oder wie du es bereits zuvor richtig schriebst: "Das erhöht [...] nicht [...] die Lebensdauer des gesammten Mediums". Welche Relevanz hat das also für die hiesige Diskussion?

> Eine höhere Schreibgeschwindigkeit führt höchstens zu frühzeitigeren
> Ausfallerscheinungen weil das Maximum der Zugriffe schneller erreicht
> wird.

Beim labormäßigen Dauerschreiben, vollkommen richtig. Genau das ist die Grundlage dafür, dass "man [...] von einem Kurzzeiteinsatz unter Extremstbedingungen auf die Haltbarkeit unter Alltagsbedingungen umrechnen kann", was du vorhin noch in Abrede gestellt hast.

[ Dieser Beitrag wurde von Andreas_Wolf am 12.12.2008 um 02:39 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

12.12.2008, 03:13 Uhr

Murmel
Posts: 1457
Nutzer
Cool Besserwisser trifft noch mehr Besserwisser. Wo das nur endet ? :O



[ Dieser Beitrag wurde von Murmel am 12.12.2008 um 03:14 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

12.12.2008, 03:34 Uhr

Andreas_Wolf
Posts: 2980
Nutzer
> Cool Besserwisser trifft noch mehr Besserwisser. Wo das nur endet ?

Noch cooler: Dummschwätzer trifft Diskussion, zu der er nichts beizutragen hat. Wo das endet, sieht man an deinem Beitrag.

[ - Antworten - Zitieren - Direktlink - ]

12.12.2008, 07:47 Uhr

rbn
Posts: 2001
Nutzer
Zitat:
Original von Holger:

Eine leuchtende LED bedeutet nicht, dass geschrieben wird.


Das ist mir schon klar.

Zitat:
Original von Holger:

Je mehr parallele Anwendungen Du ausführst, desto mehr entfernst Du Dich von einem dauerhaften Schreiben.


Die Anwendungen werden zum Rechnerstart einmal geladen, danach stehen sie im Speicher und fordern - sofern ich keine Daten (wie im Falle von Photoshop z. Bsp. Bilder) mehr nachlade - von der Festplatte nichts mehr an, also wird auch nicht gelesen. Davon ausgeschlossen sind natürlich die Torrents bei denen verteilt wird (Linux Live CDs erfreuen sich einer großen Beliebtheit ;) .

Im Großen und Ganzen bedeutet das doch, dass die Festplatte, die restliche Zeit ununterbrochen am Schreiben ist, oder habe ich da einen grundlegenden Denkfehler?

Zitat:
Original von Holger:

Außerdem belastest Du die Festplatte so minimal, wie nur möglich: jede Anwendung schreibt in einen anderen Bereich.


Wie gesagt, die Torrents richten sich Ihren Speicherbereich auf der Festplatte nicht vorher ein, es wird also kein Platz reserviert, in den dann geschrieben wird. Es wird der Platz genommen der gerade frei ist (sehr zu empfehlen fürs zielgerichtete fragmentieren ;) .

Zitat:
Original von Andreas_Wolf:

Im übrigen halte ich die aus der Herstelleraussage errechneten garantierten 2300 Schreibzugriffe pro Zelle für alles andere als positiv, angesichts der mittlerweile üblichen Zahlen, die in diesem Thread -- auch von dir -- genannt wurden.


Ist die Anzahl der Schreibzugriffe von den Herstellern tatsächlich ernst gemeint (Ich habe jetzt nicht selbst nachgeforscht)?

--- Das ist ja garnichts ...

Wenn das tatsächlich die zugesicherte Anzahl der Schreibzugriffe sein soll, dann erübrigt sich eigentlich jede weitere Diskussion über den Praxiseinsatz von SSDs für normalen Desktopbetrieb. Da ist man ja mit DVD-RAM besser beraten ...

rbn
--
Marketing.
Modern.
Mittelständisch.

http://www.rhein-sieg-design.de

[ - Antworten - Zitieren - Direktlink - ]

12.12.2008, 08:41 Uhr

DrNOP
Posts: 4118
Nutzer
Zitat:
Original von Andreas_Wolf:
Noch cooler: Dummschwätzer trifft Diskussion, zu der er nichts beizutragen hat. Wo das endet, sieht man an deinem Beitrag.

Wenn's dort wenigstens geendet hätte - aber es geht ja immer noch weiter... :P
--
Signaturen mit mehr als zwei Zeilen gehen mir auf den Wecker

[ - Antworten - Zitieren - Direktlink - ]

12.12.2008, 10:35 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von MaikG:
Zwar ist 1 Zelle im Prinzip 1 Bit aber, da muss ich Maja
im gewissen sinne Recht geben, in SSDs können die nicht einzeln
Adressiert werden.

Eine Zelle ist nicht ein Bit.
Trotzdem wirst Du niemals mehr als eine Datei in einer Zelle speichern, so etwas unterstützt ja schon das Dateisystem gar nicht. Nur als kleiner Hinweis: schon beim A500 betrug die Blockgröße mindestens 512 byte, das heißt mit der Notwendigkeit, auch die Metainformationen zu speichern, benötigte eine Datei mindestens 1kB. Auf heute üblichen Datenträgern beträgt die Blockgröße zwischen 4kB und 32kB. Eine Datei benötigt immer mehr als eine Zelle. Aber vor allem ging es in der Diskussion, wenn Du mal zurückguckst, um die Frage, ob die Datei 4MB oder 40MB groß ist, bei einem Traffic von 360GB.

Also, dass eine Zelle keine 4MB groß ist, dürfte wohl klar sein, oder?

Außerdem sollten inzwischen alle (bis auf eine Person) verstanden haben, dass der Sinn des "Wear Levelling" ja gerade darin besteht, selbst dann, wenn man softwareseitig immer den gleichen Block beschreiben würde, hardwareseitig unterschiedliche Blöcke belastet werden.
Zitat:
Original von Bjoern:
(@Maja)
Hab ich was auf den Augen oder machst du gerade auch nix Anderes? ?(

Nicht nur gerade, sondern schon seit Jahren.

Zitat:
Original von rbn:
Die Anwendungen werden zum Rechnerstart einmal geladen, danach stehen sie im Speicher und fordern - sofern ich keine Daten (wie im Falle von Photoshop z. Bsp. Bilder) mehr nachlade - von der Festplatte nichts mehr an, also wird auch nicht gelesen. Davon ausgeschlossen sind natürlich die Torrents bei denen verteilt wird (Linux Live CDs erfreuen sich einer großen Beliebtheit ;) .

Aber Du hast doch gerade den Torrents so eine große Bedeutung beigemessen, obwohl gerade diese eine drastische Reduzierung des Schreibaufkommens bedeuten, wenn sie zwischendurch in die andere Richtung übertragen müssen. Warum willst Du genau das, was eben noch eine besondere Belastung darstellen sollte, jetzt plötzlich ausschließen?
Zitat:
Im Großen und Ganzen bedeutet das doch, dass die Festplatte, die restliche Zeit ununterbrochen am Schreiben ist, oder habe ich da einen grundlegenden Denkfehler?
Offenbar schon.
Dass die Torrents keine höhere Schreibbelastung darstellen, hast Du offenbar schon eingehen, weil Du sie jetzt sogar schon aus Deiner Betrachtung ausschließen willst.

"Dann wird während dessen Internetradio gestreamt"

Internet -> Soundkarte . . keine Belastung der SSD

"oder TV gestreamt"

Dito.

", oder Video von Platte geschaut, oder MP3 von der Platte gehört."

Ausschließlich Lesezugriffe

"Natürlich wird auch noch gesurft, "

Primär Netzwerkzugriffe oder Lesezugriffe, wenn Datei schon im Cache, Schreibzugriffe ausschließlich wenn eine Datei noch nicht im Cache ist, Löschzugriff findet aber erst statt, wenn der Cache voll ist -> Schreibbelastung weit von der maximalen Transferrate einer SSD entfernt.

"Email abgerufen, "

Schreibzugriff nur bei neuen Mails, andernfalls ausschießlich Lesezugriffe.

"und dann arbeitet man ja auch tatsächlich auch noch mit dem Rechner, werden also leicht mal pro Stunde mehrmals mehrere Hundert MB große PSD Dateien gesichert und geladen."

Den User möchte ich sehen, der permanent neue Bilder in der maximalen Transferrate einer SSD produziert. Wenn dazwischen keine Pausen zum Lesen der Ausgangsdateien oder zum eigentlichen Bearbeiten des Bildes sind, können ja eigentlich nur einfarbige oder durchgängig transparente Bilder dabei rauskommen.

Zitat:
Wie gesagt, die Torrents richten sich Ihren Speicherbereich auf der Festplatte nicht vorher ein, es wird also kein Platz reserviert, in den dann geschrieben wird. Es wird der Platz genommen der gerade frei ist (sehr zu empfehlen fürs zielgerichtete fragmentieren ;) .
Na gut, wenn Du keine Sparse-Files verwenden, sondern bewusst Deine Festplatte quälen willst, trifft das zu. Allerdings trifft trotzdem die Aussage zu, dass jede Datei in einen anderen Bereich geschrieben wird, andernfalls wären sie hinterher wohl kaum zu gebrauchen ;) Falls Du also davon absiehst, eine SSD zu defragmentieren, was keinerlei Nutzen bringt, ist die Belastung nicht höher als bei jeder anderen Festplattenfülloperation.

mfg

--
Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]


1 2 3 -4- 5 6 7 [ - Beitrag schreiben - ]


amiga-news.de Forum > Andere Systeme > kann mann Festplatten leiser tunen? [ - Suche - Neue Beiträge - Registrieren - Login - ]


.
Impressum | Datenschutzerklärung | Netiquette | Werbung | Kontakt
Copyright © 1998-2024 by amiga-news.de - alle Rechte vorbehalten.
.