Nechtěl bych mít zodpovědnost za to, že se nic z těch dat neztratí. U běžných dat, která se používají denně to problém není, ale když desítky let někde leží originální data, na která se běžně nesahá, je těžké zajistit, aby se neztratila nebo nezkazila. Že se ztratí soubor, lze poznat celkem snadno, že jsou místo něj samé binární nuly je už horší, když to postihne jen část souboru, také to lze odhalit. Ale znamená to periodicky všechno číst a kontrolovat. Jak ale zajistit, že se místo čtení nebude i psát, resp. mazat? To je třeba nebezpečí robotizovaných pásek.
Ja bych se toho zas tak moc nebal. Pasky jsou velice spolehlive, zivotnost muze byt klidne i 30 let. 270TB ve finale neni take zadna extra porce dat. Viz. https://www.ibm.com/downloads/cas/QARENLOV .. (160 zettabytes expected by 2024). Navic maji tri kopie, to uz by musela byt smula (nesikovnost) neco smazat rucne na vsech trech ;-).
K tomu problému, že zvažují, že by mohli zavést diskové pole... Dva roky nazpátek měl jeden pán, co natáčí videa na youtube podobný problém, tak si pořídil petabyte diskové pole. Takže pokud si na to netroufají sami, tady je odkaz jak na to: https://www.youtube.com/watch?v=eCz-IixxR_k 600Tb pole je vyjde na 30kUSD, což je sice hodně peněz, na druhou stranu za to nekoupí ani služební vůz pro ředitele knihovny.
Jinými slovy, nevím proč místo toho aby diskové pole zvažovali, jej prostě nekoupí?
Jasne, ze je to taky moznost, ale uricte by bylo zajimave spocitat celkove naklady. Preci jen, diskove pole bude urcite narocne na spotrebu el. Oproti tomu, zase je treba bezpecne uchovavat pasky atd. Navic, disky jsou urcite poruchovejsi nez pasky, takze dalsi naklad na vymenu disku ... neni to sranda uchovavat bezpecne velke mnozstvi dat.