Fecha inventada | 24 de diciembre de 1954 [a] |
---|---|
Inventado por | Equipo de IBM dirigido por Rey Johnson |
Tipos de almacenamiento de datos y memoria de computadora |
---|
Volátil |
No volátil |
Una unidad de disco duro ( HDD ), disco duro , disco duro o disco fijo [b] es un dispositivo de almacenamiento de datos electromecánico que almacena y recupera datos digitales mediante almacenamiento magnético y uno o más platos rígidos de rotación rápida recubiertos con material magnético. Los platos están emparejados con cabezales magnéticos , generalmente dispuestos en un brazo actuador móvil , que leen y escriben datos en las superficies del plato. [2] Se accede a los datos de forma aleatoria , lo que significa que los bloques individualesde datos se pueden almacenar y recuperar en cualquier orden. Los discos duros son un tipo de almacenamiento no volátil que retiene los datos almacenados incluso cuando están apagados. [3] [4] [5] Los discos duros modernos suelen tener la forma de una pequeña caja rectangular .
Introducido por IBM en 1956, [6] Los HDD fueron el dispositivo de almacenamiento secundario dominante para computadoras de propósito general a partir de principios de la década de 1960. Los HDD mantuvieron esta posición en la era moderna de servidores y computadoras personales , aunque los dispositivos de computación personal producidos en grandes volúmenes, como teléfonos celulares y tabletas, dependen de dispositivos de almacenamiento de memoria flash . Más de 224 empresas han producido HDD históricamente , aunque después de una extensa consolidación de la industria, la mayoría de las unidades son fabricadas por Seagate , Toshiba y Western Digital.. Los discos duros dominan el volumen de almacenamiento producido ( exabytes por año) para los servidores . Aunque la producción está creciendo lentamente (en exabytes enviados [7] ), los ingresos por ventas y los envíos de unidades están disminuyendo porque las unidades de estado sólido (SSD) tienen tasas de transferencia de datos más altas, mayor densidad de almacenamiento de área, algo mejor confiabilidad, [8] [9 ] y tiempos de acceso y latencia mucho más bajos. [10] [11] [12] [13]
Los ingresos de los SSD, la mayoría de los cuales utilizan memoria flash NAND , superan ligeramente a los de los HDD. [14] Los productos de almacenamiento flash tuvieron más del doble de ingresos que las unidades de disco duro en 2017 [update]. [15] Aunque los SSD tienen un costo por bit de cuatro a nueve veces mayor, [16] [17] están reemplazando a los HDD en aplicaciones donde la velocidad, el consumo de energía, el tamaño pequeño, la alta capacidad y la durabilidad son importantes. [12] [13] El costo por bit de las SSD está disminuyendo y la prima de precio sobre las HDD se ha reducido. [17]
Las características principales de un disco duro son su capacidad y rendimiento . La capacidad se especifica en prefijos de unidad correspondientes a potencias de 1000: una unidad de 1 terabyte (TB) tiene una capacidad de 1000 gigabytes (GB; donde 1 gigabyte = mil millones (10 9 ) bytes ). Por lo general, parte de la capacidad de un disco duro no está disponible para el usuario porque es utilizada por el sistema de archivos y el sistema operativo de la computadora.y posiblemente redundancia incorporada para la corrección y recuperación de errores. También existe confusión con respecto a la capacidad de almacenamiento, ya que las capacidades están expresadas en gigabytes decimales (potencias de 1000) por los fabricantes de HDD, mientras que los sistemas operativos más utilizados reportan capacidades en potencias de 1024, lo que resulta en un número menor al anunciado. El rendimiento se especifica por el tiempo requerido para mover los cabezales a una pista o cilindro (tiempo de acceso promedio) sumando el tiempo que tarda el sector deseado en moverse debajo del cabezal ( latencia promedio , que es una función de la velocidad de rotación física en revoluciones por minuto ) y, finalmente, la velocidad a la que se transmiten los datos (velocidad de datos).
Los dos factores de forma más comunes para los discos duros modernos son 3,5 pulgadas , para computadoras de escritorio, y 2,5 pulgadas, principalmente para computadoras portátiles. Los discos duros se conectan a los sistemas mediante cables de interfaz estándar , como cables PATA (Parallel ATA), SATA (Serial ATA), USB o SAS ( Serial Attached SCSI ).
Parámetro | Empezó con (1957) | Mejorado a | Mejora |
---|---|---|---|
Capacidad (formateada) | 3,75 megabytes [18] | 18 terabytes (a partir de 2020 [update]) [19] | 4,8 millones a uno [20] |
Volumen fisico | 68 pies cúbicos (1,9 m 3 ) [c] [6] | 2,1 pulgadas cúbicas (34 cm 3 ) [21] [d] | 56.000 a uno [22] |
Peso | 2,000 libras (910 kg ) [6] | 2,2 onzas (62 g ) [21] | 15.000 a uno [23] |
Tiempo medio de acceso | aprox. 600 milisegundos [6] | 2,5 ms a 10 ms; Depende de la RAM RW | alrededor de 200 a uno [24] |
Precio | 9.200 dólares EE.UU. por megabyte (1961; 83.107 dólares EE.UU. en 2021) [25] | 0,024 dólares EE.UU. por gigabyte para 2020 [26] [27] [28] | 3.46 mil millones a uno [29] |
Densidad de datos | 2000 bits por pulgada cuadrada [30] | 1,3 terabits por pulgada cuadrada en 2015 [31] | 650 millones a uno [32] |
Promedio de vida | C. 2000 horas MTBF [ cita requerida ] | C. 2,500,000 horas (~ 285 años) MTBF [33] | 1250 a uno [34] |
La primera unidad de disco duro de producción de IBM, el almacenamiento en disco 350 , se envió en 1957 como un componente del sistema IBM 305 RAMAC. Tenía aproximadamente el tamaño de dos refrigeradores de tamaño mediano y almacenaba cinco millones de caracteres de seis bits (3,75 megabytes ) [18] en una pila de 52 discos (100 superficies utilizadas). [35] El 350 tenía un solo brazo con dos cabezales de lectura / escritura, uno hacia arriba y el otro hacia abajo, que se movían tanto horizontalmente entre un par de platos adyacentes como verticalmente desde un par de platos a un segundo juego. [36] [37] [38] Las variantes del IBM 350 fueron el IBM 355 , IBM 7300 e IBM 1405 .
En 1961 IBM anunció, y en 1962 envió, la unidad de almacenamiento en disco IBM 1301, [39] que reemplazó a la IBM 350 y unidades similares. El 1301 constaba de uno (para el modelo 1) o dos (para el modelo 2) módulos, cada uno con 25 platos, cada plato de aproximadamente 1 ⁄ 8 pulgadas (3,2 mm) de grosor y 24 pulgadas (610 mm) de diámetro. [40] Mientras que las unidades de disco IBM anteriores usaban solo dos cabezales de lectura / escritura por brazo, el 1301 usaba una matriz de 48 [e] cabezas (peine), cada matriz se movía horizontalmente como una sola unidad, una cabeza por superficie utilizada. Modo cilindroSe admitieron operaciones de lectura / escritura y los cabezales volaron aproximadamente 250 micropulgadas (aproximadamente 6 µm) por encima de la superficie del plato. El movimiento de la matriz del cabezal dependía de un sistema sumador binario de actuadores hidráulicos que aseguraba un posicionamiento repetible. El gabinete 1301 tenía aproximadamente el tamaño de tres refrigeradores domésticos colocados uno al lado del otro, almacenando el equivalente a aproximadamente 21 millones de bytes de ocho bits por módulo. El tiempo de acceso fue de aproximadamente un cuarto de segundo.
También en 1962, IBM presentó la unidad de disco modelo 1311 , que tenía aproximadamente el tamaño de una lavadora y almacenaba dos millones de caracteres en un paquete de disco extraíble . Los usuarios pueden comprar paquetes adicionales e intercambiarlos según sea necesario, al igual que los carretes de cinta magnética . Los modelos posteriores de unidades de paquete extraíbles, de IBM y otros, se convirtieron en la norma en la mayoría de las instalaciones informáticas y alcanzaron capacidades de 300 megabytes a principios de la década de 1980. Los discos duros no extraíbles se denominaron unidades de "disco fijo".
En 1963 IBM introdujo el 1302, [41] con el doble de capacidad de vías y el doble de vías por cilindro que el 1301. El 1302 tenía uno (para el Modelo 1) o dos (para el Modelo 2) módulos, cada uno con un peine separado para las primeras 250 pistas y las últimas 250 pistas.
Algunos HDD de alto rendimiento se fabricaron con un cabezal por pista, por ejemplo , Burroughs B-475 en 1964, IBM 2305 en 1970, de modo que no se perdió tiempo moviendo físicamente los cabezales a una pista y la única latencia fue el tiempo para el deseado. bloque de datos para girar a su posición debajo de la cabeza. [42] Conocidas como unidades de disco de cabezal fijo o cabezal por pista, eran muy caras y ya no se fabrican. [43]
En 1973, IBM introdujo un nuevo tipo de disco duro con el nombre en código " Winchester". Su principal característica distintiva fue que las cabezas de los discos no se retiraron por completo de la pila de platos de disco cuando se apagó la unidad. En cambio, se permitió que las cabezas" aterrizaran "en un área especial de la superficie del disco al girar hacia abajo , "despegando" nuevamente cuando el disco se encendió más tarde. Esto redujo en gran medida el costo del mecanismo del actuador del cabezal, pero impidió quitar solo los discos de la unidad como se hizo con los paquetes de discos del día. En cambio, los primeros modelos de las unidades de "tecnología Winchester" incluían un módulo de disco extraíble, que incluía tanto el paquete de discos como el conjunto de la cabeza, dejando el motor del actuador en la unidad al retirarlos. Las unidades "Winchester" posteriores abandonaron el concepto de medios extraíbles y volvieron a los platos no extraíbles .
En 1974 IBM introdujo el actuador de brazo oscilante, hecho factible porque los cabezales de grabación de Winchester funcionan bien cuando se desvían de las pistas grabadas. El diseño simple de la unidad IBM GV (Gulliver), [44] inventado en los laboratorios Hursley de IBM en el Reino Unido, se convirtió en la invención electromecánica con mayor licencia de IBM [45] de todos los tiempos, y el actuador y el sistema de filtración se adoptaron en la década de 1980 para todos. HDD, y sigue siendo universal casi 40 años y 10 mil millones de brazos después.
Al igual que la primera unidad de paquete extraíble, las primeras unidades "Winchester" utilizaron platos de 14 pulgadas (360 mm) de diámetro. En 1978, IBM introdujo una unidad de brazo oscilante, la IBM 0680 (Piccolo), con platos de ocho pulgadas, explorando la posibilidad de que los platos más pequeños pudieran ofrecer ventajas. Siguieron otras unidades de ocho pulgadas, luego unidades de 5 + 1 ⁄ 4 pulgadas (130 mm), dimensionadas para reemplazar las unidades de disquete contemporáneas . Estos últimos estaban destinados principalmente al entonces incipiente mercado de ordenadores personales (PC).
Con el tiempo, a medida que las densidades de grabación aumentaron considerablemente, se encontró que las reducciones adicionales en el diámetro del disco a 3.5 "y 2.5" eran óptimas. Los potentes materiales magnéticos de tierras raras se volvieron asequibles durante este período y complementaron el diseño del actuador de brazo oscilante para hacer posible los factores de forma compactos de los discos duros modernos.
Cuando comenzó la década de 1980, los discos duros eran una característica adicional poco común y muy costosa en las PC, pero a finales de la década de 1980 su costo se había reducido al punto en que eran estándar en todas las computadoras excepto en las más baratas.
La mayoría de los discos duros a principios de la década de 1980 se vendieron a usuarios finales de PC como un subsistema complementario externo. El subsistema no se vendió con el nombre del fabricante de la unidad, sino con el nombre del fabricante del subsistema, como Corvus Systems y Tallgrass Technologies , o con el nombre del fabricante del sistema de PC, como Apple ProFile . El IBM PC / XT de 1983 incluía un disco duro interno de 10 MB y, poco después, los discos duros internos proliferaron en las computadoras personales.
Los discos duros externos siguieron siendo populares durante mucho más tiempo en Apple Macintosh . Muchas computadoras Macintosh fabricadas entre 1986 y 1998 tenían un puerto SCSI en la parte posterior, lo que simplificaba la expansión externa. Las computadoras Macintosh compactas más antiguas no tenían bahías de disco duro accesibles para el usuario (de hecho, las Macintosh 128K , Macintosh 512K y Macintosh Plus no tenían ninguna bahía de disco duro), por lo que en esos modelos, los discos SCSI externos eran la única opción razonable para expandiéndose sobre cualquier almacenamiento interno.
Las mejoras de HDD han sido impulsadas por el aumento de la densidad de área , que se enumera en la tabla anterior. Las aplicaciones se expandieron a lo largo de la década de 2000, desde las computadoras centrales de finales de la década de 1950 hasta la mayoría de las aplicaciones de almacenamiento masivo , incluidas las computadoras y las aplicaciones de consumo, como el almacenamiento de contenido de entretenimiento.
En las décadas de 2000 y 2010, NAND comenzó a reemplazar a los HDD en aplicaciones que requerían portabilidad o alto rendimiento. El rendimiento de NAND está mejorando más rápido que los HDD y las aplicaciones para HDD se están erosionando. En 2018, el disco duro más grande tenía una capacidad de 15 TB, mientras que el SSD de mayor capacidad tenía una capacidad de 100 TB. [46] A partir de 2018 [update], se pronosticaba que los discos duros alcanzarían una capacidad de 100 TB alrededor de 2025, [47] pero a partir de 2019 [update]el ritmo esperado de mejora se redujo a 50 TB para 2026. [48] Factores de forma más pequeños, 1.8 pulgadas y a continuación, se suspendieron alrededor de 2010. El costo del almacenamiento de estado sólido (NAND), representado por la ley de Moore , está mejorando más rápido que los discos duros. NAND tiene una mayor elasticidad precio de la demandaque los discos duros, y esto impulsa el crecimiento del mercado. [49] A finales de los años 2000 y 2010, el ciclo de vida del producto de los discos duros entró en una fase madura, y la desaceleración de las ventas puede indicar el inicio de la fase descendente. [50]
Las inundaciones de Tailandia de 2011 dañaron las plantas de fabricación y afectaron negativamente al costo de las unidades de disco duro entre 2011 y 2013. [51]
En 2019, Western Digital cerró su última fábrica de HDD en Malasia debido a la disminución de la demanda, para centrarse en la producción de SSD. [52] Los tres fabricantes de HDD restantes han tenido una demanda decreciente de sus HDD desde 2014. [53]
Un disco duro moderno registra datos magnetizando una fina película de material ferromagnético [f] en ambos lados de un disco. Los cambios secuenciales en la dirección de magnetización representan bits de datos binarios . Los datos se leen del disco detectando las transiciones en la magnetización. Los datos del usuario se codifican mediante un esquema de codificación, como la codificación limitada de longitud de ejecución , [g] que determina cómo se representan los datos mediante las transiciones magnéticas.
Un diseño típico de HDD consta de un eje que sostiene discos circulares planos, llamadosplatos, que contienen los datos registrados. Los platos están hechos de un material no magnético, generalmente aleación de aluminio, vidrio o cerámica. Están recubiertos con una capa poco profunda de material magnético, típicamente de 10 a 20nmde profundidad, con una capa exterior de carbono para su protección. [55] [56] [57] Como referencia, una hoja de papel de copia estándar tiene un grosor de 0,07 a 0,18 mm (70 000 a 180 000 nm) [58] .
Los platos de los discos duros contemporáneos se hacen girar a velocidades que varían desde las 4.200 RPM en dispositivos portátiles de bajo consumo hasta las 15.000 rpm en los servidores de alto rendimiento. [60] Los primeros discos duros giraban a 1200 rpm [6] y, durante muchos años, la norma era de 3600 rpm. [61] En noviembre de 2019 [update], los platos de la mayoría de los HDD para consumidores giran a 5400 o 7200 RPM.
La información se escribe y se lee en un plato a medida que gira junto a dispositivos llamados cabezales de lectura y escritura que están posicionados para operar muy cerca de la superficie magnética, con su altura de vuelo a menudo en el rango de decenas de nanómetros. El cabezal de lectura y escritura se utiliza para detectar y modificar la magnetización del material que pasa inmediatamente debajo de él.
En las unidades modernas, hay un cabezal para cada superficie del plato magnético en el eje, montado en un brazo común. Un brazo actuador (o brazo de acceso) mueve las cabezas en un arco (aproximadamente radialmente) a través de los platos mientras giran, permitiendo que cada cabezal acceda a casi toda la superficie del plato mientras gira. El brazo se mueve mediante un actuador de bobina móvil o, en algunos diseños más antiguos, un motor paso a paso . Las primeras unidades de disco duro escribían datos a algunos bits constantes por segundo, lo que daba como resultado que todas las pistas tuvieran la misma cantidad de datos por pista, pero las unidades modernas (desde la década de 1990) utilizan la grabación de bits de zona , lo que aumenta la velocidad de escritura de la zona interior a la exterior y, por lo tanto, almacena más datos por pista en las zonas exteriores.
En los accionamientos modernos, el pequeño tamaño de las regiones magnéticas crea el peligro de que su estado magnético se pierda debido a efectos térmicos - inestabilidad magnética inducida térmicamente que se conoce comúnmente como el " límite superparamagnético ". Para contrarrestar esto, los platos se recubren con dos capas magnéticas paralelas, separadas por una capa de tres átomos del elemento no magnético rutenio , y las dos capas se magnetizan en orientación opuesta, reforzándose así entre sí. [62] Otra tecnología utilizada para superar los efectos térmicos y permitir mayores densidades de grabación es la grabación perpendicular , que se envió por primera vez en 2005, [63] ya partir de 2007 se [update]utilizó en ciertos discos duros.[64] [65] [66]
En 2004, se introdujo un medio de grabación de mayor densidad, que consta de capas magnéticas blandas y duras acopladas. La denominada tecnología de almacenamiento magnético de medios de resorte de intercambio , también conocida como medios compuestos acoplados por intercambio , permite una buena capacidad de escritura debido a la naturaleza de ayuda de escritura de la capa blanda. Sin embargo, la estabilidad térmica está determinada solo por la capa más dura y no influenciada por la capa blanda. [67] [68]
Un disco duro típico tiene dos motores eléctricos: un motor de husillo que hace girar los discos y un actuador (motor) que coloca el conjunto del cabezal de lectura / escritura a través de los discos giratorios. El motor de disco tiene un rotor externo unido a los discos; los devanados del estator están fijos en su lugar. Frente al actuador en el extremo del brazo de soporte de la cabeza se encuentra el cabezal de lectura y escritura; cables delgados de circuito impreso conectan los cabezales de lectura y escritura a la electrónica del amplificador montada en el pivote del actuador. El reposacabezas es muy ligero, pero también rígido; en las unidades modernas, la aceleración en la cabeza alcanza los 550 g .
los El actuador es unimán permanentey unmotor debobina móvilque hace girar los cabezales a la posición deseada. Una placa de metal soporta unimán dealto flujo deneodimio-hierro-boro(NIB) encuclillas. Debajo de esta placa está la bobina móvil, a menudo denominada bobina de voz por analogía con la bobina en losaltavoces, que está unida al concentrador del actuador, y debajo hay un segundo imán NIB, montado en la placa inferior del motor (algunos las unidades tienen un solo imán).
La bobina móvil en sí tiene la forma de una punta de flecha y está hecha de alambre magnético de cobre doblemente revestido . La capa interna es aislante y la externa es termoplástica, que une la bobina después de enrollarla en una forma, haciéndola autoportante. Las porciones de la bobina a lo largo de los dos lados de la punta de la flecha (que apuntan al centro del cojinete del actuador) interactúan luego con el campo magnético del imán fijo. La corriente que fluye radialmente hacia afuera a lo largo de un lado de la punta de la flecha y radialmente hacia adentro en el otro produce la fuerza tangencial. Si el campo magnético fuera uniforme, cada lado generaría fuerzas opuestas que se cancelarían entre sí. Por lo tanto, la superficie del imán es mitad polo norte y mitad polo sur, con la línea divisoria radial en el medio, lo que hace que los dos lados de la bobina vean campos magnéticos opuestos y produzcan fuerzas que se suman en lugar de cancelar. Las corrientes a lo largo de la parte superior e inferior de la bobina producen fuerzas radiales que no hacen girar la cabeza.
La electrónica del HDD controla el movimiento del actuador y la rotación del disco y realiza lecturas y escrituras a pedido desde el controlador de disco . La retroalimentación de la electrónica del variador se logra mediante segmentos especiales del disco dedicados a la retroalimentación del servo . Estos son círculos concéntricos completos (en el caso de la tecnología servo dedicada) o segmentos intercalados con datos reales (en el caso de la tecnología servo integrada). La retroalimentación del servo optimiza la relación señal-ruido de los sensores GMR ajustando la bobina móvil del brazo accionado. El giro del disco también utiliza un servomotor. El firmware de disco moderno es capaz de programar lecturas y escrituras de manera eficiente en las superficies del plato y reasignar sectores de los medios que han fallado.
Las unidades modernas hacen un uso extensivo de los códigos de corrección de errores (ECC), particularmente la corrección de errores Reed-Solomon . Estas técnicas almacenan bits adicionales, determinados por fórmulas matemáticas, para cada bloque de datos; los bits adicionales permiten corregir muchos errores de forma invisible. Los bits adicionales ocupan espacio en el disco duro, pero permiten emplear densidades de grabación más altas sin causar errores incorregibles, lo que da como resultado una capacidad de almacenamiento mucho mayor. [69] Por ejemplo, un disco duro típico de 1 TB con sectores de 512 bytes proporciona una capacidad adicional de aproximadamente 93 GB para los datos ECC . [70]
En las unidades más nuevas, a partir de 2009 [update], [71] códigos de verificación de paridad de baja densidad (LDPC) estaban reemplazando a Reed-Solomon; Los códigos LDPC permiten un rendimiento cercano al límite de Shannon y, por lo tanto, proporcionan la mayor densidad de almacenamiento disponible. [71] [72]
Las unidades de disco duro típicas intentan "reasignar" los datos en un sector físico que está fallando a un sector físico de repuesto proporcionado por el "grupo de sector de repuesto" de la unidad (también llamado "grupo de reserva"), [73] mientras confía en el ECC para recuperar datos almacenados mientras el número de errores en un sector defectuoso aún sea lo suficientemente bajo. La función SMART (Self-Monitoring, Analysis and Reporting Technology) cuenta el número total de errores en todo el HDD corregido por ECC (aunque no en todos los discos duros, ya que los atributos SMART relacionados "Hardware ECC recuperado" y "Soft ECC Correction" son no se admite de forma constante) y el número total de reasignaciones de sectores realizadas, ya que la aparición de muchos de estos errores puede predecir una falla en el disco duro .
El "Formato sin identificación", desarrollado por IBM a mediados de la década de 1990, contiene información sobre qué sectores son malos y dónde se han ubicado los sectores reasignados. [74]
Solo una pequeña fracción de los errores detectados terminan como no corregibles. Algunos ejemplos de tasas de error de lectura de bits no corregidas especificadas incluyen:
Dentro de un modelo de fabricante dado, la tasa de errores de bits no corregidos suele ser la misma independientemente de la capacidad de la unidad. [75] [76] [77] [78]
El peor tipo de errores son las corrupciones silenciosas de datos que son errores no detectados por el firmware del disco o el sistema operativo del host; Algunos de estos errores pueden deberse a un mal funcionamiento de la unidad de disco duro, mientras que otros se originan en otra parte de la conexión entre la unidad y el host. [79]
La tasa de avance de la densidad del área fue similar a la ley de Moore (se duplicó cada dos años) hasta 2010: 60% por año durante 1988-1996, 100% durante 1996-2003 y 30% durante 2003-2010. [81] Hablando en 1997, Gordon Moore llamó al aumento "asombroso", [82] mientras observaba más tarde que el crecimiento no puede continuar para siempre. [83] La mejora de los precios se desaceleró al -12% anual durante 2010-2017, [84] a medida que se desaceleraba el crecimiento de la densidad territorial. La tasa de avance de la densidad de área se redujo al 10% anual durante 2010-2016, [85] y hubo dificultades para migrar de la grabación perpendicular a tecnologías más nuevas. [86]
A medida que disminuye el tamaño de la celda de bits, se pueden colocar más datos en un solo disco de disco. En 2013, un disco duro de producción de escritorio de 3 TB (con cuatro platos) habría tenido una densidad de área de aproximadamente 500 Gbit / en 2, lo que habría equivalido a una celda de bits que comprende aproximadamente 18 granos magnéticos (11 por 1,6 granos). [87] Desde mediados de la década de 2000, el progreso de la densidad de área ha sido desafiado por un trilema superparamagnético que involucra el tamaño del grano, la fuerza magnética del grano y la capacidad de la cabeza para escribir. [88] Para mantener una señal a ruido aceptable, se requieren granos más pequeños; los granos más pequeños pueden revertirse automáticamente ( inestabilidad electrotérmica) a menos que su fuerza magnética aumente, pero los materiales de cabeza de escritura conocidos no pueden generar un campo magnético lo suficientemente fuerte como para escribir el medio en el espacio cada vez más pequeño que ocupan los granos.
Se están desarrollando tecnologías de almacenamiento magnético para abordar este trilema y competir con las unidades de estado sólido (SSD) basadas en memoria flash . En 2013, Seagate introdujo la grabación magnética con tejas (SMR), [89] pensada como una especie de tecnología "provisional" entre PMR y la grabación magnética asistida por calor (HAMR), sucesora prevista de Seagate , SMR utiliza pistas superpuestas para aumentar la densidad de datos, en el costo de la complejidad del diseño y velocidades de acceso a datos más bajas (particularmente velocidades de escritura y velocidades de 4k de acceso aleatorio ). [90] [91]
Por el contrario, HGST (ahora parte de Western Digital ) se centró en desarrollar formas de sellar unidades llenas de helio en lugar del aire filtrado habitual. Dado que se reducen la turbulencia y la fricción , se pueden lograr densidades de área más altas debido al uso de un ancho de pista más pequeño, y la energía disipada debido a la fricción también es menor, lo que resulta en un menor consumo de energía. Además, se pueden colocar más platos en el mismo espacio del recinto, aunque el gas helio es notoriamente difícil de evitar que se escape. [92] Por lo tanto, las unidades de helio están completamente selladas y no tienen un puerto de ventilación, a diferencia de sus contrapartes llenas de aire.
Otras tecnologías de grabación están bajo investigación o se han implementado comercialmente para aumentar la densidad del área, incluida la grabación magnética asistida por calor (HAMR) de Seagate . HAMR requiere una arquitectura diferente con medios rediseñados y cabezales de lectura / escritura, nuevos láseres y nuevos transductores ópticos de campo cercano. [93] Se espera que HAMR se envíe comercialmente a finales de 2020 o 2021. [94] [95] Las cuestiones técnicas retrasaron la introducción de HAMR en una década, a partir de proyecciones anteriores de 2009, [96] 2015, [97] 2016, [98 ] y el primer semestre de 2019. Algunas unidades han adoptado brazos de accionamiento independientes duales para aumentar las velocidades de lectura / escritura y competir con las SSD. [99]El sucesor planificado de HAMR, la grabación con patrones de bits (BPR), [100] se ha eliminado de las hojas de ruta de Western Digital y Seagate. [101] La grabación magnética asistida por microondas (MAMR) de Western Digital, [102] [103] también conocida como grabación magnética asistida por energía (EAMR), se muestreó en 2020, con la primera unidad EAMR, la Ultrastar HC550, que se envió en finales de 2020. [104] [105] [106] Grabación magnética bidimensional (TDMR) [87] [107] y cabezas de magnetorresistencia gigante "corriente perpendicular al plano" (CPP / GMR) han aparecido en trabajos de investigación. [108] [109] [110] Se ha propuesto un concepto de accionamiento por vacío accionado en 3D (3DHD). [111]
La tasa de crecimiento de la densidad de área ha caído por debajo de la tasa histórica de la ley de Moore del 40% anual. [80] Dependiendo de los supuestos sobre la viabilidad y el calendario de estas tecnologías, Seagate pronostica que la densidad de área crecerá un 20% por año durante 2020-2034. [48]
Los discos duros de mayor capacidad que se enviarán comercialmente en 2021 son de 20 TB. [112] [113]
La capacidad de una unidad de disco duro, según lo informado por un sistema operativo al usuario final, es menor que la cantidad indicada por el fabricante por varias razones: el sistema operativo usa algo de espacio, el uso de algo de espacio para la redundancia de datos y el uso del espacio para las estructuras del sistema de archivos. Además, la diferencia en la capacidad informada en unidades SI con prefijos decimales frente a prefijos binarios puede llevar a una falsa impresión de capacidad faltante.
Las unidades de disco duro modernas aparecen ante su controlador de host como un conjunto contiguo de bloques lógicos, y la capacidad bruta de la unidad se calcula multiplicando el número de bloques por el tamaño del bloque. Esta información está disponible en la especificación del producto del fabricante y en la propia unidad mediante el uso de funciones del sistema operativo que invocan comandos de la unidad de bajo nivel. [114] [115]
Algunas unidades más antiguas, por ejemplo, IBM 1301 , CKD , tienen registros de longitud variable y el cálculo de la capacidad debe tener en cuenta las características de los registros. Algunos DASD más nuevos simulan CKD y se aplican las mismas fórmulas de capacidad.
La capacidad bruta de los discos duros orientados a sectores más antiguos se calcula como el producto de la cantidad de cilindros por zona de grabación, la cantidad de bytes por sector (más comúnmente 512) y el recuento de zonas de la unidad. [ cita requerida ] Algunas unidades SATA modernas también informan capacidades de sector de cabeza de cilindro (CHS), pero estos no son parámetros físicos porque los valores informados están limitados por interfaces históricas del sistema operativo. El esquema C / H / S ha sido reemplazado por el direccionamiento de bloques lógicos (LBA), un esquema de direccionamiento lineal simple que ubica los bloques por un índice entero, que comienza en LBA 0 para el primer bloque y se incrementa a partir de entonces. [116]Cuando se utiliza el método C / H / S para describir las unidades grandes modernas, el número de cabezales suele establecerse en 64, aunque una unidad de disco duro moderna típica tiene entre uno y cuatro platos. En los discos duros modernos, la capacidad de reserva para la gestión de defectos no se incluye en la capacidad publicada; sin embargo, en muchas de las primeras unidades de disco duro se reservaba un cierto número de sectores como repuestos, lo que reducía la capacidad disponible para el sistema operativo. Además, muchos HDD almacenan su firmware en una zona de servicio reservada, a la que normalmente no puede acceder el usuario y no se incluye en el cálculo de capacidad.
Para los subsistemas RAID , la integridad de los datos y los requisitos de tolerancia a fallas también reducen la capacidad obtenida. Por ejemplo, una matriz RAID 1 tiene aproximadamente la mitad de la capacidad total como resultado de la duplicación de datos, mientras que una matriz RAID 5 con n unidades pierde 1 / n de capacidad (lo que equivale a la capacidad de una sola unidad) debido al almacenamiento de información de paridad. . Los subsistemas RAID son varias unidades que parecen ser una o más unidades para el usuario, pero proporcionan tolerancia a fallas. La mayoría de los proveedores de RAID utilizan sumas de comprobación para mejorar la integridad de los datos a nivel de bloque. Algunos proveedores diseñan sistemas que utilizan HDD con sectores de 520 bytes para contener 512 bytes de datos de usuario y ocho bytes de suma de comprobación, o mediante el uso de sectores separados de 512 bytes para los datos de suma de comprobación. [117]
Algunos sistemas pueden usar particiones ocultas para la recuperación del sistema, lo que reduce la capacidad disponible para el usuario final sin el conocimiento de utilidades especiales de partición de disco como diskpart en Windows . [ cita requerida ]
Los datos se almacenan en un disco duro en una serie de bloques lógicos. Cada bloque está delimitado por marcadores que identifican su inicio y final, detección de errores y corrección de información, y espacio entre bloques para permitir variaciones de tiempo menores. Estos bloques a menudo contenían 512 bytes de datos utilizables, pero se han utilizado otros tamaños. A medida que aumentó la densidad de la unidad, una iniciativa conocida como Formato avanzado extendió el tamaño del bloque a 4096 bytes de datos utilizables, con una reducción significativa resultante en la cantidad de espacio en disco utilizado para encabezados de bloque, datos de verificación de errores y espaciado.
El proceso de inicialización de estos bloques lógicos en los platos del disco físico se denomina formateo de bajo nivel , que generalmente se realiza en la fábrica y normalmente no se cambia en el campo. [118] El formateo de alto nivel escribe estructuras de datos utilizadas por el sistema operativo para organizar archivos de datos en el disco. Esto incluye escribir estructuras de sistema de archivos y particiones en bloques lógicos seleccionados. Por ejemplo, parte del espacio del disco se utilizará para contener un directorio de nombres de archivos de disco y una lista de bloques lógicos asociados con un archivo en particular.
Los ejemplos de esquema de asignación de particiones incluyen el registro de inicio maestro (MBR) y la tabla de particiones GUID (GPT). Ejemplos de estructuras de datos almacenadas en el disco para recuperar archivos incluyen la tabla de asignación de archivos (FAT) en el sistema de archivos DOS e inodos en muchos sistemas de archivos UNIX , así como otras estructuras de datos del sistema operativo (también conocidas como metadatos ). Como consecuencia, no todo el espacio de un disco duro está disponible para archivos de usuario, pero esta sobrecarga del sistema suele ser pequeña en comparación con los datos del usuario.
Capacidad anunciada por los fabricantes [h] | Capacidad esperada por algunos consumidores [i] | Capacidad reportada | |||
---|---|---|---|---|---|
Windows [i] | macOS ver 10.6+ [h] | ||||
Con prefijo | Bytes | Bytes | Dif. | ||
100 GB | 100.000.000.000 | 107,374,182,400 | 7,37% | 93,1 GB | 100 GB |
1 TB | 1.000.000.000.000 | 1.099.511.627.776 | 9,95% | 931 GB | 1.000 GB, 1.000.000 MB |
En los primeros días de la informática, la capacidad total de los discos duros se especificaba en 7 a 9 dígitos decimales, frecuentemente truncados con el idioma millones . [121] [41] En la década de 1970, los fabricantes proporcionaban la capacidad total de los discos duros mediante prefijos decimales del SI , como megabytes (1 MB = 1.000.000 de bytes), gigabytes (1 GB = 1.000.000.000 de bytes) y terabytes (1 TB = 1.000.000.000.000 de bytes). ). [119] [122] [123] [124] Sin embargo, las capacidades de memoria se suelen citar utilizando una interpretación binaria de los prefijos, es decir, utilizando potencias de 1024 en lugar de 1000.
El software informa la unidad de disco duro o la capacidad de la memoria en diferentes formas utilizando prefijos decimales o binarios. La familia de sistemas operativos Microsoft Windows utiliza la convención binaria al informar sobre la capacidad de almacenamiento, por lo que un disco duro ofrecido por su fabricante como una unidad de 1 TB es informado por estos sistemas operativos como un disco duro de 931 GB. Mac OS X 10.6 (" Snow Leopard ") utiliza una convención decimal al informar sobre la capacidad del disco duro. [125] El comportamiento predeterminado de la utilidad de línea de comandos df en Linux es informar la capacidad del disco duro como un número de unidades de 1024 bytes. [126]
La diferencia entre la interpretación del prefijo decimal y binario causó cierta confusión entre los consumidores y dio lugar a demandas colectivas contra los fabricantes de discos duros . Los demandantes argumentaron que el uso de prefijos decimales engañó efectivamente a los consumidores, mientras que los demandados negaron cualquier irregularidad o responsabilidad, afirmando que su marketing y publicidad cumplían en todos los aspectos con la ley y que ningún miembro de la clase sufrió daños o lesiones. [127] [128] [129]
El precio de HDD por byte mejoró a una tasa de −40% anual durante 1988-1996, −51% anual durante 1996-2003 y −34% anual durante 2003-2010. [28] [81] La mejora de los precios se desaceleró hasta el -13% anual durante 2011-2014, ya que el aumento de la densidad de superficie se ralentizó y las inundaciones de Tailandia de 2011 dañaron las instalaciones de fabricación [86] y se mantuvieron en un -11% anual durante 2010-2017 . [130]
La Junta de la Reserva Federal ha publicado un índice de precios ajustado por calidad para sistemas de almacenamiento empresarial a gran escala que incluyen tres o más HDD empresariales y controladores, racks y cables asociados. Los precios de estos sistemas de almacenamiento a gran escala mejoraron a una tasa de ~ 30% anual durante 2004-2009 y ~ 22% anual durante 2009-2014. [81]
La primera unidad de disco duro de IBM , la IBM 350 , utilizaba una pila de cincuenta platos de 24 pulgadas, almacenaba 3,75 MB de datos (aproximadamente el tamaño de una imagen digital moderna) y tenía un tamaño comparable al de dos refrigeradores grandes. En 1962, IBM presentó su disco modelo 1311 , que usaba seis platos de 14 pulgadas (tamaño nominal) en un paquete extraíble y era aproximadamente del tamaño de una lavadora. Este se convirtió en un tamaño de plato estándar durante muchos años, utilizado también por otros fabricantes. [131] El IBM 2314usó platos del mismo tamaño en un paquete de once alturas e introdujo el diseño de "unidad en un cajón". a veces llamado el "horno de pizza", aunque el "cajón" no era la unidad completa. En la década de 1970, los discos duros se ofrecían en gabinetes independientes de diferentes dimensiones que contenían de uno a cuatro discos duros.
A partir de finales de la década de 1960, se ofrecieron unidades que encajaban completamente en un chasis que se montaba en un bastidor de 19 pulgadas . Los modelos RK05 y RL01 de Digital fueron los primeros ejemplos en los que se utilizaron platos individuales de 14 pulgadas en paquetes extraíbles, y todo el disco encajaba en un espacio de rack de 10,5 pulgadas de alto (seis unidades de rack). A mediados y finales de la década de 1980, el Fujitsu Eagle de tamaño similar , que usaba (casualmente) platos de 10,5 pulgadas, era un producto popular.
Con el aumento de las ventas de microcomputadoras que incorporan unidades de disquete (FDD) , las unidades de disco duro que encajarían en los soportes de FDD se volvieron deseables. Comenzando con Shugart Associates SA1000 , los factores de forma de HDD inicialmente siguieron a los de las unidades de disquete de 8 pulgadas, 5¼ pulgadas y 3½ pulgadas. Aunque se refieren a estos tamaños nominales, los tamaños reales de esas tres unidades son respectivamente de 9,5 ", 5,75" y 4 "de ancho. Debido a que no había unidades de disquete más pequeñas, factores de forma de HDD más pequeños, como unidades de 2½ pulgadas (en realidad, 2,75" de ancho) desarrollado a partir de ofertas de productos o estándares de la industria.
A partir de 2019 [update], los discos duros de 2½ pulgadas y 3½ pulgadas son los tamaños más populares. En 2009, todos los fabricantes habían interrumpido el desarrollo de nuevos productos para los factores de forma de 1,3 pulgadas, 1 pulgada y 0,85 pulgadas debido a la caída de los precios de la memoria flash , [132] [133] que no tiene partes móviles. Mientras que los tamaños nominales están en pulgadas, las dimensiones reales se especifican en milímetros.
Los factores que limitan el tiempo para acceder a los datos en un disco duro están relacionados principalmente con la naturaleza mecánica de los discos giratorios y los cabezales móviles, que incluyen:
También puede producirse un retraso si los discos de la unidad se detienen para ahorrar energía.
La desfragmentación es un procedimiento que se utiliza para minimizar la demora en la recuperación de datos moviendo elementos relacionados a áreas físicamente próximas en el disco. [134] Algunos sistemas operativos de computadora realizan la desfragmentación automáticamente. Aunque la desfragmentación automática tiene como objetivo reducir los retrasos en el acceso, el rendimiento se reducirá temporalmente mientras el procedimiento está en curso. [135]
El tiempo para acceder a los datos se puede mejorar aumentando la velocidad de rotación (reduciendo así la latencia) o reduciendo el tiempo dedicado a la búsqueda. El aumento de la densidad de área aumenta el rendimiento al aumentar la velocidad de datos y al aumentar la cantidad de datos bajo un conjunto de cabezales, lo que reduce potencialmente la actividad de búsqueda para una cantidad determinada de datos. El tiempo para acceder a los datos no se ha mantenido al día con los aumentos de rendimiento, que en sí mismos no se han mantenido al día con el crecimiento de la densidad de bits y la capacidad de almacenamiento.
Velocidad de rotación [rpm] | Latencia de rotación promedio [ms] |
---|---|
15.000 | 2 |
10,000 | 3 |
7.200 | 4.16 |
5.400 | 5.55 |
4.800 | 6.25 |
A partir de 2010 [update], un disco duro de escritorio típico de 7.200 rpm tiene una velocidad de transferencia de datos sostenida de "disco a búfer " de hasta 1.030 Mbit / s . [136] Esta tasa depende de la ubicación de la pista; la tasa es mayor para los datos en las pistas externas (donde hay más sectores de datos por rotación) y más baja hacia las pistas internas (donde hay menos sectores de datos por rotación); y es generalmente algo más alto para unidades de 10,000 rpm. Un estándar actual ampliamente utilizado para la interfaz "búfer a computadora" es 3.0 Gbit / sSATA, que puede enviar alrededor de 300 megabytes / s (codificación de 10 bits) desde el búfer a la computadora y, por lo tanto, todavía está cómodamente por delante de las tasas de transferencia de disco a búfer actuales. La velocidad de transferencia de datos (lectura / escritura) se puede medir escribiendo un archivo grande en el disco usando herramientas especiales de generación de archivos y luego volviendo a leer el archivo. La velocidad de transferencia puede verse afectada por la fragmentación del sistema de archivos y el diseño de los archivos. [134]
La tasa de transferencia de datos del disco duro depende de la velocidad de rotación de los platos y de la densidad de grabación de datos. Debido a que el calor y la vibración limitan la velocidad de rotación, el avance de la densidad se convierte en el método principal para mejorar las tasas de transferencia secuencial. Las velocidades más altas requieren un motor de husillo más potente, que genera más calor. Si bien la densidad de área avanza al aumentar tanto el número de pistas en el disco como el número de sectores por pista, [137] solo este último aumenta la velocidad de transferencia de datos para una determinada velocidad. Dado que el rendimiento de la velocidad de transferencia de datos rastrea solo uno de los dos componentes de la densidad de área, su rendimiento mejora a una velocidad más baja. [138]
Otras consideraciones de rendimiento incluyen el precio ajustado por calidad , el consumo de energía, el ruido audible y la resistencia a los golpes, tanto operativa como no operativa.
Los discos duros actuales se conectan a una computadora a través de uno de varios tipos de bus , incluidos ATA paralelo , Serial ATA , SCSI , Serial Attached SCSI (SAS) y Fibre Channel . Algunas unidades, especialmente las unidades portátiles externas, utilizan IEEE 1394 o USB . Todas estas interfaces son digitales; La electrónica del variador procesa las señales analógicas de los cabezales de lectura / escritura. Las unidades actuales presentan una interfaz coherente con el resto de la computadora, independientemente del esquema de codificación de datos utilizado internamente e independiente del número físico de discos y cabezales dentro de la unidad.
Normalmente, un DSP en la electrónica dentro del variador toma los voltajes analógicos brutos del cabezal de lectura y usa PRML y corrección de errores Reed-Solomon [139] para decodificar los datos, luego envía esos datos a la interfaz estándar. Ese DSP también observa la tasa de error detectada por la detección y corrección de errores , y realiza la reasignación de sectores defectuosos , la recopilación de datos para la tecnología de autocontrol, análisis y generación de informes , y otras tareas internas.
Las interfaces modernas conectan la unidad a la interfaz del host con un solo cable de datos / control. Cada unidad también tiene un cable de alimentación adicional, generalmente directo a la unidad de fuente de alimentación. Las interfaces más antiguas tenían cables separados para las señales de datos y para las señales de control de la unidad.
Debido al espacio extremadamente estrecho entre los cabezales y la superficie del disco, los discos duros son vulnerables a ser dañados por un choque del cabezal , una falla del disco en la que el cabezal raspa la superficie del plato, a menudo quitando la delgada película magnética y causando datos. pérdida. Los choques de cabeza pueden ser causados por fallas electrónicas, una falla repentina de energía, golpes físicos, contaminación del gabinete interno de la unidad, desgaste, corrosión o platos y cabezales mal fabricados.
El sistema de husillo del HDD se basa en la densidad del aire dentro de la caja del disco para sostener los cabezales a su altura de vuelo adecuada mientras el disco gira. Los discos duros requieren un cierto rango de densidades de aire para funcionar correctamente. La conexión con el entorno exterior y la densidad se produce a través de un pequeño orificio en el recinto (de unos 0,5 mm de ancho), normalmente con un filtro en el interior (el filtro de ventilación ). [140] Si la densidad del aire es demasiado baja, entonces no hay suficiente sustentación para la cabeza voladora, por lo que la cabeza se acerca demasiado al disco y existe el riesgo de que la cabeza se caiga y se pierdan datos. Se necesitan discos presurizados y sellados especialmente fabricados para un funcionamiento fiable a gran altitud, por encima de unos 3.000 m (9.800 pies).[141]Los discos modernos incluyen sensores de temperatura y ajustan su funcionamiento al entorno operativo. Los orificios de ventilación se pueden ver en todas las unidades de disco; por lo general, tienen una pegatina junto a ellos, advirtiendo al usuario que no cubra los orificios. El aire dentro de la unidad de operación también se mueve constantemente, siendo barrido en movimiento por la fricción con los platos giratorios. Este aire pasa a través de un filtro de recirculación interna (o "recirculación") para eliminar cualquier contaminante sobrante de la fabricación, cualquier partícula o producto químico que pueda haber entrado de alguna manera en el recinto y cualquier partícula o desgasificación generada internamente durante el funcionamiento normal. La presencia de humedad muy alta durante períodos prolongados de tiempo puede corroer los cabezales y los platos. Una excepción a esto están sellados herméticamente,Discos duros llenos de helio que eliminan en gran medida los problemas ambientales que pueden surgir debido a la humedad o los cambios de presión atmosférica. HGST introdujo estos discos duros en su primera implementación exitosa de gran volumen en 2013.
En el caso de las cabezas magnetorresistivas gigantes (GMR) en particular, un choque menor de la cabeza debido a la contaminación (que no elimina la superficie magnética del disco) aún resulta en un sobrecalentamiento temporal de la cabeza, debido a la fricción con la superficie del disco, y puede hacer que los datos sean ilegibles. durante un breve período hasta que la temperatura del cabezal se estabilice (lo que se denomina "aspereza térmica", un problema que puede resolverse parcialmente mediante un filtrado electrónico adecuado de la señal de lectura).
Cuando falla la placa lógica de un disco duro, la unidad a menudo se puede restaurar al orden de funcionamiento y los datos se pueden recuperar reemplazando la placa de circuito con una de un disco duro idéntico. En el caso de fallas en el cabezal de lectura-escritura, se pueden reemplazar utilizando herramientas especializadas en un entorno libre de polvo. Si los platos del disco no están dañados, se pueden transferir a un gabinete idéntico y los datos se pueden copiar o clonar en una nueva unidad. En caso de fallas en el plato del disco, es posible que sea necesario desmontarlo y obtener imágenes de los platos del disco. [142] Para daños lógicos a los sistemas de archivos , se pueden usar una variedad de herramientas, incluyendo fsck en sistemas similares a UNIX y CHKDSK en Windows , para la recuperación de datos.. La recuperación de daños lógicos puede requerir la talla de archivos .
Una expectativa común es que las unidades de disco duro diseñadas y comercializadas para uso en servidores fallarán con menos frecuencia que las unidades de nivel de consumo que generalmente se usan en computadoras de escritorio. Sin embargo, dos estudios independientes de la Universidad Carnegie Mellon [143] y Google [144] encontraron que la "calificación" de una unidad no se relaciona con la tasa de falla de la unidad.
Un resumen de la investigación de 2011 sobre patrones de falla de disco magnético y SSD por Tom's Hardware resumió los hallazgos de la investigación de la siguiente manera: [145]
A partir de 2019 [update], Backblaze, un proveedor de almacenamiento informó una tasa de fallas anualizada del dos por ciento por año para una granja de almacenamiento con 110,000 HDD listos para usar con una confiabilidad que varía ampliamente entre modelos y fabricantes. [149] Backblaze informó posteriormente que la tasa de fallos para HDD y SSD de edad equivalente era similar. [8]
Para minimizar el costo y superar las fallas de los HDD individuales, los proveedores de sistemas de almacenamiento confían en arreglos de HDD redundantes. Los discos duros que fallan se reemplazan de forma continua. [149] [96]
Más de 200 empresas han fabricado HDD a lo largo del tiempo, pero las consolidaciones han concentrado la producción en solo tres fabricantes en la actualidad: Western Digital , Seagate y Toshiba . La producción se encuentra principalmente en la costa del Pacífico.
Los ingresos mundiales por almacenamiento en disco disminuyeron un ocho por ciento anual, de un máximo de $ 38 mil millones en 2012 a $ 22 mil millones (estimado) en 2019. [48] La producción de almacenamiento en disco duro aumentó un 15% por año durante 2011-2017, de 335 a 780 exabytes por año. [162] Los envíos de HDD disminuyeron un siete por ciento por año durante este período de tiempo, de 620 a 406 millones de unidades. [162] [85] Se proyectó que los envíos de HDD caerían un 18% durante 2018-2019, de 375 millones a 309 millones de unidades. [163] En 2018, Seagate tiene el 40% de los envíos de unidades, Western Digital tiene el 37% de los envíos de unidades, mientras que Toshiba tiene el 23% de los envíos de unidades. [164] El precio medio de venta de los dos principales fabricantes fue de 60 dólares por unidad en 2015. [165]
Los HDD están siendo reemplazados por unidades de estado sólido (SSD) en mercados donde su velocidad más alta (hasta 4950 megabytes ) (4,95 gigabytes ) por segundo para SSD NVMe M.2 (NGFF) , [166] o 2500 megabytes (2,5 gigabytes ) por segundo para unidades de tarjeta de expansión PCIe [167] ), la robustez y la menor potencia son más importantes que el precio, ya que el costo de bits de los SSD es de cuatro a nueve veces mayor que el de los HDD. [17] [16] A partir de 2016 , se informa que las unidades de disco duro tienen una tasa de fallas de 2 a 9% por año, mientras que las SSD tienen menos fallas: 1 a 3% por año. [168][update]Sin embargo, los SSD tienen más errores de datos que no se pueden corregir que los HDD. [168]
Los SSD ofrecen mayores capacidades (hasta 100 TB [46] ) que el HDD más grande y / o densidades de almacenamiento más altas (los SSD de 100 TB y 30 TB se encuentran en cajas de HDD de 2,5 pulgadas pero con la misma altura que un HDD de 3,5 pulgadas [169 ] [170] [171] [172] [173] ), aunque su costo sigue siendo prohibitivo.
Una demostración de laboratorio de un chip NAND 3D de 1.33 Tb con 96 capas (NAND comúnmente utilizado en unidades de estado sólido (SSD)) tenía 5.5 Tbit / in 2 en 2019 [update], [174] mientras que la densidad de área máxima para HDD es 1.5 Tbit / en 2 . La densidad de área de la memoria flash se duplica cada dos años, similar a la ley de Moore (40% por año) y más rápido que el 10-20% por año de los discos duros. A partir de 2018 [update], la capacidad máxima era de 16 terabytes para un HDD, [175] y 100 terabytes para un SSD. [31]Las unidades de disco duro se utilizaron en el 70% de las computadoras de escritorio y portátiles producidas en 2016, y las SSD se utilizaron en el 30%. La proporción de uso de HDD está disminuyendo y podría caer por debajo del 50% en 2018-2019 según un pronóstico, porque las SSD están reemplazando las HDD de menor capacidad (menos de un terabyte) en computadoras de escritorio y portátiles y reproductores de MP3. [176]
El mercado de chips de memoria flash basados en silicio (NAND), utilizados en SSD y otras aplicaciones, está creciendo más rápido que el de los HDD. Los ingresos mundiales de NAND crecieron un 16% anual de $ 22 mil millones a $ 57 mil millones durante 2011-2017, mientras que la producción creció un 45% anual de 19 exabytes a 175 exabytes. [162]
Una vez que controlamos la edad y los días de conducción, los dos tipos de unidades eran similares y la diferencia ciertamente no era suficiente por sí sola para justificar el costo adicional de comprar una SSD frente a una HDD.
La unidad de disco IBM 350 tenía 3,75 MB
Seproporcionan
tres brazos de acceso mecánicamente independientes para cada unidad de archivo, y cada brazo se puede dirigir de forma independiente a cualquier pista del archivo.
Cada unidad de almacenamiento en disco tiene tres brazos de acceso mecánicamente independientes, todos los cuales pueden buscar en al mismo tiempo.
La unidad de almacenamiento en disco puede tener dos brazos de acceso.
Uno es estándar y el otro está disponible como característica especial.
el mercado total direccionable de unidades de disco crecerá de $ 21.8 mil millones en 2019
Gordon Moore: ... la capacidad de la gente del disco magnético para continuar aumentando la densidad es asombrosa, eso se ha movido al menos tan rápido como la complejidad de los semiconductores.
No puede continuar para siempre.
La naturaleza de las exponenciales es que las expulsas y eventualmente ocurre un desastre.
Las inundaciones tailandesas de 2011 casi duplicaron el costo de capacidad de disco / GB durante un tiempo. Rosenthal escribe: “Las dificultades técnicas de migrar de PMR a HAMR significaron que ya en 2010 la tasa de Kryder se había desacelerado significativamente y no se esperaba que volviera a su tendencia en un futuro próximo. Las inundaciones reforzaron esto '.
'PMR CAGR desacelerándose del histórico 40 +% hasta ~ 8-12%' y 'HAMR CAGR = 20-40% para 2015-2020'
Shingled Magnetic Technology is the First Step to Reaching a 20 Terabyte Hard Drive by 2020
A 'shingled magnetic recording' (SMR) drive is a rotating drive that packs its tracks so closely that one track cannot be overwritten without destroying the neighboring tracks as well. The result is that overwriting data requires rewriting the entire set of closely-spaced tracks; that is an expensive tradeoff, but the benefit—much higher storage density—is deemed to be worth the cost in some situations.
Unfortunately, mass production of actual hard drives featuring HAMR has been delayed for a number of times already and now it turns out that the first HAMR-based HDDs are due in 2018. ... HAMR HDDs will feature a new architecture, require new media, completely redesigned read/write heads with a laser as well as a special near-field optical transducer (NFT) and a number of other components not used or mass produced today.
Seagate CTO Dr John Morris told analysts that Seagate has built 55,000 HAMR drives and aims to get disks ready for customer sampling by the end of 2020.
…Seagate expects to start selling HAMR drives in 2016.
The most recent Seagate roadmap pushes HAMR shipments into 2020, so they are now slipping faster than real-time. Western Digital has given up on HAMR and is promising that Microwave Assisted Magnetic Recording (MAMR) is only a year out. BPM has dropped off both companies' roadmaps.
…microwave-assisted magnetic (MAMR) recording technology…sample shipments are due by the end of the year.
Seagate said this week that it had begun commercial shipments of its hard drives featuring heat-assisted magnetic recording (HAMR) technology back in November
The LBAs on a logical unit shall begin with zero and shall be contiguous up to the last logical block on the logical unit.
Example of a pre-assembled external hard disk drive without its enclosure that cannot be used internally on a laptop or desktop due to the embedded interface on its printed circuit board
Most disk drives use 512-byte sectors. [...] Enterprise drives (Parallel SCSI/SAS/FC) support 520/528 byte 'fat' sectors.
According to Nidec's data, unit sales of hard drives declined by around 43% from 2010 to 2018, going from around 650 million units in 2010 to 375 million units in 2018. And it looks like sales will continue to drop in the coming years. Recently Nidec revised its HDD shipment forecast downwards from 356 million drives to 309 million drives in 2019, which will further drop to 290 million units in 2020.
This article's use of external links may not follow Wikipedia's policies or guidelines.(July 2020) |