¿Quién conoce la historia del desarrollo de la memoria?
Antes de comprender el desarrollo de la memoria, debemos explicar algunas palabras comunes, que nos ayudarán a fortalecer nuestra comprensión de la memoria.
RAM significa RandomAccessMemory. Dividido en dos tipos: estático y dinámico.
La SRAM solía ser una especie de memoria principal, que era muy rápida y podía guardar datos sin necesidad de actualizarla. Almacena datos en forma de circuito biestable con una estructura compleja. Necesita utilizar más transistores para formar registros para almacenar datos, por lo que la oblea de silicio que utiliza es bastante grande y el coste de fabricación es bastante alto. Así que ahora SRAM sólo se puede utilizar en cachés que son mucho más pequeñas que la memoria principal. A medida que Intel integró la caché L2 en las CPU (comenzando con Medocino), SRAM perdió su mayor fuente de demanda de aplicaciones. Afortunadamente, con la tendencia de desarrollo de los teléfonos móviles de analógico a digital, finalmente se ha encontrado otra oportunidad para SRAM con ventajas de ahorro de energía. La demanda de servidores de red y enrutadores ha alentado al mercado de SRAM a apenas seguir creciendo.
DRAM, como su nombre indica, es RAM dinámica. La estructura de DRAM es mucho más simple que la de SRAM. La estructura básica consta de tubos MOS y condensadores. Tiene las ventajas de una estructura simple, alta integración, bajo consumo de energía y bajo costo de producción. Es adecuado para fabricar memorias de gran capacidad, por lo que la mayoría de las memorias que utilizamos ahora son DRAM. Entonces, lo siguiente presenta principalmente la memoria DRAM. Antes de describir en detalle la memoria DRAM, primero hablemos del concepto de sincronización. Según el método de acceso a la memoria, se puede dividir en dos tipos: memoria síncrona y memoria asíncrona. El criterio que los distingue es si se pueden sincronizar con el reloj del sistema. El circuito de control de memoria (en el chipset de la placa base, generalmente en el chipset Northbridge) emite la señal de selección de dirección de fila (RAS) y la señal de selección de dirección de columna (CAS) para especificar a qué banco de memoria se accederá. Todas las memorias EDO anteriores a SDRAM usaban este método. El tiempo necesario para leer los datos se expresa en nanosegundos. Cuando la velocidad del sistema aumenta gradualmente, especialmente cuando la frecuencia de 66MHz se convierte en el estándar del bus, la velocidad de la memoria EDO se vuelve muy lenta. La CPU siempre tiene que esperar datos en la memoria, lo que afecta seriamente el rendimiento y la memoria se convierte en un gran cuello de botella. Por lo tanto, aparece SDRAM que sincroniza la frecuencia del reloj del sistema. Clasificación de DRAM: FPDRAM: también llamada memoria de página rápida, muy popular en la era 386. Debido a que la DRAM requiere una corriente constante para almacenar información, la información se perderá una vez que se apague la energía. Su frecuencia de actualización puede alcanzar cientos de veces por segundo, pero FPDRAM usa el mismo circuito para acceder a los datos, por lo que el tiempo de acceso de la DRAM tiene un cierto intervalo de tiempo, lo que hace que su velocidad de acceso no sea muy rápida. Además, en DRAM, dado que el espacio de direcciones de almacenamiento está organizado en páginas, cuando se accede a una determinada página, cambiar a otra página ocupará ciclos de reloj adicionales de la CPU. La mayoría de sus interfaces son del tipo SIMM de 72 líneas. EDO DRAM: EDO-RAM: memoria en modo de datos extendido, similar a FPDRAM, cancela el intervalo de tiempo entre los dos ciclos de almacenamiento de la memoria de salida de datos extendida y la memoria de transmisión, y accede a la página siguiente mientras envía datos a la CPU, por lo que es más rápido que la DRAM normal entre un 15 y un 30 % más rápido. El voltaje de funcionamiento es generalmente de 5 V y su método de interfaz es principalmente del tipo SIMM de 72 líneas, pero también hay del tipo DIMM de 168 líneas. EDODRAM, un tipo de memoria popular en las computadoras 486 y las primeras Pentium. El estándar actual es SDRAM (abreviatura de DRAM síncrona), que como su nombre indica se sincroniza con la frecuencia del reloj del sistema. El acceso a la memoria SDRAM utiliza el modo ráfaga. El principio es que SDRAM agrega lógica de control de sincronización (una máquina de estado) a la memoria dinámica estándar existente y utiliza un único reloj del sistema para sincronizar todos los datos de direcciones y señales de control. El uso de SDRAM no solo puede mejorar el rendimiento del sistema, sino también simplificar el diseño y proporcionar una transmisión de datos de alta velocidad. Funcionalmente, es similar a la DRAM tradicional, que también requiere un reloj para actualizarse. Se puede decir que SDRAM es una DRAM mejorada con una estructura mejorada. Sin embargo, ¿cómo utiliza la SDRAM sus características de sincronización para satisfacer las necesidades de los sistemas de alta velocidad? Como todos sabemos, todas las tecnologías de memoria dinámica que utilizamos se basan en control asíncrono. Cuando se utilizan estas memorias dinámicas asíncronas, el sistema necesita insertar algunos estados de espera para satisfacer las necesidades de las memorias dinámicas asíncronas. En este momento, el tiempo de ejecución de la instrucción suele estar determinado por la velocidad de la memoria, en lugar de por la velocidad máxima que el propio sistema puede alcanzar.
Por ejemplo, cuando se almacenan datos continuos en la caché, una memoria de página rápida con una velocidad de 60 ns requiere un tiempo de ciclo de página de 40 ns, cuando la velocidad del sistema funciona a 100 MHz (un ciclo de reloj es de 10 ns), cada acceso a datos debe esperar; durante 4 ciclos de reloj ! Usando SDRAM, este tiempo se puede evitar debido a su naturaleza sincrónica. Otra característica importante de la estructura SDRAM es que admite la apertura de dos columnas de direcciones DRAM al mismo tiempo. Los accesos a memoria entre dos bancos abiertos pueden intercalarse. Generalmente, la columna preestablecida o activa se puede ocultar durante el acceso al banco, es decir, se puede preestablecer un banco mientras se lee o se escribe. De acuerdo con esto, se pueden lograr velocidades de datos fluidas de 100 MHz al leer o escribir en todo el dispositivo. Debido a que la velocidad de la SDRAM limita la velocidad del reloj del sistema, su velocidad se calcula en MHz o ns. La SDRAM debe ser al menos tan rápida como la velocidad del reloj del sistema. El acceso a la SDRAM generalmente ocurre en cuatro ciclos de ráfaga consecutivos. El primer ciclo de ráfaga requiere cuatro ciclos de reloj del sistema, y los ciclos de ráfaga segundo a cuarto requieren solo 1 ciclo de reloj del sistema. La representación numérica es la siguiente: 4-1-1-1. Por cierto, BEDO (BurstEDO) también se llama Burst Edo Memory. De hecho, su principio y rendimiento son similares a los de la SDRAM porque el chipset de Intel admite SDRAM y debido al liderazgo de mercado de Intel, la SDRAM se ha convertido en el estándar del mercado.
Dos tipos de interfaz de DRAMR Hay dos tipos de interfaz principales de DRAM, los primeros SIMM y los DIMM estándar actuales. SIMM es la abreviatura de Single-InLineMemoryModule. Es un módulo de memoria de contacto de un solo lado y es un método de interfaz de memoria común en las PC 486 y anteriores. Las primeras PC (antes de 486) usaban principalmente interfaces SIMM de 30 pines, mientras que Pentium usaba principalmente interfaces SIMM de 72 pines o coexistían con tipos de interfaz DIMM. SIMM es la abreviatura de módulo de memoria dual en línea, que es un módulo de memoria de contacto bilateral, lo que significa que hay contactos de interfaz de datos en ambos lados de la placa enchufable de este tipo de memoria de interfaz. Este tipo de memoria de interfaz se usa ampliamente en las computadoras modernas, generalmente de 84 pines, pero debido a que es bilateral, un * * * tiene 84 × 2 = 168 contactos de línea, por lo que la gente suele llamar a esta memoria 668. La memoria DRAM suele tener 72 líneas, la memoria EDO-RAM tiene 72 líneas y 168 líneas, y la memoria SDRAM suele tener 168 líneas. En los albores del nuevo siglo, los nuevos estándares de memoria también han traído enormes cambios al hardware de las computadoras. La tecnología de fabricación de computadoras se ha desarrollado hasta el límite del gigabit, lo que puede aumentar la frecuencia de reloj de los microprocesadores (CPU). La memoria correspondiente también debe mantenerse al día con la velocidad del procesador. Ahora existen dos nuevos estándares, la memoria DDRSDRAM y la memoria Rambus. La competencia entre ellos se convertirá en el núcleo de la competencia en el mercado de memorias para PC. DDRSDRAM representa la evolución gradual de la memoria. Rambus representa un cambio importante en el diseño de ordenadores. Adopte una visión más amplia. DDRSDRAM es un estándar abierto. Sin embargo, Rambus es una patente. El ganador entre ellos tendrá un impacto enorme y de largo alcance en la industria de fabricación de computadoras.
La frecuencia operativa de RDRAM ha mejorado enormemente, pero este cambio estructural implica cambios integrales que incluyen conjuntos de chips, fabricación de DRAM, empaquetamiento, pruebas e incluso PCB y módulos. ¿Cómo se desarrollarán las estructuras DRAM de alta velocidad en el futuro?
¿Puede el chipset 820 reensamblado y reeditado de Intel realmente llevar la RDRAM a la corriente principal como se espera? PC 133 SDRAM: PC 133 SDRAM es básicamente una extensión de PC100SDRAM. Independientemente de la fabricación, el embalaje, los módulos y los conectores de la DRAM, las especificaciones anteriores continúan. Su equipo de producción es el mismo, por lo que el costo de producción es similar al de la PC100SDRAM. Estrictamente hablando, la única diferencia entre los dos es que bajo la misma tecnología de proceso, existe un procedimiento de "cribado" adicional para seleccionar partículas con una velocidad de 133MHz. Si se utiliza con un conjunto de chips que puede admitir una frecuencia externa de 133 MHz y la frecuencia del bus frontal de la CPU se aumenta a 133 MHz, el ancho de banda de la DRAM se puede aumentar a más de 1 GB/segundo, mejorando así el rendimiento general del sistema.
DDR-SDRAM: DDR SDRAM (Double Data Rate RAM) o SDRAM II, debido a que DDR puede transmitir datos en los flancos ascendente y descendente del reloj, el ancho de banda real aumenta tres veces y el rendimiento de costos mejora considerablemente. En términos de comparación de funciones reales, la PC266DDRSRAM de segunda generación derivada de la PC133 (reloj de 133MHz × 2 veces la transmisión de datos = ancho de banda de 266MHz) no solo mostró un rendimiento promedio de 24,4% superior al de Rambus en el último informe de prueba "Inquiry", sino que También mostró un rendimiento promedio 24,4% superior al de Rambus en el último informe de prueba "Inquiry". La prueba de Micron también superó a otras soluciones de gran ancho de banda, lo que demuestra plenamente el rendimiento de DDR. Direct Rambus-DRAM: El diseño de Rambus DRAM es muy diferente al de las DRAM anteriores. Su microcontrolador es diferente al controlador de memoria general, lo que hace que el chipset tenga que ser rediseñado para cumplir con los requisitos. Además, la interfaz del canal de datos también es diferente de la memoria normal. Rambus transmite datos en dos canales de datos, 8 bits por canal (9 bits con ECC). Aunque es más estrecha que los 64 bits de la SDRAM, su frecuencia de reloj puede alcanzar los 400 MHz y los datos se pueden transmitir en los flancos ascendente y descendente del reloj, por lo que puede alcanzar un ancho de banda máximo de 1,6 GB/segundo.
Comparación completa del ancho de banda de datos de varias especificaciones DRAM: en términos de ancho de banda de datos, la velocidad máxima de transferencia de datos del PC100 tradicional puede alcanzar los 800 MB/segundo cuando la frecuencia del reloj es de 100 MHz. Si la DRAM se fabrica con hilos avanzados de 0,25 micrones, la mayoría de los cuales pueden "filtrar" partículas PC133 con una frecuencia de reloj de 133 MHz, la velocidad máxima de transferencia de datos se puede aumentar nuevamente a 1,06 GB/segundo. Siempre que la CPU y el chipset puedan cooperar, se puede mejorar el rendimiento general del sistema. Además, en lo que respecta a DDR, dado que puede transmitir datos tanto en el flanco ascendente como en el descendente del reloj, a la misma frecuencia de reloj de 133 MHz, su transmisión máxima de datos se incrementará considerablemente al doble, alcanzando el nivel de 2,1,6 GB/segundo El rendimiento es incluso superior al que puede alcanzar actualmente el Rambus de 1,6 GB/s.
Método de transmisión: la SDRAM tradicional utiliza transmisión de datos en paralelo y Rambus utiliza un método de transmisión en serie especial. En el modo de transmisión en serie, todas las señales de datos entran y salen, lo que puede reducir el ancho de banda de datos a 16 bits y aumentar considerablemente la frecuencia del reloj operativo (400 MHz), pero también crea limitaciones en el diseño de transmisión de datos del módulo. Es decir, en modo serie, si uno de los módulos se daña o se forma un circuito abierto, todo el sistema no arrancará con normalidad. Por lo tanto, para una placa base con módulos de memoria Rambus, se deben insertar los tres juegos de ranuras de expansión de memoria. Si los módulos Rambus son insuficientes, solo existen módulos RDRAM (Módulos de memoria continua; C-RIMM), utilizados exclusivamente para proporcionar conexión en serie de señales y transmisión de datos fluida. Diseño de módulos y PCB: dado que Rambus opera a una frecuencia de hasta 400 MHz, es muy diferente de SDRAM en términos de diseño de circuitos, disposición de circuitos, empaquetado de partículas, diseño de módulos de memoria, etc. En términos de diseño del módulo, el módulo de memoria compuesto por RDRAM se llama RIMM (rambusinemmemorymodule). El diseño actual puede estar compuesto por diferentes números de partículas RDRAM como 4, 6, 8, 12, 16, etc. Aunque el número de pines ha aumentado a 184, la longitud de todo el módulo es equivalente a la longitud del DIMM original. Además, en términos de diseño, cada canal de transmisión de Rambus puede transportar un número limitado de partículas de chip (hasta 32), lo que limitará la capacidad del módulo de memoria RDRAM. En otras palabras, si se ha instalado un módulo RIMM de partículas de 16 RDARM, si desea ampliar la memoria, solo podrá instalar hasta un módulo de 16 RDARM. Además, dado que el RDARM opera a alta frecuencia y genera altas temperaturas, el módulo RIMM debe diseñarse con un disipador de calor, lo que también aumenta el costo del módulo RIMM.
Embalaje de partículas: la tecnología de envasado DRAM se ha mejorado desde los primeros DIP y SOJ hasta TSOP. A juzgar por los módulos SDRAM convencionales, a excepción de la tecnología TinyBGA iniciada por Shengchuang Technology y el modo de empaquetado BLP iniciado por Qiaofeng Technology, la mayoría de ellos todavía usan la tecnología de empaquetado TSOP.
Con la introducción sucesiva de DDR y RDRAM, las frecuencias de memoria han aumentado a niveles más altos y la tecnología de empaquetado TSOP gradualmente no ha podido cumplir con los requisitos del diseño de DRAM.
A juzgar por la RDRAM promovida por Intel, utiliza una nueva generación de empaquetado μBGA. Se cree que otros paquetes DRAM de alta velocidad como DDR utilizarán el mismo o diferente método de empaquetado BGA en el futuro. Aunque RDRAM ha logrado un gran avance en la frecuencia de reloj y ha mejorado efectivamente el rendimiento de todo el sistema, sus especificaciones son muy diferentes de la SDRAM convencional actual. No solo es incompatible con los conjuntos de chips del sistema existentes, sino que también está monopolizada por Intel. Incluso en el diseño del módulo DRAM, no solo se adopta el último método de empaquetado BGA, sino que también se adopta el estándar estricto de la placa de 8 capas en el diseño de la placa de circuito, sin mencionar la enorme inversión en equipos de prueba. La mayoría de los fabricantes de módulos y DRAM no se atreven a hacer un seguimiento apresurado.
Además, debido a que Rambus es un estándar patentado, los fabricantes que quieran producir RDRAM primero deben obtener la certificación Rambus y pagar altas tarifas de patente. No sólo aumenta la carga de costos para los fabricantes de DRAM, sino que también les preocupa perder sus capacidades de control de especificaciones originales al formular estándares de memoria de próxima generación.
Dado que el módulo RIMM solo puede tener un máximo de 32 partículas, las aplicaciones Rambus son limitadas y solo se pueden usar en servidores de nivel básico y PC avanzados. Quizás PC133 no pueda competir con Rambus en términos de rendimiento, pero una vez que se integra la tecnología DDR, su ancho de banda de datos puede alcanzar 2,1 GB/segundo, lo que no sólo está por delante del estándar de 1,6 GB/segundo de Rambus, sino también debido a su estándar abierto y mucho más alto En cuanto a la compatibilidad de Rambus, se estima que causará un gran daño a Rambus. Es más, con el fuerte apoyo de la alianza de la provincia de Taiwán con VIA y AMD, no está claro si Intel podrá emitir pedidos como de costumbre. Al menos en los PC de bajo precio y en los PC de red, Rambus tendrá un mercado pequeño.
Conclusión: Aunque Intel ha adoptado varios diseños estratégicos y contramedidas para restaurar el impulso de Rambus, después de todo, los productos con especificaciones innovadoras como Rambus tienen muchos problemas inherentes que son difíciles de superar. Quizás Intel pueda resolver el problema técnico cambiando el modo de ranura RIMM de la placa base o proponiendo una solución transitoria para la coexistencia completa de SDRAM y RDRAM (S-RIMM, RIMMRiser). Pero cuando se trata de controlar los costos de producción en masa, Intel no lo monopolizará. Además, con la tendencia de la red, las aplicaciones informáticas serán cada vez más baratas. Queda por comprobar si la demanda del mercado está interesada en Rambus. Por el lado de la oferta, a juzgar por las especificaciones iniciales de VCMSDRAM de NEC, la actitud conservadora de Samsung y otros fabricantes de DRAM hacia Rambus y la inversión insuficiente en embalaje y equipos de prueba relacionados, se estima que los módulos de memoria Rambus aún carecerán de competitividad de precios con PC133 o incluso DDR. antes de fin de año. A largo plazo, la arquitectura Rambus puede convertirse en algo común, pero ya no debería dominar el mercado. La arquitectura SDRAM (PC133, DDR) debería funcionar muy bien en términos de bajo costo y amplios campos de aplicación. Se cree que el futuro mercado de DRAM será una situación en la que coexistirán múltiples estructuras.
La última noticia es que RambusDRAM, que se espera que se convierta en la fuerza principal de la próxima generación de memoria, está un poco frustrado por el retraso en el lanzamiento del chipset. En vista de la estandarización de DDR SDRAM, muchos fabricantes de semiconductores y computadoras en el mundo han formado el campo AMII (Advanced Memory International, Inc.). Luego decidió promover activamente la estandarización de las especificaciones DDRSDRAM PC1600 y PC2100, que son más de 10 veces más rápidas que PC200 y PC266, llevando la batalla por el dominio de la memoria entre RambusDRAM y DDRSDRAM a una nueva situación. AMD, el segundo mayor fabricante de microprocesadores del mundo, decidió que su procesador Athlon utilizará DDRSDRAM con especificación PC266 y decidió desarrollar un conjunto de chips compatible con DDRSDRAM antes de mediados de este año, lo que animó enormemente al campo de DDRSDRAM. Es probable que la industria mundial de la memoria cambie el foco de las inversiones futuras de Rambus DRAM a DDRSDRAM.
En resumen, el impulso de desarrollo de DDRSDRAM este año es mayor que el de RAMBUS. Además, el costo de producción de DDR SDRAM es solo 1,3 veces mayor que el de SDRAM, lo que es más ventajoso en términos de costo de producción. Además de DDR y RAMBUS, existen otros productos de memoria prometedores en el futuro. Éstos son algunos de ellos: SLDRAM (SyncLinkDRAM): SLDRAM es probablemente el competidor más cercano a RDRAM en términos de velocidad.
SLDRAM es una arquitectura SDRAM mejorada y ampliada que amplía la estructura actual de 4 bancos a 16 bancos y agrega nuevas interfaces y circuitos lógicos de control.
. SLDRAM utiliza cada flanco de pulso para transferir datos como SDRAM.
VirtualChannelDRAM: Canal Virtual "Virtual Channel" es un registro entre la unidad de almacenamiento y la parte de control de almacenamiento instalada en el chip de control principal, que equivale a un caché. Después de usar la tecnología VC, al leer y escribir en la memoria externa, cada unidad en el chip de memoria ya no se lee y escribe directamente, sino que es reemplazada por un agente VC. No se puede subestimar la función de almacenamiento en caché del propio VC. Cuando la capacidad del chip de memoria es actualmente la más común de 64 Mbit, el ancho de banda entre el VC y la unidad de memoria ha alcanzado los 1024 bits. Incluso sin considerar el aumento de velocidad generado por el procesamiento paralelo front-end/backend, la estructura básica de "primero mover datos desde la unidad de memoria al VC de alta velocidad y luego leer y escribir desde el exterior" es en sí misma muy adecuada para mejorar la Velocidad general de la memoria. Cada tarjeta de memoria puede transportar varios VCS y el número total de VCS en el producto de 64 Mbit es 16. Cada VC no solo puede corresponder a un MemoryMaster diferente (aquí se refiere a la CPU, el chip Southbridge, varias tarjetas de expansión, etc.), sino que, cuando sea necesario, también se pueden agrupar múltiples canales de VC para corresponder a una memoria que ocupa una cantidad particularmente grande. control maestro del ancho de banda. Por lo tanto, VC-SDRAM puede garantizar una transferencia de datos continua y eficiente al realizar múltiples tareas simultáneamente. Otra característica de VC-SDRAM es que mantiene la compatibilidad de pines con la SDRAM tradicional y los fabricantes pueden hacer que la placa base lo admita sin rediseñar el cableado de la placa base. Sin embargo, debido a que es diferente del método de control SDRAM tradicional, requiere el soporte del chipset de control antes de poder usarse. Los conjuntos de chips que actualmente admiten VC-SDRAM incluyen las series VIA, ApolloMVP4 y ApolloPro133 de SiS 630.
/index.php? B2 &oldid=3348