Red de Respuestas Legales - Derecho empresarial - ¿Cuál es la conexión entre la CPU y los puentes norte y sur?

¿Cuál es la conexión entre la CPU y los puentes norte y sur?

El chip Southbridge es una parte importante del chipset de la placa base. Generalmente se encuentra debajo de la ranura de la CPU en la placa base y cerca de la ranura PCI. Este diseño se basa en el hecho de que hay muchos buses de E/S conectados, lo que resulta conveniente para el cableado alejado del procesador. En comparación con el chip del puente norte, su capacidad de procesamiento de datos no es grande, por lo que el chip del puente sur generalmente no cubre el disipador de calor. El chip del puente sur no está conectado directamente al procesador, pero está conectado al chip del puente norte de cierta manera (diferentes fabricantes tienen diferentes conjuntos de chips, como la arquitectura Intel Hub de Intel y la "maravilla" multiproceso de SIS).

El chip Southbridge es responsable de la comunicación entre el bus PCI, USB, LAN, ATA, SATA, controlador de audio, controlador de teclado, controlador de reloj en tiempo real, administración avanzada de energía y otros buses de E/S. El Puente Norte es responsable del intercambio de datos entre la CPU, la memoria y la tarjeta gráfica, y el Puente Sur es responsable del intercambio de datos entre la CPU, el bus PCI y los dispositivos externos.

El puente Norte-Sur es una arquitectura de chipset de placa base muy popular y con una larga historia. Hay dos chips de gran superficie en la placa base en la estructura del puente norte-sur. El chip Northbridge cerca de la CPU es el principal responsable de controlar el intercambio de datos entre la tarjeta gráfica AGP, la memoria y la CPU. Cerca de la ranura PCI se encuentra el chip Southbridge, que es el principal responsable del intercambio de datos de disqueteras, discos duros, teclados y tarjetas adicionales. La arquitectura tradicional de puente norte-sur se conecta a través del bus PCI. La frecuencia operativa del bus PCI comúnmente utilizada es de 33,3 MHz y el ancho de transmisión es de 32 bits, por lo que la velocidad de transferencia de datos máxima teórica es de solo 133 MB/s/s. Debido al disfrute del bus PCI, la velocidad de transmisión de los subsistemas y. otros dispositivos periféricos continúan aumentando En ese momento, la baja tasa de transferencia de datos entre los puentes norte y sur de la placa base se convirtió gradualmente en un cuello de botella que afectaba el rendimiento general del sistema. Por lo tanto, a partir del Intel i810, los fabricantes de chipsets comenzaron a buscar una solución que pudiera aumentar el ancho de banda de las conexiones del puente norte y sur.

Intel: Arquitectura del Centro de Aceleración AHA La Arquitectura del Centro de Aceleración (AHA) de Intel apareció por primera vez en su famoso chipset integrado i810. En el chipset i810, Intel cambió la arquitectura clásica de puente norte y sur y adoptó una nueva arquitectura de centro de aceleración. La arquitectura del centro de aceleración consta de GMCH (Centro de control de gráficos y memoria) e ICH (Hub de controlador de E/S), que son equivalentes al chip Southbridge tradicional, así como el recién agregado FWH (Hub de firmware, que es equivalente a BIOS ROM). )* * * 3 chips en la arquitectura tradicional.

En esta nueva arquitectura del centro de aceleración, los dos chips no están conectados a través del bus PCI, sino a través de un bus dedicado, que puede proporcionar dos veces el ancho de banda de. De esta manera, todos los dispositivos, incluido el bus PCI, pueden comunicarse directamente con la CPU. El controlador de memoria y el controlador de gráficos en el chipset Intel 810 también pueden utilizar el bus "modo 2" de 8-8 bits. haciendo que el ancho de banda de datos alcance los 266 MB/s, y la mayoría de sus conjuntos de chips i8xx posteriores también adoptan esta arquitectura.

Este sistema en realidad no es muy diferente de la arquitectura del puente norte-sur. Separa principalmente la parte de control PCI. de Northbridge se separa (Northbridge se convierte en GMCH), e ICH es responsable de funciones como PCI que anteriormente manejaba Southbridge. También utiliza una arquitectura de centro de aceleración para integrar el controlador AC'97, el controlador IDE, puertos USB duales y conexiones directas. se establecen entre tarjetas complementarias PCI Dado que la arquitectura Intel Core proporciona 266 MB por segundo de ancho de banda PCI, se puede transferir cada vez más información entre el controlador de E/S y el controlador de memoria, junto con la optimización de las reglas de arbitraje. El sistema puede ejecutar más subprocesos al mismo tiempo, logrando así una mejora de rendimiento más obvia. La velocidad de transmisión entre GMCH e ICH alcanza DDR de 8 bits a 133 MHz (equivalente a 266 MHz y 266 MB/s), lo que mejora enormemente el bus PCI y el bus USB. y El ancho de banda entre el canal IDE y la memoria y el procesador del sistema.

Por supuesto, dado que solo hay un canal entre los dos concentradores, solo un dispositivo puede transmitir datos a la vez, incluidos los dispositivos en PCI. bus. La velocidad máxima de transferencia de datos del dispositivo sigue siendo 133 MB/s/s, por lo que, hasta cierto punto, la solución actual de Intel no es perfecta. Por lo tanto, Intel también está buscando una nueva solución, que es 3G IO (entrada de tercera generación). /salida) tecnología.

3GIO, también conocida como tecnología Arahahoe y Serial PCI, es una tecnología futura desarrollada por Intel que proporciona conexiones de gran ancho de banda y alta velocidad entre subsistemas informáticos y periféricos de E/S.

VIA: Tecnología puente V-Link VIA también ha lanzado la tecnología V-Link con prestaciones similares. Esta tecnología apareció por primera vez en su chipset DDR con el Apollo Pro266. Arquitectónicamente, Pro266 todavía sigue la estructura tradicional del puente norte-sur, que consta del puente norte VT8633 y el puente sur VT8233. Pero a diferencia de la arquitectura anterior, VIA abandonó el bus PCI tradicional para las comunicaciones del puente norte y sur y utilizó su propia arquitectura de centro de aceleración V-Link. En la arquitectura V-Link, el bus PCI pasa a estar aguas abajo del puente sur y se convierte en una conexión igual con el canal IDE, AC'97 Link, USB y E/S.

El bus V-Link sigue siendo un bus de 32 bits estilo PCI, pero su frecuencia operativa se ha incrementado de 33MHz a 66MHz, por lo que el ancho de banda entre los puentes norte y sur se ha incrementado a 266MHz. En comparación con el ancho de banda de 133 MHz del bus PCI tradicional, se puede decir que se ha duplicado. En el pasado, la mayor parte del ancho de banda del bus PCI estaba ocupado por dispositivos IDE y no se podía garantizar la velocidad de comunicación entre los puentes norte y sur, lo que afectaba en cierta medida el rendimiento del sistema, especialmente cuando la transmisión IDE La tarea era pesada. La tecnología V-Link separa la comunicación entre los puentes norte y sur del ocupado bus PCI, lo que garantiza de manera efectiva una transferencia de información rápida y completa dentro del chipset y ayuda a mejorar el rendimiento del sistema. En futuros planes de desarrollo, VIA planea aumentar aún más la frecuencia de V-Link a 133MHz, duplicando su ancho de banda a 533MHz.

Además de la tecnología de mejora del ancho de banda mencionada anteriormente, VIA también ha diseñado la última generación de estándares de arquitectura: HDI (tecnología de interconexión diferencial de alto ancho de banda). La estructura HDIT proporciona una plataforma de diseño básico de chip flexible y rentable para la mayoría de los fabricantes OEM de sistemas. En los diseños actuales de PC de escritorio y móviles, HDI permite que algunas especificaciones y estándares técnicos avanzados, como la interfaz de memoria DDR 266, AGP 4×, bus V-Link de 533 MB/s, se combinen con chips HDI Southbridge altamente integrados. En el diseño de estaciones de trabajo y servidores que requieren gran flexibilidad, al configurar el modo de trabajo de HDIT, se puede lograr el mejor efecto de la interfaz de memoria y la configuración del puerto AGP en el chip HDIT Northbridge, duplicando o incluso cuadriplicando el ancho de banda de datos de la memoria, con un El ancho de banda máximo puede alcanzar 4,2 GB/s

SiS: arquitectura MuTIOL La arquitectura de enlace de E/S multiproceso (MuTIOL) de los sistemas de silicio apareció por primera vez en su chipset SiS635. Aunque la serie de silicio lo trata como una estructura de un solo chip, todavía existe una distinción de "norte y sur" dentro del SiS635. En los microcontroladores SiS630 y anteriores, el bus PCI también se utiliza como canal de datos para la conexión norte-sur y, para resolver el problema del ancho de banda, se introduce una arquitectura de enlace de E/S multiproceso en el sistema de silicio. Como puede verse en su diagrama de arquitectura, el enlace de E/S multiproceso es responsable de la transmisión de datos de ocho dispositivos, a saber: bus PCI (todos los dispositivos anteriores son dispositivos del enlace de E/S multiproceso), el primer canal IDE, segundo canal IDE, primer canal USB, segundo canal USB, audio AC'97, módem de software V.90, controlador de acceso a medios (MAC). En términos de diseño específico, el enlace de E/S multiproceso consta en realidad de 8 canales de datos independientes, cada canal funciona a una frecuencia de 33,3 MHz y el ancho de bits de transmisión de datos es de 32 bits. Una canalización de este tipo equivale al ancho de banda de un bus PCI de 32 bits de 133 MB/s. El total de 8 canalizaciones es de 1,2 GB/s, por lo que el ancho de banda puede superar los 65438. En comparación con el canal Link de Intel y VIA, el ancho de banda total ha mejorado significativamente, pero no es tan bueno como los 266 MB/s de cada canal del canal Link, es decir, la velocidad de transmisión máxima de cada dispositivo. Todavía está limitado a 133 MB/s. Otros dispositivos excepto IDE son todos dispositivos de baja velocidad y el ancho de banda exclusivo de 133 MB/s tiene poca importancia para ellos.

Sin embargo, el diseño de canales discretos también tiene sus desventajas. La razón por la que el bus PCI y los carriles Hub Link o V-Link solo permiten que un dispositivo transmita datos a la vez es porque solo hay una línea y la frecuencia utilizada para la transmisión es fija.

Este problema se puede solucionar muy bien si se utiliza un canal independiente. Aunque en el lado de la memoria de DMA, solo se puede dar servicio a un dispositivo a la vez, el siguiente dispositivo se puede dar servicio inmediatamente sin esperar a que se borre el bus después de que se complete el servicio y solicitudes de datos de otros dispositivos (uno o más). se puede enviar al final del control de memoria sin interferir con el trabajo del dispositivo actual (creo que estos ocho dispositivos tendrán registros de cola para ordenar tareas), y la siguiente tarea se puede ejecutar inmediatamente después de que se complete la transmisión de datos. Desde esta perspectiva, el diseño de enlaces de E/S multiproceso favorece las operaciones multitarea.

AMD: bus HyperTransport En cuanto a la cuestión de cómo conectar los chips puente norte y sur para aprovechar al máximo el rendimiento de los discos IDE, AMD también ha desarrollado una interfaz de transmisión que se puede aplicar a varios conjuntos de chips de alta velocidad. . Se trata de LDT (Lightning Data Transport), que pasó a llamarse HyperTransport en febrero de 2006, 5438+0. La tecnología HyperTransport fue anunciada por primera vez por AMD en abril de este año y ha recibido el apoyo de muchos fabricantes conocidos, incluidos Nvidia y Alibaba. Esta tecnología tiene como objetivo mejorar la velocidad de transmisión de datos de varios chips IC (incluidas PC, PDA, etc.). En la actualidad, su ancho de banda ha alcanzado los 12,8 GB/s y la velocidad de transmisión es más de 96 veces mayor que la de la tecnología PCI existente.

HyperTransport consta de dos rutas de transmisión de datos unidireccionales punto a punto (una para entrada y otra para salida). El ancho de banda de datos de las dos rutas de transmisión unidireccionales se puede cambiar de manera flexible según el tamaño de los datos, siendo el mínimo de 2 bits y ajustable a 4 bits, 8 bits, 16 bits y 32 bits. HyperTransport funciona a una frecuencia de reloj de 400 MHz, pero utiliza la misma tecnología de activación de frecuencia de reloj dual que DDR, por lo que las velocidades de transferencia de datos pueden alcanzar los 800 MB/s a una frecuencia nominal de 400 MHz. Pero otra característica importante de HyperTransport es que cuando el ancho de los datos no es de 32 bits (4 bytes), también puede lograr el efecto de una transmisión de datos por lotes de 32 bits (4 bytes). Por ejemplo, los datos de 16 bits se transmiten en dos lotes y cuando se utilizan datos de 8 bits, se transmiten en cuatro lotes. Este método de transmisión de datos en paquetes le da a HyperTransport más flexibilidad, con un mínimo de 4 bytes y un máximo de 64 bytes. Mejora enormemente la transmisión rápida de datos y mejora el rendimiento del procesamiento de datos del sistema.

HyperTransport no solo puede transmitir datos a alta velocidad entre chips, sino que también tiene las características de "basado en paquetes", "dos flujos de datos unidireccionales y conexión de datos punto a punto" y "datos elásticos". ancho de banda". El uso del bus HyperTransport puede mejorar el cuello de botella en la transmisión de datos del sistema, proporcionar a los diseñadores de sistemas una base para crear equipos de sistema más eficientes y realmente acelerar la eficiencia operativa de todo el sistema.

La primera aplicación de la tecnología HyperTransport en un chipset apareció en el primer chipset del sistema nForce de NVIDIA. El chipset NForce consta de un procesador de gráficos integrado (IGP) de puente norte y un procesador de comunicaciones y medios (MCP) de puente sur. Para el sistema de chipset nForce de NVIDIA, el bus HyperTransport se utiliza para conectar el MCP, IGP y la CPU. Entre los puentes norte y sur, nForce utiliza un bus de datos síncrono de alta velocidad de 8 bits para obtener un enorme ancho de banda de datos de 800 MB/s entre IGP y MCP sin agregar más pines. Aunque es numéricamente inferior a la arquitectura de enlace de E/S multiproceso de los sistemas de silicio, debido a que HyperTransport tiene las características técnicas de dos flujos de datos unidireccionales, su ganancia de ancho de banda también es bastante significativa. Se cree que puede satisfacer las necesidades de los periféricos. menos dos o tres años.