Las nuevas empresas de chips de IA más destacadas del mundo en 2018
Wave Computing avanzó mucho en 2018: lanzó su primera unidad de procesamiento de flujo de datos, adquirió MIPS, creó MIPS Open y envió sus primeros sistemas a un puñado de clientes. Si bien la arquitectura Wave tiene algunas características muy interesantes, esperamos recibir comentarios de los usuarios sobre experiencias del mundo real a escala.
Wave no es un acelerador enchufado al servidor, es un procesador independiente para computación gráfica. Este enfoque tiene ventajas y desventajas. En el lado positivo, Wave no sufre los cuellos de botella de memoria que enfrentan los aceleradores como las GPU. En el lado negativo, la instalación de equipos Wave será una actualización completamente nueva que reemplazará por completo a los servidores X86 tradicionales, lo que los convertirá en un competidor para todos los fabricantes de servidores.
No creo que Wave pueda vencer a NVIDIA en ningún momento, pero la arquitectura está muy bien diseñada y la compañía ha dicho que pronto recibirá comentarios de los clientes.
Figura 1: Wave es un sistema construido a partir de la "DPU" de 4 nodos que se muestra arriba. Cálculo de fluctuación
Graphcore
Graphcore es una startup unicornio británica con una sólida financiación (3.100 millones de dólares en financiación, valoración actual de 170 millones de dólares) y un equipo en todo el mundo. Está construyendo una nueva arquitectura de procesador de gráficos con memoria y unidades lógicas en el mismo chip, lo que debería permitir un mayor rendimiento. La fecha de lanzamiento del producto del equipo aún no está clara, pero declararon en abril del año pasado que estaba "casi listo para su lanzamiento". La información más reciente de 5438+ de febrero indica que la producción comenzará pronto.
La lista de inversores de Graphcore es impresionante, e incluye a Sequoia Capital, BMW, Microsoft, Bosch y Dell Technologies.
Conocí la estructura de la empresa y quedé muy impresionado. Desde dispositivos de borde hasta paquetes de dos chips “Colossus” para entrenamiento e inferencia en el centro de datos. En el reciente evento NeurIPS, Graphcore demostró su RackScale IPU Pod, que ofrece más de 16 petaflops de potencia informática en un rack de 32 servidores. Aunque la compañía suele afirmar que ofrecerá un rendimiento 100 veces mejor que las mejores GPU de su clase.
Según Graphcore, el servidor 4-Colossus GC2 (8 chips) puede ofrecer 500 TFlops (tera de operaciones por segundo) de rendimiento de precisión mixta. Una sola NVIDIA V100 puede ofrecer 125 TFlops, por lo que, en teoría, cuatro V100 pueden ofrecer el mismo rendimiento.
Como es habitual, las diferencias se encuentran en los detalles. El rendimiento máximo del V100 solo está disponible cuando el código se refactoriza para realizar la multiplicación de matrices 4x4 de TensorCore, una limitación que la arquitectura Graphcore evita inteligentemente. Sin mencionar que el V100 consume 300 vatios de potencia y mucho dinero en efectivo.
Además, Graphcore admite la interconexión en chip y los métodos de "memoria en chip", que pueden lograr un rendimiento excelente más allá de la aprobación de referencia de TFlops. En algunas redes neuronales, como las redes generativas adversarias, la memoria es el cuello de botella.
De nuevo habrá que esperar a que usuarios reales evalúen esta arquitectura con aplicaciones reales. Aun así, la lista de inversores, expertos y la altísima valoración de Taiwán de Graphcore me dicen que esto podría ser algo bueno.
Figura 2: Graph Core muestra fotografías procesadas a partir del conjunto de datos de ImageNet. La visualización puede ayudar a los desarrolladores a saber dónde encaja su proceso de formación en el ciclo de procesamiento.
Havana Labs
La startup israelí Habana Labs anunció en la primera Cumbre de Hardware de IA en septiembre pasado que se estaba preparando para lanzar el primer chip para inferencia, y su rendimiento récord se utiliza para Procesamiento de imágenes de redes neuronales convolucionales. Los resultados muestran que el procesador clasifica 65,438+05,000 imágenes por segundo en la base de datos de clasificación de imágenes Resnet50, que es aproximadamente un 50% más que NVIDIA T4, y consume solo 65,438+000 vatios.
En febrero de 2018, la última ronda de financiación de Havana Lab fue liderada por Intel Ventures, con la participación de WRV Capital, Bessemer Venture Partners y Battery Ventures. La financiación de la empresa aumentó de los 45 millones de dólares anteriores a 75 millones de dólares. .
Se informa que parte del nuevo financiamiento de Habana Labs se utilizará para transmitir su segundo chip llamado Gaudí, que se centrará en el mercado de capacitación y se dice que se expandirá a más de 65,438+0, 000 procesadores. .
Otras startups
Sé que hay más de 40 empresas en el mundo diseñando chips de entrenamiento e inferencia para inteligencia artificial. Encuentro que la mayoría de las empresas están haciendo FMA simple (acumulación multiplicada de punto flotante) y matemáticas de precisión mixta (8 bits para números enteros y 16 y 32 bits para punto flotante). No me sorprendería, ya que este enfoque es relativamente fácil de implementar, obtendrá algunos resultados, pero no proporcionará una ventaja arquitectónica duradera para Nvidia, Intel y un puñado de nuevas empresas que están haciendo algo diferente.
Aquí hay algunas empresas que me llamaron la atención:
Nuevas empresas chinas de chips de IA
China ha estado tratando de encontrar una manera de deshacerse de los semiconductores estadounidenses y un acelerador de IA podría brindarle la oportunidad que había estado buscando. China se ha fijado el objetivo de construir una industria de inteligencia artificial valorada en billones de dólares para 2030. Desde 2012, los inversores han invertido más de 4.000 millones de dólares en nuevas empresas.
Cambrian Technology, valorada en 2.500 millones de dólares, es una empresa unicornio china que ha lanzado un chip de IA de tercera generación. Cambrian afirma que puede proporcionar un mejor rendimiento de IA que NVIDIA V100 con un menor consumo de energía, y también vende su IP de IA para instalarla en los procesadores de Huawei Kirin 970 y Kirin 980 como hardware de aceleración de IA.
SenseTime, quizás la startup de inteligencia artificial más valiosa, es mejor conocida por popularizar las cámaras de vigilancia inteligentes en China. El número de estas cámaras de seguridad supera los 654,38+75 mil millones, incluidas las cámaras producidas por otras empresas. SenseTime se fundó en Hong Kong. Su última ronda de financiación alcanzó los 600 millones de dólares, liderada por Alibaba. Según los informes, la startup está valorada actualmente en 4.500 millones de dólares.
SenseTime ha establecido asociaciones estratégicas con grandes empresas como Alibaba, Qualcomm, Honda e incluso Nvidia. La compañía tiene hoy una supercomputadora que ejecuta alrededor de 8.000 GPU (¿posiblemente suministradas por Nvidia?) y planea construir cinco supercomputadoras más para procesar datos de reconocimiento facial recopilados por millones de cámaras.
Lei Feng. es, a través de Forbes