Red de Respuestas Legales - Derecho empresarial - ¿Puede AR HUD reemplazar el panel de control central?

¿Puede AR HUD reemplazar el panel de control central?

Cuando Elon Musk presentó por primera vez la pantalla de control del Tesla Model S hace 10 años, todos en la sala sabían que se avecinaba una nueva era, ya que el último automóvil utilizó una pantalla para subvertir el teclado físico. El iPhone ha demostrado perfectamente el poder de la "inteligencia". con acciones prácticas. Además, la pantalla de control central de Tesla no sólo reemplaza en forma los botones físicos del automóvil, sino que también subvierte la experiencia interactiva en la cabina del automóvil. Desde entonces, las “pantallas grandes” se han convertido en una característica estándar de los coches inteligentes.

Aún hoy, 10 años después, los fabricantes de automóviles siguen insistiendo en su búsqueda de "pantallas". La última interfaz AITO M5 de Huawei está equipada con un panel de instrumentos LCD completo curvo de 10,4 pulgadas y una pantalla de control central semisuspendido de 15,6 pulgadas. Además de la pantalla de instrumentos de 14,6 pulgadas y la pantalla de control central de 16,9 pulgadas, Gaohe HiPhi X también está equipado con una pantalla del pasajero de 19,9 pulgadas. El último Li ONE realiza una "conexión de cuatro pantallas". Además de crear nuevos actores, las empresas automovilísticas tradicionales también están trabajando duro en la pantalla grande. El último iDrive 8 de BMW utiliza la pantalla flotante curva más grande y clara en la historia de BMW. ¡La pantalla equipada por Mercedes-Benz en su modelo eléctrico estrella, el EQS, alcanza los 1,4 m! Ya sabes, el ancho de este coche es de sólo 1,9 metros.

Pero por otro lado, Tesla, el pionero de la era de la "pantalla grande", también se ha vuelto conservador en su actitud hacia las pantallas de los automóviles. Solo instala pantallas "izquierda y derecha" en sus nuevos vehículos. modelo lanzado versión Slaid "Mobile" con pantalla de 17 pulgadas. Esto hace que la gente se pregunte: ¿Tesla es "incapaz de sobrevivir"? ¿O cree Elon Musk que la tecnología puede volver a abrirse paso?

Durante el Salón del Automóvil de Shanghai 2021, Huawei no solo demostró una impresionante tecnología de conducción autónoma, sino que también lanzó su última tecnología HUD, que puede proyectar marcos de alta definición de 70 pulgadas a una distancia de 7,5 metros, lo que permite a los usuarios Luchando en el automóvil para Las empresas de automóviles en la "pantalla grande" ven una nueva esperanza.

HUD (Head Up Display), también conocido como sistema de visualización frontal, evolucionó a partir de la tecnología de mira óptica de los aviones de combate. Puede proyectar información del vehículo en el parabrisas delantero del mismo, de modo que el El conductor no necesita bajar la cabeza para mirar el instrumento, siempre puede prestar atención a las condiciones de la carretera para garantizar la seguridad en la conducción. Con el desarrollo de la tecnología, el HUD del vehículo solo puede mostrar información básica como la velocidad del vehículo e íconos de recordatorio. Desde el principio, evolucionó gradualmente hasta la etapa en la que el rango de visualización es más grande, la imagen es más clara y puede reemplazar completamente el panel de instrumentos.

El avance de la tecnología de conducción autónoma puede liberar la atención del conductor o del pasajero de la carretera, lo que plantea requisitos más altos para la función de entretenimiento del HUD y también promueve que el HUD tenga una pantalla más grande y más brillante. . Dirección clara para el desarrollo. El HUD de Huawei mencionado anteriormente es esta ruta.

Otro requisito que el desarrollo de la tecnología de conducción autónoma impone al HUD es la integración. El sistema de conducción autónoma debe planificar una ruta de conducción en el espacio virtual establecido después de detectar el entorno circundante. Andrej Karpathy, director del Departamento de Inteligencia Artificial de Tesla, propuso en el Tesla AI Day 2021 que el espacio virtual establecido por el sistema de conducción autónoma requiere una "fusión espacial", es decir, que las posiciones de todos los objetos en la carretera deben ser correctas y "temporales". fusión", es decir, no debe haber ningún Delay.

El espacio virtual establecido por el sistema de conducción autónoma suele mostrarse en la gran pantalla del coche para la supervisión del conductor. Cuando los ojos del conductor abandonan la carretera, se pierde el significado de supervisión, por lo que la integración de información virtual en el HUD y el mundo de visualización se convierte en la mejor solución, y así nació AR-HUD.

AR-HUD comenzó a recibir una atención generalizada cuando se lanzó el nuevo Mercedes-Benz Clase S a principios de 2021, y la flecha voladora se ha convertido en una función de demostración imprescindible para las principales empresas automovilísticas. En la exposición 2022CES que acaba de concluir, AR-HUD también se ha convertido en una nueva vía para que los principales fabricantes compitan con fuerza.

Panasonic ha lanzado AR-HUD 2.0 con tecnología de seguimiento ocular, que puede optimizar la distancia ocular según los cambios en el punto de mirada del conductor, garantizando que no importa cómo el conductor mueva su cabeza y su línea de visión, Puede disfrutar de efectos de navegación AR claros y precisos. Qualcomm Snapdragon Automotive Cockpit Platform presentará la visión por computadora y la tecnología de inteligencia artificial espacial de Phiar para implementar un sistema AR HUD montado en el vehículo que puede percibir el entorno y navegar. CY Vision lanzó el AR-HUD de próxima generación, que presenta pantalla 3D, pantalla de enfoque dinámico, seguimiento ocular, imágenes AR que simulan efectos visuales humanos, gran campo de visión, alto brillo, adecuado para diversas distancias y condiciones climáticas, y anunció que cooperará con BMW Collaborate para desarrollar la última tecnología AR. EyeLights y AGC están incorporando conjuntamente capacidades de RA industrializadas a la gama de vehículos, afirmando que pueden proyectar pantallas virtuales de hasta 550 pulgadas a una distancia de proyección de 50 m.

Aunque AR-HUD ha iniciado una tendencia de "volumen" en CES 2022, no es fácil de implementar técnicamente. Es posible que a menudo veas este tipo de video mágico "prestado", pero si estás en la escena, esta "magia" será fácilmente desacreditada, porque el ojo humano tiene menos espacio y distancia al objeto que la cámara "tuerta". La percepción es mucho más sensible. Esto hará que el ojo humano vea claramente los objetos distantes si quiere ver los objetos cercanos con claridad, pero si quiere ver los objetos distantes, los objetos cercanos interferirán en gran medida con la línea de visión.

La mayoría de las tecnologías HUD actuales sólo proyectan una imagen bidimensional a una distancia fija delante del coche.

Si usa efectos de animación para simular la fusión en esta pantalla, será tan vergonzoso como la magia del "impulso de préstamo" mencionada anteriormente ~ Tome este video de demostración AR-HUD publicado por el Mercedes-Benz Clase S como ejemplo, aunque el virtual Las flechas seguirán el movimiento del volante. Girarán y se moverán, pero cuando los ojos están enfocados en la flecha, el camino en la distancia es virtual, y cuando los ojos están enfocados en el camino en la distancia, la flecha cercana se convierte en. una bola de color azul.

Entonces, para AR-HUD, la distancia de proyección de la información virtual no se puede fijar y debe coincidir con la posición del objeto real para no interferir con la conducción. Además, las personas, los automóviles y el entorno en la carretera son muy complejos, por lo que el espacio donde AR-HUD proyecta información no es una superficie, sino un profundo campo de luz 3D. La información proyectada en el campo de luz es la misma que la virtual. entorno percibido por la conducción autónoma, que requiere una fusión espacial precisa y una fusión temporal de "retraso cero". Actualmente existen muy pocas empresas en el mundo con este tipo de tecnología de visualización. WayRay, una startup de realidad aumentada holográfica con sede en Zurich, afirma que su tecnología de visualización de realidad profunda puede proyectar información virtual a diferentes distancias para lograr una verdadera "verdadera AR".

Si se puede lograr la perfecta integración de virtualidad y realidad, la imaginación de AR-HUD no se limita a proyectar información de conducción. En 2021, el fundador de Facebook, Zuckerberg, propuso el concepto de "superuniverso" que conmocionó al mundo. El núcleo del concepto de superuniverso es una experiencia interactiva inmersiva que combina realidad y realidad. WayRay también lanzó el concept car Holograktor "Metaverse on Wheels". En la actualidad, WayRay Ray ha recibido un total de 65.438 dólares estadounidenses + 40 millones de yuanes en financiación de gigantes como Alibaba, Porsche y Hyundai Motor basándose únicamente en el concepto "verdadero AR", lo que muestra las expectativas del mercado para el futuro del verdadero AR. -Tecnología HUD.

Además de WayRay, la startup nacional Futureus también tiene tecnología AR-HUD de campo de luz 3D. El exclusivo sistema AR-HUD de campo de luz de Futureus puede lograr un zoom continuo de la imagen virtual HUD desde 4 metros hasta el infinito, logrando realmente la integración perfecta de carreteras virtuales y reales a nivel óptico. En la actualidad, FUTURUS ha completado con éxito la tercera iteración del hardware AR HUD para vehículos reales en campos de luz 3D, y el sistema se ha optimizado tras tres años de pruebas reales en carretera. Se informa que la compañía lanzará su producto AR-HUD en el Salón del Automóvil de Beijing 2022.

Además de las startups, el gigante tecnológico Apple también utiliza AR-HUD como una de sus armas secretas para subvertir los coches. En 2021, la Oficina de Patentes y Marcas de EE. UU. concedió a Apple una patente del Proyecto Titán: una pantalla frontal de campo luminoso. El contenido de su patente muestra que el HUD del automóvil de Apple "puede ser una pantalla de campo de luz que genera una salida de campo de luz que permite a los espectadores observar contenido tridimensional en la pantalla frontal. Se pueden usar la matriz de unidades de visualización de campo de luz y las lentes correspondientes para convertir la salida del campo de luz en Dirigida al espectador. Las lentes pueden dirigir la salida del campo de luz superpuesta de la unidad de visualización al espectador, creando un área de visualización del campo de luz ampliada y sin interrupciones en la ventana."

En. 2007, Apple reinventó el teléfono, cambió la vida de los teléfonos con teclado con una pantalla limpia. En 2012, el Model S lanzado por Tesla también utilizó una pantalla para subvertir por completo la experiencia interactiva en la cabina del automóvil. Hoy, 10 años después, con el desarrollo de la tecnología HUD, puede que haya comenzado una revolución "sin pantalla", esperemos y veremos.