Tecnología interactivaLa tecnología interactiva incluye
En entornos ruidosos, bajo el agua o en el espacio, el reconocimiento de voz silencioso es un método de entrada eficaz que algún día podrán utilizar pilotos, bomberos, SWAT y tropas que realicen misiones especiales. Los investigadores también están intentando utilizar sistemas silenciosos de reconocimiento de voz para controlar sillas de ruedas eléctricas. Para las personas con discapacidades del habla, la tecnología de reconocimiento de voz silencioso también puede ayudarlas a comunicarse con el mundo exterior mediante una síntesis de voz eficiente. Si esta tecnología madura, las personas ya no tendrán que escribir en un teclado cuando chateen en línea.
El Centro de Investigación Ames de la NASA está desarrollando un sistema silencioso de reconocimiento de voz. Los investigadores dicen que cuando una persona medita o habla en voz baja, se producen las señales biológicas correspondientes independientemente de los movimientos reales de los labios y la cara. El sistema de identificación que desarrollaron tiene sensores especiales del tamaño de un botón fijados a ambos lados del mentón y de la nuez de Adán, que pueden capturar las instrucciones enviadas por el cerebro a los órganos vocales y "leer" estas señales. El sistema eventualmente se integrará en los trajes de movilidad extravehicular de los astronautas, lo que les permitirá enviar comandos silenciosos a instrumentos o robots. Chuck Jokinson, científico jefe del proyecto, dijo que pasarán algunos años antes de que la tecnología de reconocimiento silencioso de voz pueda entrar en aplicaciones comerciales. El principio de funcionamiento básico del seguimiento ocular es utilizar tecnología de procesamiento de imágenes para registrar continuamente los cambios en la mirada utilizando una cámara especial que puede bloquear los ojos, rastrear la frecuencia y la duración de la mirada y analizar a la persona que se sigue en función de esta información.
Cada vez más portales y anunciantes apuestan por la tecnología de seguimiento ocular. Pueden comprender los hábitos de navegación de los usuarios en función de los resultados del seguimiento y organizar racionalmente el diseño de las páginas web, especialmente la ubicación de los anuncios, para lograr mejores resultados de entrega. El rastreador ocular remoto inventado por la empresa alemana Eye Square puede colocarse frente a la pantalla de una computadora o incrustarse en ella. Con la ayuda de la tecnología infrarroja y el software de reconocimiento de muestras, se pueden registrar los cambios de mirada del usuario. Los rastreadores oculares se han utilizado en publicidad, sitios web, catálogos de productos, pruebas de eficacia de revistas y estudios de simulación.
Debido a que el seguimiento ocular puede reemplazar la entrada del teclado y el movimiento del mouse, los científicos han desarrollado una computadora para personas discapacitadas. Los usuarios pueden seleccionar correos electrónicos o instrucciones centrándose en áreas específicas de la pantalla. Las futuras computadoras portátiles también podrán utilizar tecnología de seguimiento ocular para completar las operaciones de entrada de manera más conveniente. Mediante estimulación eléctrica para lograr la reproducción táctil, las personas ciegas pueden "ver" el mundo que les rodea.
El Ministerio de Defensa británico ha introducido un instrumento avanzado llamado BrainPort que puede ayudar a las personas ciegas a obtener información medioambiental utilizando la lengua.
BrainPort consta de un par de gafas con una cámara, un sensor de plástico tipo "piruleta" conectado por cables finos y un controlador del tamaño de un teléfono. El controlador convierte la imagen en blanco y negro en pulsos electrónicos que se envían a un sensor en la boca del usuario ciego. La señal del pulso estimula los nervios en la superficie de la lengua y se transmite al cerebro a través de electrodos en el sensor. El cerebro convierte la estimulación percibida en imágenes de pocos píxeles, lo que permite a las personas ciegas "ver" claramente las líneas y formas de varios. objetos. Craig Ludberg, un soldado británico ciego que probó el dispositivo por primera vez, ha podido caminar y leer normalmente sin ayuda externa. También se ha convertido en miembro del equipo nacional de fútbol para ciegos de Inglaterra.
En teoría, las yemas de los dedos u otras partes del cuerpo también pueden lograr una reproducción táctil como la lengua, y con el desarrollo de la tecnología, la claridad de las imágenes percibidas por el cerebro mejorará enormemente. En el futuro, también será posible estimular el cerebro para que forme imágenes con señales pulsadas fuera del espectro visible, creando muchas posibilidades novedosas, como dispositivos de buceo para su uso en aguas con visibilidad extremadamente baja. Las lentes de contacto se han utilizado como herramienta de corrección de la visión durante décadas. Los científicos ahora esperan integrar circuitos en lentes para crear súper lentes de contacto más potentes que no solo puedan brindar al usuario una visión superior para magnificar objetos distantes, sino también mostrar imágenes holográficas y varias imágenes tridimensionales, e incluso reemplazar las pantallas de computadora. Acceso inalámbrico a Internet en cualquier momento.
Científicos del Departamento de Ingeniería Eléctrica de la Universidad de Washington en Estados Unidos utilizaron tecnología de autoensamblaje para "autoensamblar" componentes metálicos en polvo fino a nanoescala sobre lentes poliméricos en microcircuitos, combinando con éxito circuitos electrónicos con lentes artificiales juntos. Babak Parviz, líder del proyecto, dijo que las lentes de contacto biónicas utilizan tecnología de realidad aumentada para superponer imágenes virtuales con escenas reales que la gente puede ver, lo que cambiará por completo la forma en que las personas interactúan entre sí y con el entorno. Una vez que se completa el diseño final, puede magnificar objetos distantes, permitir que los jugadores de videojuegos se sientan como si estuvieran físicamente presentes en un "mundo de juego" virtual y permitir a los usuarios navegar por Internet de forma inalámbrica a través de una "pantalla virtual" que sólo ellos pueden ver. puedo ver.
Debido a que este tipo de lentes de contacto siempre estarán en contacto con fluidos corporales humanos, también se pueden utilizar como un monitor no invasivo de la salud humana, como el control de los niveles de insulina en los diabéticos. Parvitz predice que pueden aparecer instrumentos de seguimiento similares dentro de cinco a diez años. La tecnología de interacción persona-computadora se refiere a la tecnología que permite el diálogo entre humanos y computadoras de manera efectiva a través de dispositivos de entrada y salida de computadora.
La interfaz hombre-computadora, también conocida como "interfaz cerebro-computadora", es una vía de conexión directa entre el cerebro humano o animal (o cultivo de células cerebrales) y dispositivos externos. Incluso sin palabras y acciones directas, los pensamientos e ideas del cerebro pueden comunicarse al mundo exterior a través de este camino.
La interfaz hombre-ordenador se divide en no intrusiva e intrusiva. En interfaces humano-computadora no invasivas, las ondas cerebrales se leen por medios externos; por ejemplo, los electrodos colocados en el cuero cabelludo pueden interpretar la actividad eléctrica del cerebro. En los escaneos EEG anteriores, los electrodos debían fijarse cuidadosamente con pegamento conductor para que los resultados del escaneo fueran más precisos. Sin embargo, la tecnología ha mejorado de modo que los escaneos pueden captar señales útiles incluso si los electrodos no están colocados con tanta precisión. Otras interfaces hombre-máquina no invasivas incluyen la magnetoencefalografía y la resonancia magnética funcional.
Para ayudar a los pacientes con trastornos del habla y del movimiento, investigadores de Estados Unidos, España y Japón desarrollaron recientemente la "silla de ruedas ideal". Estos dispositivos utilizan sensores externos para interceptar señales neuronales del cerebro del paciente y luego codificar las señales y transmitirlas a la computadora. Luego, la computadora analiza y sintetiza el lenguaje o forma una interfaz de control basada en menús para "traducir" las necesidades del paciente, lo que permite. la silla de ruedas para brindar servicios personalizados basados en estas necesidades. Los servicios al paciente les permiten realmente "hacer lo que quieran".
Adam Wilson, estudiante de doctorado en biomedicina de la Universidad de Wisconsin-Madison, se puso un nuevo casco de lectura del cerebro que desarrolló y luego pensó en una frase: "Escanéalo con ondas cerebrales y descúbrelo". Ve a Twitter." Así apareció esta frase en su Weibo. Debido a limitaciones técnicas, el dispositivo sólo puede introducir 10 letras por minuto, pero presenta considerables perspectivas de aplicación. Se espera que los pacientes con síndrome de encierro (que están conscientes pero no pueden entender el lenguaje, pero que a menudo se confunden con coma porque están inmóviles y no pueden hablar) y cuadriplejía recuperen algunas de sus funciones confiando en sus cerebros para "escribir". palabras y controlar los movimientos de la silla de ruedas.
Los electrodos de las interfaces invasivas hombre-máquina están conectados directamente al cerebro. Hasta ahora, la aplicación de interfaces invasivas hombre-máquina en el cuerpo humano se ha limitado a la reparación del sistema nervioso. Una estimulación adecuada puede ayudar al cerebro lesionado a recuperar algunas funciones, como la reparación de la retina que puede reproducir la luz. funciones motoras o asistencia Reparación de neuronas motoras para la locomoción. Los científicos también intentaron implantar chips en el cerebro de pacientes completamente paralizados y utilizaron con éxito ondas cerebrales para controlar computadoras y dibujar patrones simples.
La Universidad de Pittsburgh ha logrado un gran avance en el desarrollo de prótesis controladas directamente por el cerebro. Los investigadores implantaron un microchip del grosor de un cabello en la corteza motora de dos monos que se conectaba de forma inalámbrica a una prótesis mecánica con la forma de un brazo de adulto. Las señales de pulso de las células nerviosas detectadas por el chip son recibidas y analizadas por una computadora, que finalmente pueden convertirse en movimientos del brazo robótico. Los resultados de las pruebas muestran que el sistema es eficaz. El mono controla el brazo robótico para agarrar, girar y recuperar a través de su mente, y se mueve libremente para completar la acción de comer.
Además del campo médico, las interfaces hombre-computadora tienen muchas aplicaciones sorprendentes. Por ejemplo, los sistemas de automatización del hogar pueden ajustar automáticamente la temperatura de la habitación según quién esté en la habitación; las luces del dormitorio se atenuarán o apagarán cuando alguien esté dormido y, si alguien sufre un derrame cerebral u otra enfermedad repentina, llamarán inmediatamente a un cuidador; ayuda.
Hasta ahora, la mayoría de las interfaces hombre-computadora son "entradas", es decir, las personas usan sus pensamientos para controlar máquinas o dispositivos externos. Sin embargo, recibir instrucciones externas del cerebro humano para formar sentimientos, lenguaje e incluso pensamientos todavía enfrenta desafíos técnicos.
Sin embargo, algunas aplicaciones en la reparación del sistema nervioso, como los implantes cocleares y los sistemas de visión artificial, pueden abrir una nueva idea: algún día los científicos podrán controlar la producción del cerebro conectándose a nuestros órganos sensoriales. Sonidos, imágenes e incluso pensamientos. Pero al mismo tiempo, a medida que varios dispositivos mecánicos conectados al sistema nervioso humano se vuelven más sofisticados, más utilizados y gradualmente equipados con funciones de control remoto inalámbrico, los expertos en seguridad se preocuparán por la posibilidad de que "hackers invadan el cerebro". El origen de la interacción entre humanos y computadoras se remonta a Gran Bretaña en 1764 d.C. Con el desarrollo de la economía de los productos básicos, es necesario vender cada vez más productos en los mercados extranjeros. Para mejorar la eficiencia de la producción y aumentar la producción de productos, la gente hace todo lo posible para mejorar la tecnología de producción. En esta época, el tejedor James Hargreaves inventó la hiladora jenny, que revolucionó el modelo de producción industrial tradicional. La nueva máquina de hilar Jenny puede hilar varios hilos de algodón a la vez. La capacidad de hilado es 8 veces mayor que la de la antigua máquina de hilar. La eficiencia de la producción también se ha desarrollado rápidamente y se ha establecido una fábrica de tejidos a gran escala. Este invento no solo marcó el comienzo de la primera revolución industrial, sino también el origen de la interacción persona-computadora. Marcó la primera vez que los humanos comenzaron a prestar atención y pensar en la interacción persona-computadora en el campo de la producción industrial.
En 1808, el italiano Perherini Turi inventó la primera máquina de escribir mecánica del mundo. Sin embargo, fue William Burt de Michigan, EE.UU., quien realmente hizo la historia de la máquina de escribir y recibió una patente. Construyó la "componedora" en 1828, haciendo posible el surgimiento del teclado moderno. El periodista estadounidense C. Sholes inventó el teclado QWERTY en 1868. Con el desarrollo de la tecnología de la información, el procesamiento de la información se está volviendo cada vez más difícil y los teclados ya no pueden satisfacer rápidamente las necesidades de las personas. En 1964, el ratón inventado por el estadounidense Doug Engelbas permitió a las personas experimentar por primera vez el encanto de la interacción libre. Con la adición del mouse, los usuarios pueden hacer clic en cualquier lugar de la pantalla, mejorando efectivamente la experiencia y la eficiencia del procesamiento de datos. Pero el proceso de satisfacción siempre es de corta duración y el "deseo" cada vez mayor engendra necesidades mayores.
En base a esto, nació un dispositivo que puede hacer que la interfaz gráfica de interacción persona-computadora sea más intuitiva y fácil de usar: fue el primer sensor táctil del mundo inventado por el estadounidense Sam Hurst en 1971. Esto también lleva la interacción hombre-máquina a una nueva era de pantallas táctiles.
Pronto, las interacciones que dependen de entradas mecánicas unidireccionales ya no podrán satisfacer las necesidades humanas. En este momento, representada por Siri lanzado por Apple, la interacción de voz se ha convertido en una nueva dirección de demanda y un punto de investigación para la humanidad con sus ventajas de menor esfuerzo y menores costos de aprendizaje. Siguiendo a Siri de Apple, Google Now, basado en la función de búsqueda de Google, registra las palabras clave buscadas por los usuarios y les proporciona servicios de voz relevantes a través de lectura inteligente. Esto mejora el equipo de la máquina de responder "pasivamente" a las preguntas de los usuarios a recordarles "activamente" sus necesidades, es decir, el modo de interacción orientado al servicio proporcionado por las máquinas a los humanos. Tanto Apple Siri como Google Now brindan a las máquinas la capacidad de actuar basándose en el "pensamiento independiente", abriendo así una nueva era de interacción bidireccional entre humanos y computadoras. La interacción somatosensorial, representada por la aplicación de la tecnología Kinnect en los juegos, ha ampliado y ampliado aún más el alcance de la interacción persona-computadora.