Utilizar leyes y regulaciones para guiar el desarrollo de la tecnología de IA para siempre
Con el desarrollo de la inteligencia artificial, la tecnología de falsificación profunda se está volviendo cada vez más madura, especialmente el uso de tecnología de aprendizaje profundo para crear voz y cuerpo personales. movimientos, expresiones faciales, etc. Contenido falso, como cambio de rostro mediante IA, simulación de voz, generación de gestos, etc. Con la mejora de las capacidades de aprendizaje automático, el contenido deep fake se vuelve cada vez más realista y, en muchos casos, puede lograr el efecto de ser falso y real. Por ejemplo, la Oficina de Seguridad Pública de la ciudad de Baotou publicó un caso de fraude de telecomunicaciones utilizando tecnología de inteligencia artificial. Los delincuentes utilizaron tecnología de cambio de rostro de inteligencia artificial para hacerse pasar por amigos y defraudar a la víctima para que transfiriera 4,3 millones de yuanes. En la era de la inteligencia artificial, cómo prevenir los riesgos de las tecnologías de inteligencia artificial, como la falsificación profunda, requiere una respuesta más clara de las leyes y regulaciones.
Evitar que la tecnología de inteligencia artificial se utilice de forma maliciosa y guiar la tecnología digital para siempre es la esencia de gobernar el país de acuerdo con la ley.
En primer lugar, debemos tener cuidado con los nuevos riesgos que conllevan tecnologías como la falsificación profunda.
El nacimiento de nuevas tecnologías siempre va acompañado de nuevos riesgos, lo cual es una ley inevitable en la historia del desarrollo tecnológico. Los coches provocan accidentes de tráfico, Internet genera delitos cibernéticos y la inteligencia artificial provoca delitos inteligentes. En Estados Unidos, la inteligencia artificial generativa ha planteado problemas como el fraude académico. Es posible que en el futuro se utilice más tecnología de inteligencia artificial en la delincuencia. El "Caso de fraude de IA de Baotou" es solo la aplicación de tecnología de inteligencia artificial en el campo criminal. Ha surgido una cadena industrial oscura y gris de "cambio de cara de IA", es decir, se proporcionan servicios de cambio de cara de video personalizados en plataformas en línea. . Es necesario hacer un seguimiento oportuno de las leyes y regulaciones para mejorar los riesgos y lagunas que puede traer la tecnología de inteligencia artificial.
En segundo lugar, debemos establecer un punto de partida para la aplicación de la tecnología de inteligencia artificial.
Ante los riesgos que trae consigo la tecnología de inteligencia artificial, todos los países están tomando medidas para responder activamente. La administración Biden ha comenzado a estudiar si es necesario examinar las herramientas de inteligencia artificial. China también está legislando activamente para prevenir los riesgos de la inteligencia artificial. La Administración del Ciberespacio de China publicó las "Medidas para la gestión de servicios de inteligencia artificial generativa (borrador para comentarios)", que toma la inteligencia artificial generativa como núcleo y regula el diseño de algoritmos, la selección de datos de entrenamiento, la generación y optimización de modelos, la prestación de servicios y la generación de servicios. contenido e información personal y protección de la privacidad.
Las leyes y regulaciones deben reducir los riesgos de la inteligencia artificial a un nivel aceptable. El principal problema de los productos de inteligencia artificial es que pueden confundirse con los reales, produciendo así información falsa o utilizándose para fraude. En este sentido, el método de "identificación dual interna y externa" se puede utilizar para evitar productos de inteligencia artificial engañosos. En el nivel de visibilidad del usuario, los editores deben utilizar las mismas indicaciones que los anuncios de videos y voces de tecnología deepfake, y colocar carteles llamativos de "productos de inteligencia artificial", que puedan prevenir eficazmente malentendidos públicos. En el nivel de visibilidad de la máquina, deberíamos establecer "marcas de agua digitales" para los productos de IA, es decir, incrustar información de identificación digital que no puede ser reconocida a simple vista en imágenes, audios y videos generados por IA. Ya sea que sea copiado, reprocesado o releído por inteligencia artificial, el software puede identificarlo como un producto de inteligencia artificial, evitando así que el contenido generado erróneamente interfiera con el aprendizaje profundo de otros productos de inteligencia artificial y genere información errónea.
En tercer lugar, no se puede exagerar el nivel de riesgo de la tecnología de inteligencia artificial.
Desde la perspectiva del desarrollo histórico humano, las nuevas tecnologías generalmente hacen que la sociedad sea más segura, no más peligrosa. Las armas son mucho más peligrosas que los palos, pero las tasas de homicidio en la Era Industrial son mucho más bajas que en la Edad de Piedra. En su libro "Mejores ángeles en la naturaleza humana: por qué se reduce la violencia", un académico estadounidense explicó cómo los seres humanos evolucionaron gradualmente desde un grupo de depredadores de la selva hasta una sociedad segura y ordenada. Incluso en los peores años de guerra, la tasa de mortalidad en los países occidentales modernos era menos de una cuarta parte de la tasa de mortalidad promedio en las sociedades no estatales. Desde una perspectiva histórica amplia, aunque el curso del desarrollo humano ha estado plagado de terrorismo, la sociedad humana sigue siendo una sociedad cada vez más segura. La tecnología siempre tiene riesgos, pero la tecnología avanzada hace que los humanos sean más civilizados.
Por un lado, la tecnología de inteligencia artificial debería regularse cuidadosamente.
El propósito de prevenir riesgos técnicos es desarrollar mejor la tecnología, y no podemos perseguir ciegamente el riesgo cero a expensas de la eficiencia del desarrollo. Las tecnologías digitales como Internet, los macrodatos y la inteligencia artificial son intrínsecamente neutrales.
Si bien la tecnología digital mejora la eficiencia del desarrollo social, también se ha convertido en una herramienta para difundir pornografía y cometer fraudes en las telecomunicaciones. No dejes de comer sólo porque te estás ahogando. Las leyes y regulaciones niegan el uso malicioso de la tecnología, no la tecnología en sí. Las leyes y regulaciones nunca prohíben las nuevas tecnologías, y mucho menos establecen barreras al desarrollo industrial. En las primeras etapas del desarrollo industrial, es posible que no se implemente una legislación sensible.
Por otro lado, incluso las tecnologías riesgosas son relativamente neutrales.
La gente buena puede usar armas para escapar de la violencia, y la gente mala también puede usar armas para matar gente y robar bienes. Para prevenir el riesgo de accidentes causados por automóviles, la Ley de Bandera Roja británica estipulaba que cuando pasa un automóvil, alguien debe agitar una bandera roja para advertir a los transeúntes. Como resultado, Gran Bretaña, el primer país en inventar la máquina de vapor, cedió su estatus de país importante en el sector del automóvil a Alemania y Estados Unidos. Lo mismo ocurre con la tecnología digital. Si bien las leyes y regulaciones previenen los grandes riesgos causados por la tecnología, también deben fomentar firmemente la innovación tecnológica y no dejar de avanzar debido a posibles riesgos.
En resumen, la aplicación de la inteligencia artificial ciertamente traerá nuevos riesgos, pero "el mal de la naturaleza humana" no puede entenderse simplemente como "el mal de la tecnología". Las leyes y regulaciones no sólo deben hacer un buen trabajo en la supervisión de resultados, sino también promover que la tecnología de inteligencia artificial se convierta en una buena herramienta que beneficie al país y a la gente.