Tres condiciones necesarias para el desarrollo del big data
En los últimos años, los debates sobre big data se han llevado a cabo en múltiples niveles, como tecnología, aplicación y modelo, y se considera que representan la dirección del desarrollo de la industria. Sin embargo, en comparación con muchas prácticas de las empresas de Internet, los operadores de telecomunicaciones que se considera que tienen ventajas inherentes en recursos de datos se quedan atrás. Incluso mirando alrededor del mundo, los operadores de telecomunicaciones tienen sólo un puñado de casos de aplicación de big data. El rápido desarrollo de la banda ancha móvil y fija y el fuerte auge de OTT determinan que los operadores de telecomunicaciones deben aprovechar al máximo sus propios recursos de datos y encontrar nuevas formas de maximizar el valor de la red. Por tanto, es inevitable que los operadores de telecomunicaciones apliquen big data y las perspectivas del mercado son muy amplias.
Para acelerar la "implementación" de big data, ayudar a todas las partes de la industria, especialmente a los operadores de telecomunicaciones, a comprender mejor big data, reconocer la importancia del desarrollo estratégico de big data y analizar las dificultades y obstáculos enfrentados en el camino hacia el desarrollo, promover la madurez de la cadena de la industria de big data y promover la aplicación y promoción de big data. A partir de hoy, Correos y Telecomunicaciones del Pueblo ha invitado especialmente a expertos de ZTE, el Instituto de Investigación de Telecomunicaciones de China y los tres principales operadores para lanzar una serie de informes sobre "Pepitas de Big Data" para beneficio de los lectores.
La aparición del concepto de big data depende de los datos masivos que han aparecido en apenas unos años. Según las estadísticas, los datos en Internet se duplican cada dos años, y actualmente más del 90% de los datos del mundo se generaron en los últimos años. Por supuesto, cantidades masivas de datos son sólo una parte del concepto de "grandes datos". La definición de big data está completa solo si tiene las cuatro características "V", a saber, volumen (masa), velocidad (alta velocidad), variedad (variedad) y valor (valor), y el valor final (valor) es exactamente La clave para determinar la dirección futura del big data.
Tres condiciones necesarias para el desarrollo de big data
El desarrollo de big data requiere tres condiciones necesarias: fuente de datos, transacción de datos y proceso de generación de valor de los datos. En los últimos años, con el auge de las redes sociales, el desarrollo del Internet de las Cosas y la popularización del Internet móvil, WeChat, Weibo, los teléfonos inteligentes y el comercio electrónico se han popularizado, dando origen a un gran número de valiosas fuentes de datos, como como ubicación, información de vida, etc. La aparición de fuentes de datos sienta las bases para el desarrollo del big data. Una señal importante del advenimiento de la era de los big data es el surgimiento de un gran número de "comerciantes de datos" profesionales y la cadena industrial que recorre todo el proceso de recopilación, clasificación, análisis y aplicación en torno al comercio de datos. El núcleo del desarrollo de big data es permitir a los usuarios obtener nuevo valor a partir de datos masivos no estructurados y los datos semiestructurados son la fuerza impulsora de las transacciones de datos.
En los últimos años, IBM, Oracle y SAP han invertido fuertemente en la adquisición de empresas de gestión y análisis de datos. Impulsada por estos gigantes de Internet, la tecnología de análisis de datos es cada vez más madura. En junio de 2013, Edward Snowden hizo público el proyecto "Prisma". Por un lado, el incidente de "Prism Gate" muestra que la tecnología de big data ha madurado. Por otro lado, también demuestra que no es la tecnología la que obstaculiza el desarrollo de big data, sino las transacciones de datos y el valor de los datos.
El desarrollo de la tecnología de big data ha promovido la implementación de la computación en la nube, y su finalización ha aumentado, a su vez, las expectativas del mercado sobre el valor creado por los datos. Después de que se propuso el concepto de big data, el mercado finalmente vio la dirección rentable de la computación en la nube. El mercado de la computación en la nube explotó aparentemente de la noche a la mañana. En los últimos dos años, casi se ha dividido entre grandes proveedores de soluciones nacionales y grandes integradores: los integradores de sistemas de primer nivel en varios lugares cooperan con los gobiernos locales para construir centros de datos en la nube y construir ciudades inteligentes. Los principales gigantes de la industria están construyendo híbridos; las nubes en sus respectivas industrias también están llegando a los estándares y la construcción de plataformas de nube industriales, y los principales gigantes de TI están haciendo todo lo posible para solicitar licencias de nube pública en el país. Fueron necesarios cinco años para que la computación en la nube pasara del concepto a la implementación. Lo que finalmente contribuyó a todo esto fue el big data, o las expectativas del mercado sobre el valor de los datos. Con la popularización a gran escala de los conceptos de ciudades inteligentes en China, la infraestructura de computación en la nube está básicamente lista. Por un lado, tiene la base de hardware para aplicaciones de big data. Por otro lado, debido a la presión de la recuperación de la inversión en computación en la nube, el mercado necesita urgentemente la implementación de aplicaciones de big data, y la ayuda es oportuna. El mercado tiene grandes esperanzas.
Ahora todo apunta a “¿Cómo crean valor los datos?”
La piedra angular de 56 Data Creates Value 6 es la integración y la apertura de los datos.
Connotate, la startup de servicios de big data, encuestó a más de 800 ejecutivos de empresas y TI. Los resultados muestran que el 60% de los encuestados dijeron que "es demasiado pronto para decir que estos proyectos de inversión en big data definitivamente traerán buenos rendimientos". Esto se debe a que los big data actuales carecen de la apertura necesaria: los datos están en manos de diferentes departamentos y empresas, y estos departamentos y empresas no están dispuestos a compartir datos. Big data descubre leyes objetivas al estudiar la correlación de datos, y la correlación de datos depende de la autenticidad y universalidad de los datos. Cómo hacer que los datos * * * sean accesibles y abiertos es la debilidad del desarrollo actual de big data, y también es un gran problema que debe resolverse.
Obama se benefició de la integración de datos en las elecciones estadounidenses de 2012. Hay un misterioso equipo de minería de datos en el equipo de campaña de Obama, que ayudó a Obama a recaudar 654,38 mil millones de dólares mediante la extracción de cantidades masivas de datos; aumentaron la eficiencia de la publicidad de la campaña en un 14%; Al crear modelos detallados de votantes de los estados indecisos y realizar 66.000 elecciones simuladas cada noche, podrían calcular las probabilidades de que Obama gane en los estados indecisos y guiar la asignación de recursos. Este equipo de extracción de datos contribuyó a la exitosa reelección de Obama. En comparación con la campaña de Romney, la mayor ventaja de la campaña de Obama es la integración de big data.
El equipo de minería de datos de Obama también se dio cuenta de que el mismo problema existía en todo el mundo: los datos estaban dispersos en demasiadas bases de datos. Así, durante los primeros 18 meses, la campaña de Obama creó un sistema de datos único y masivo que podría consolidar información de encuestadores, donantes, trabajadores de campo, bases de datos de consumidores, redes sociales y votantes demócratas clave en estados indecisos. Esta vasta y completa base de datos no sólo indica a las campañas cómo encontrar votantes y captar su atención, sino que también ayuda a los equipos de procesamiento de datos a predecir qué tipos de personas es probable que se dejen persuadir por un tema en particular. Como dijo el comandante de campaña Jim Messina, a lo largo de la campaña rara vez existieron suposiciones que no estuvieran respaldadas por datos.
2065438+En marzo de 2002, la administración Obama anunció que invertiría 200 millones de dólares para lanzar el "Plan de Investigación y Desarrollo de Big Data", elevando la investigación de big data a la categoría de voluntad nacional y teniendo un profundo impacto. sobre la integración de big data. La escala de datos de un país y sus capacidades de aplicación de datos se convertirán en una parte importante de su fortaleza nacional integral. Uno de los objetivos de la construcción de ciudades inteligentes en China es lograr el intercambio centralizado de datos.
Crear valor con datos requiere un modelo de negocio en el que todos ganen.
A medida que la computación en la nube, la tecnología de big data y los entornos comerciales relacionados continúan madurando, cada vez más "desarrolladores de software" utilizan plataformas de big data intersectoriales para crear aplicaciones innovadoras de big data, y este umbral se está reduciendo. . Porque, en primer lugar, los propietarios de datos están dispuestos a hacer esas cosas y pueden obtener ingresos adicionales a bajo costo y mejorar la rentabilidad. En segundo lugar, los fabricantes de equipos de big data están dispuestos a hacer esas cosas, porque los fabricantes necesitan aplicaciones para atraer a los consumidores a comprar equipos; Desarrollar una asociación beneficiosa para todos seguramente será más rentable que simplemente vender equipos. Algunos fabricantes con visión de futuro han comenzado a apoyar a estos "desarrolladores de software" proporcionándoles capital, soporte técnico y propiedad de acciones. En tercer lugar, existe una demanda creciente de análisis y aplicación de datos en segmentos industriales. Para toda la cadena de la industria de big data, los desarrolladores innovadores de aplicaciones de datos de la industria serán el eslabón más activo en toda la cadena de la industria de big data en el futuro.
En la inevitable era del big data, tres tipos de empresas ocuparán una posición importante en la "cadena de la industria del big data": empresas con cantidades masivas de datos efectivos, empresas con sólidas capacidades de análisis de datos y empresas. con capacidades innovadoras. Las redes sociales, Internet móvil, las empresas de información y los operadores de telecomunicaciones son productores de datos masivos. Facebook tiene 850 millones de usuarios, Taobao tiene más de 370 millones de usuarios registrados y los usuarios de WeChat de Tencent han superado los 300 millones. Los datos proporcionados por estos enormes grupos de usuarios esperan la oportunidad de liberar una enorme energía comercial. Es previsible que en un futuro próximo, los poseedores de datos masivos como Facebook, Tencent y los operadores de telecomunicaciones se conviertan en proveedores de análisis de datos o se conecten estrechamente con IBM, ZTE y otras empresas para convertirse en empresas cooperativas upstream y downstream. Cuando la cadena de la industria de datos alcance un cierto punto de ruptura, crecerá a un ritmo alarmante.
Cuidado con los peligros del big data
En la era del big data, el muestreo aleatorio tradicional ha sido reemplazado por "recopilar todos los datos", y los patrones de pensamiento y toma de decisiones de las personas pueden basarse directamente en "qué" en conclusión. Debido a que esta conclusión elimina la interferencia de emociones personales, motivaciones psicológicas, precisión del muestreo y otros factores, será más precisa y predecible. Sin embargo, debido a que los big data dependen demasiado de la recopilación de datos, una vez que hay un problema con los datos en sí, es probable que se produzcan "big data catastróficos", es decir, los problemas con los datos en sí conducen a predicciones y decisiones erróneas.
La teoría del big data es "encontrar una aguja en una pajita", pero ¿y si "todas las pajitas se parecen a la aguja"? Demasiada información que no puede distinguir entre autenticidad y valor es como muy poca información, que también es perjudicial para situaciones que requieren un juicio instantáneo y, una vez que el juicio es incorrecto, es probable que tenga graves consecuencias. La base de la teoría del big data es que "los datos masivos son un hecho", pero ¿qué pasa si el proveedor de datos comete fraude? Esto se vuelve aún más dañino en la era del big data, ya que no se tiene control sobre los sesgos y el filtrado de los propios proveedores y recolectores de datos. Los bancos de inversión de Wall Street y las principales agencias de calificación europeas y americanas, que disponen de las bases de datos más completas y fueron los primeros en aceptar el concepto de "big data", a menudo cometen errores al juzgar las cuestiones más importantes, lo que a su vez pone de manifiesto las limitaciones de los "big data". datos".
No solo eso, la era de los big data ha creado un mundo donde las bases de datos están en todas partes y los reguladores de datos enfrentan presiones y responsabilidades sin precedentes: ¿Cómo evitar que la filtración de datos dañe los intereses nacionales, los intereses públicos y la privacidad personal? ¿Cómo evitar la asimetría de información y el daño a los intereses de los grupos vulnerables? Antes de que los riesgos puedan controlarse eficazmente, tal vez sea mejor mantener los macrodatos en una "jaula".
El valor económico de big data ha sido reconocido por la gente y la tecnología de big data ha madurado gradualmente. Una vez que se complete la integración y supervisión de los datos, llegará la era de la explosión del big data. Lo que tenemos que hacer ahora es elegir nuestra propia dirección y prepararnos de antemano para la llegada del big data.
Las anteriores son las tres condiciones necesarias para el desarrollo de big data compartidas por el editor. Para obtener más información, puede seguir a Global Ivy para compartir más información seca.