Red de Respuestas Legales - Asesoría legal - ¿Cuáles son los malentendidos en el análisis de datos?

¿Cuáles son los malentendidos en el análisis de datos?

1. El análisis de datos requiere mucha inversión.

Hoy en día, parece que toda inversión en nueva tecnología debe pasar por un riguroso proceso de selección del gasto financiero. ? Los costos de TI son una de las primeras cosas que los gerentes de TI y de negocios deben considerar cuando proponen lanzar un proyecto o implementar una nueva herramienta.

Algunas personas creen que el análisis de datos es una tarea intrínsecamente costosa y, por lo tanto, está limitada a empresas con mayores presupuestos o más recursos internos. Pero ese no es el caso. Hay muchas herramientas de código abierto y de otro tipo en el mercado que pueden ayudar a demostrar el valor del análisis de datos. La arquitectura de big data basada en sistemas en la nube será mucho más económica que los almacenes de datos tradicionales. Puede utilizar fácilmente análisis en la nube para resolver problemas comerciales con solo saber qué datos se almacenan internamente y el problema que desea resolver.

Además, el análisis de datos se utiliza a menudo para lograr tres resultados: mejorar la eficiencia de los procesos, lograr un crecimiento de los ingresos y gestionar el riesgo de forma proactiva. En general, el análisis de datos aporta una enorme relación calidad-precio en la aplicación de cualquier empresa.

2. ¿Lo necesitas? ¿Grandes datos? Para la analítica

Para muchas personas, los conceptos de big data y analítica son complementarios. Las empresas necesitan recopilar grandes cantidades de datos antes de realizar análisis para generar información empresarial y mejorar las decisiones.

Por supuesto, las ventajas del análisis de big data también son obvias. Las empresas con estos recursos utilizan el almacenamiento de big data como parte de un impulso para facilitar el análisis y obtener una ventaja competitiva significativa. Pero los big data no son imprescindibles para el análisis.

Los analistas necesitan datos específicos, no más datos. Para respaldar mejor la toma de decisiones y mejorar el desempeño, las empresas deben pensar más en los usuarios comerciales y determinar a qué datos necesitan acceder y cómo presentarlos, en lugar de centrarse en más datos. Más del 95% de los usuarios buscarán información relacionada con su trabajo para respaldar sus decisiones y mejorar su desempeño comercial. Por lo tanto, las empresas deben brindarles esta información en el formato más simple para ayudarlos a localizar rápidamente información importante.

3. El análisis elimina los prejuicios humanos.

Los sistemas automatizados no deben estar sesgados en la forma en que se implementan, pero la tecnología la construyen humanos, por lo que es casi imposible eliminar todos los sesgos.

Algunos sostienen que la analítica y el aprendizaje automático eliminan el sesgo humano. Lamentablemente, esto no se materializó. ¿Usos algorítmicos y analíticos? ¿Datos de entrenamiento? ¿Hacer ajustes y copiarlos? ¿Datos de entrenamiento? En algunos casos, puede introducir sesgos benignos en el proceso de análisis, pero ¿puede también introducir sesgos más graves? ¿porque? ¿El algoritmo lo dice? No significa que la respuesta sea justa o útil.

4. El mejor algoritmo significa victoria absoluta.

Resulta que con suficientes datos, a veces el algoritmo no importa. Los ingenieros de Google pensaron que los datos eran irrazonablemente válidos. ¿Es mejor un modelo estadístico simple combinado con cantidades masivas de datos que un modelo con muchas características y resúmenes? ¿Modelo superior inteligente? Puede producir mejores resultados.

Por lo tanto, en algunos casos, los mejores resultados sólo se pueden obtener procesando grandes cantidades de datos.

5. El algoritmo es seguro.

La gente cree obstinadamente en modelos y algoritmos estadísticos y, a medida que se organizan y construyen programas analíticos, dependerán cada vez más de modelos complejos para respaldar la toma de decisiones. ¿Tal vez sea porque los usuarios no creen que tengan la capacidad de desafiar el modelo, por lo que tienen que confiar en la persona que construyó el modelo? ¿Persona inteligente? .

Por ejemplo, en los últimos cincuenta o sesenta años, hemos escuchado repetidamente? ¿La inteligencia artificial se hará cargo de los trabajos humanos en 20 años? Algunas personas reiteran este punto. Todavía queda mucho por hacer antes de que podamos confiar plenamente en el aprendizaje automático y en los resultados que produce. Hasta que eso suceda, debemos desafiar a las personas que construyen los algoritmos y modelos a explicar cómo se obtienen las respuestas. Esto no significa que no podamos confiar en los resultados, pero necesitamos transparencia para que podamos confiar y verificar los resultados del análisis.