Métodos básicos de recopilación de datos
Los métodos básicos de recopilación de datos incluyen cuestionarios, observaciones de campo, entrevistas, investigación bibliográfica, diseño experimental, rastreadores web, etc.
1. Cuestionario
Recopilar puntos de vista, opiniones y comentarios de las personas sobre temas o cuestiones específicas mediante el diseño y la distribución de cuestionarios.
2. Observación de campo
Observar y registrar directamente eventos, comportamientos, fenómenos, etc. El método de observación de campo es un método en el que los observadores utilizan sus propios órganos sensoriales de forma decidida y planificada o con la ayuda de herramientas de observación científica para comprender activamente los fenómenos sociales en un estado natural.
3. Entrevistas
Conversar con personas o grupos cara a cara o de forma remota para recopilar sus experiencias, conocimientos y perspectivas. Es un vocabulario periodístico que se refiere a actividades como observación, investigación, entrevista, grabación, fotografía, grabación de audio y grabación de video que realizan los reporteros con el fin de obtener material informativo. Es un método de recopilación y recopilación de información de los medios, generalmente a través de la comunicación cara a cara entre los reporteros y las personas de quienes se obtiene la información.
4. Investigación literaria
Recopilar información y datos relevantes leyendo libros, artículos, informes, artículos de noticias, etc.
5. Diseño experimental
Recopilar datos bajo variables controladas mediante el diseño de experimentos de laboratorio o experimentos de campo. El diseño experimental se refiere a un estudio planificado que incluye una serie de cambios intencionales en los elementos del proceso y observaciones de sus efectos. Estos resultados se analizan estadísticamente para determinar la relación entre las variaciones del proceso, cambiando así el proceso.
6. Rastreadores web
Utilizan programas informáticos para recopilar datos automáticamente de Internet. Es un programa o script que captura automáticamente información de la World Wide Web de acuerdo con ciertas reglas. Otros nombres utilizados con menos frecuencia incluyen hormigas, autoindexadores, emuladores o gusanos.