Red de Respuestas Legales - Asesoría legal - Métodos básicos de recopilación de datos

Métodos básicos de recopilación de datos

Los métodos básicos de recopilación de datos incluyen cuestionarios, observaciones de campo, entrevistas, investigación bibliográfica, diseño experimental, rastreadores web, etc.

1. Cuestionario

Recopilar puntos de vista, opiniones y comentarios de las personas sobre temas o cuestiones específicas mediante el diseño y la distribución de cuestionarios.

2. Observación de campo

Observar y registrar directamente eventos, comportamientos, fenómenos, etc. El método de observación de campo es un método en el que los observadores utilizan sus propios órganos sensoriales de forma decidida y planificada o con la ayuda de herramientas de observación científica para comprender activamente los fenómenos sociales en un estado natural.

3. Entrevistas

Conversar con personas o grupos cara a cara o de forma remota para recopilar sus experiencias, conocimientos y perspectivas. Es un vocabulario periodístico que se refiere a actividades como observación, investigación, entrevista, grabación, fotografía, grabación de audio y grabación de video que realizan los reporteros con el fin de obtener material informativo. Es un método de recopilación y recopilación de información de los medios, generalmente a través de la comunicación cara a cara entre los reporteros y las personas de quienes se obtiene la información.

4. Investigación literaria

Recopilar información y datos relevantes leyendo libros, artículos, informes, artículos de noticias, etc.

5. Diseño experimental

Recopilar datos bajo variables controladas mediante el diseño de experimentos de laboratorio o experimentos de campo. El diseño experimental se refiere a un estudio planificado que incluye una serie de cambios intencionales en los elementos del proceso y observaciones de sus efectos. Estos resultados se analizan estadísticamente para determinar la relación entre las variaciones del proceso, cambiando así el proceso.

6. Rastreadores web

Utilizan programas informáticos para recopilar datos automáticamente de Internet. Es un programa o script que captura automáticamente información de la World Wide Web de acuerdo con ciertas reglas. Otros nombres utilizados con menos frecuencia incluyen hormigas, autoindexadores, emuladores o gusanos.