¡MID es Métodos de Investigación Digital!

¿Qué es la analítica cultural?

La analítica cultural es uno de los abordajes que se encuentra bajo el campo de las Humanidades Digitales y los Estudios del Software. Podemos definirla como el uso de métodos computacionales para el estudio de grandes cantidades de datos culturalmente significativos. Es decir, por un lado implica estudiar la dimensión que el software introduce en nuestra cultura a través de algoritmos, plataformas e interfaces y cómo media en los abordajes de las humanidades, la crítica cultural y las ciencias sociales; y a su vez apunta a la investigación y desarrollo de nuevos métodos para la creación de recursos que nos permitan analizar esas prácticas y hacernos nuevas preguntas.

¿Qué es el scraping?

El scraping es una de las técnicas emergentes dentro de los métodos de investigación digital y es utilizada para la descarga, el procesamiento, el análisis e interpretación de los datos masivos (o big data). Esta técnica de investigación combina distintos procedimientos de análisis como el procesamiento informático de datos, nuevas formas de visualización de información y nuevas modalidades de lectura.

Podríamos definirla como la acción de extraer de manera automática datos de un sitio web para constituir un corpus de información. Proviene del inglés “scrape” que significa “rascar” o “rasgar”, lo que nos da una idea de cómo trabajan los softwares que se desarrollaron para ese fin. El scraping puede utilizarse para “rascar” datos de videos de YouTube, informes en formato PDF, conjuntos de imágenes publicadas en una red social, tweets que se hayan escrito sobre algún acontecimiento, o también grandes cantidades de cuentos, novelas y guiones de películas (Sued et al, 2016).

Los datos que estamos interesados en recolectar, sin embargo, fueron estructurados en cada plataforma en función del interés particular de los desarrolladores, que no siempre está definido por un protocolo universal, ni coincide con el interés del investigador. Por este motivo debemos recurrir a las APIs (Interfaces de programación de aplicaciones o en inglés, Application Programming Interfaces).

Éstas son las encargadas de organizar las consultas para que podamos recolectar la información que nosotros vemos traducida en las interfaces como: palabras clave, cantidad de vistas, cantidad de suscripciones, cantidad de comentarios, etc.

Las APIs son el conjunto de sub-rutinas, funciones y procedimientos que ofrece cierta plataforma para ser utilizada por otro software que será el que solicitará la información. Son una herramienta central en el proceso del “scraping” ya que representan la capacidad de comunicación entre dos softwares: el que nos brinda la información y el que la recolecta. Uno de los principales propósitos de una API consiste en jerarquizar la información de modo tal que los investigadores se eviten el trabajo de programar todo desde el principio. Por tal motivo suelen ser desarrolladas por los mismos programadores que desarrollaron el sitio al que queremos acceder (Manovich 2013).

Para satisfacer nuestras necesidades como analistas, los datos que logremos recuperar por medio de esta técnica necesitan de una nueva organización para convertirse en información relevante para nuestra investigación. Si bien esta técnica es muy poderosa y puede ser utilizada en muchas plataformas y sitios, para conocer sus características específicas se requiere de comprender cómo funciona la Web y los modos en los que circula la información.