Otras publicaciones:

9789877230178-frontcover

9789871867936_frontcover

Otras publicaciones:

9789877230222-frontcover

Book cover

7 Opinión pública virtual: el viejo sueño de la medición

“Medir la opinión pública” es un viejo anhelo desde la invención de las primeras escalas de medición de inteligencia. La idea de que aspectos de individuos y de la sociedad pueden ser “medidos” está presente desde las primeras décadas del siglo XX, siguiendo los modelos de las ciencias naturales, y especialmente con los trabajos de los psicólogos y psicólogos sociales como Floyd Allport y Louis León Thurstone. Allport creía en el camino trazado por Emile Durkheim en los hechos sociales se podían trata como cosas, rechazando conceptos como “alma colectiva” que los caracterizaba como ficcionales y no científicos. Sostenía que el tratamiento dado a los aspectos de los comportamientos sociales era de “una ficción relacionada a la aplicación de la noción de ser colectivo super-orgánico” (p. 8), que en definitiva dejan de lado al individuo y sus decisiones. Sostenía esta idea cuestionando el uso de tres falacias: la grupal, la de la inclusión parcial y la falacia periodística. Allport retoma de Edwin Bissell Holt los conceptos de consciencia y deseo, entendiendo consciencia “como una operación del sistema nervioso producto de la relación entre el cuerpo y los objetos del entorno” (Baltà Pelegrí, 2009, pág. 137). Su postura no estará tan lejos de los planteos de los neurocientíficos del siglo XXI. Tomaba para sí la doctrina conductista y frente a las dificultades para identificar los múltiples elementos que intervienen en la formación de la opinión pública, propone observar los fenómenos en base un programa que destaca que son esencialmente “instancias de comportamientos” individuales.

Por otra parte, un grupo de psicólogos encabezados por Louis Leon Thurstone (1931); Rensis Likert (1932) y Louis Guttman (1949) desarrollarían durante las primeras décadas del siglo XX las escalas de medición. Estas tendrían como principal objetivo proveer de un marco estandarizado para la construcción de indicadores. Evaluar propiedades que pertenecen a estados mentales, como actitudes, valores, sentimientos y opiniones, sobre las cuales no existe un acceso directo y que tampoco poseen unidades de medida, eran sus prioridades, buscando la configuración de diversas escalas que permitieran capturar estados internos de los sujetos a través de sus declaraciones. La posibilidad de conocer los estados mentales haciendo preguntas a un sujeto era la aplicación del modelo científico a las ciencias sociales y sería un impulso para hacer posible la técnica de la encuesta, e incluso distanciándose de los modelos de observación desarrollados por los antropólogos.

El otro elemento crucial para desarrollar las estrategias cuantitativas como paradigma dominante de la investigación social lo dio el desarrollo de las técnicas de muestreo, basadas en las teorías de las probabilidades. El encuentro de ambas tecnologías sociales (cuestionarios y muestreo) contribuyeron a que durante el siglo XX la técnica de encuesta se impusiera como fórmula dominante para la investigación en ciencias sociales, bajo la representación de imparcialidad y carácter científico. Este auge se reprodujo en diversas ramas como los estudios demográficos, medición de las condiciones sociales, etc., una amplia variedad de estudios económicos y de mercado (ej. la propensión a consumir), estudios actitudinales, y por supuesto en los estudios sobre opinión pública.

También la idea de que los conceptos abstractos podían “operacionalizarse”, es decir se podrían diseccionar como aspectos a la “cosa” y generar una serie de indicadores directamente observables, y verificables para acceder a él, iba ganando lugar en la literatura de la metodología de la investigación social como planteaba Lazarfeld a mediados de los años ´60 en su famoso texto “De los conceptos a los índices empíricos” (1967) tradición que llega hasta hoy. También la se produce la posibilidad inversa recomponer este concepto abstracto de imposible observación directa (también de esa forma se podrían estudiar enfermedades como la depresión o síndrome de burnout) construyendo índices a partir de sus indicadores. 

Sin embargo, el paradigma científico tradicional sintetizado en el tiple postulado de realismo, empirismo y positivismo, comienza a mostrar límites en su utilidad en varias áreas del conocimiento y comienza a observar una necesidad de ampliar sus perspectivas en el sentido de la construcción de marcos interpretativos que logren captar la subjetividad, explicando y comprendiendo las interacciones, sentimientos, emociones y los significados individuales y colectivos. Dentro de los marcos interpretativistas se pueden señalar diversos enfoques: la teoría crítica; el constructivismo; el feminismo y estudios de género; el interaccionismo simbólico; la etnografía; la hermenéutica y la teoría fundamentada, entre otros. Estos marcos establecerían un conjunto de técnicas ampliamente conocidas como la observación (en sus diferentes tipos), la entrevista, la historia de vida, los grupos focalizados, y el análisis de discurso o narrativo, entre otros, lo que en conjunto se dio en llamar “estrategias cualitativas de investigación”.

¿Una segunda oportunidad?

El desarrollo de internet como espacio de un mundo que funcione como espejo de lo real se constituyó como una gran promesa para los investigadores de las ciencias sociales, y una nueva oportunidad para quienes creen que es posible “medir los hechos sociales”. Sin embargo, los grandes volúmenes de datos presentes pueden exhibir grandes obstáculos para su análisis. Los corpuses suelen presentarse en forma muy desordenada y no pueden ser codificados a mano. Surge allí la promesa de las técnicas automatizada de análisis, con limitaciones relevantes en su relación con la teoría. Por esto, las primeras técnicas aplicadas en la investigación aplicadas en internet consistieron en la transferencia de las técnicas tradicionales de la vida offline a quienes comenzaban a emplear la web en sus tareas cotidianas. Aquí surgen una serie de objetos de investigación nuevos como las comunidades online, las identidades virtuales, interacciones comunicativas, participaciones políticas no convencionales, redes sociales, y diversos usos de las tecnologías en permanente expansión. También señala dos grupos de técnicas de investigación: las clásicas offline y las nuevas online.

Las primeras herramientas llevadas adelante por investigadores sociales fue nuevamente la encuesta con el envío de cuestionarios mediante mails y cuestionarios en línea en Web-Pages. Esta modalidad de investigación continúa en la actualidad, y reemplaza la encuesta “por correo” que aún hacen mención antiguos textos de metodologías cuantitativos, reemplazando el envío de “cartas” por encuestas por el correo electrónico.

La construcción de los cuestionarios “online” como se los denominó requirió en su momento ciertos conocimientos informáticos para su construcción y volcado automático en bases de datos para su análisis, valor que se vería amortizado por el bajo costo de envío (aún menor a la encuesta por correo), así como también el surgimiento de bases de datos de correos electrónicos con millones de direcciones. El surgimiento de programas especializados para la construcción de cuestionarios y la automatización de envío facilitan aún más la tarea de su construcción que ya puede prescindir del asesoramiento externo. Otras de las ventajas que el envío del cuestionario por correo electrónico y vías similares permite es la trascripción de las respuestas a las preguntas abiertas (es decir con texto libre) por parte del propio encuestado. Claro que transferir la responsabilidad de la escritura requiere esa habilidad del encuestado, pero superado ese escollo, las respuestas pueden ser volcadas en los programas de análisis cualitativos, así como también las matrices generadas por respuestas de las encuestas pueden ser asumidas por los paquetes estadísticos clásicos. También la información en pantalla permite al investigador incluir información para el encuestado en forma material audiovisual como imágenes, fotos o videos muy difícil (o casi imposible) presentación en las formas tradicionales de realización de encuestas cara a cara, telefónica, o el antiguo método del correo.

La posibilidad de extender las muestras mucho más allá del tamaño habitual limitado tanto por el presupuesto como por la logística necesaria, fue un importante incentivo para este tipo de investigación que también  facilitó la posibilidad de extender las fronteras hacia encuestas regionales o globales. No obstante se pueden observar deficiencias y dificultades en la construcción de las muestras virtuales. El principal problema es (como pasara con las encuestas “a vuelta de correo”) las bajas tasas de respuesta, introduciendo sesgos no muestrales de difícil interpretación, y donde las aptitudes computacionales del encuestado también ocupan un lugar a considerar. Otra cuestión vinculada a esta dada por la dificultad de supervisar la encuesta, que incorpora la duda crucial sobre la veracidad de los datos volcados.

En años recientes se comienza a trabajar con grupos cerrados de encuestados, es decir con una base de datos limitada sobre personas que han aceptaron incorporarse a un sistema que le ofrecerá completar una cantidad de encuestas en un tiempo determinado, llamados paneles on-line. Estas personas suelen tener beneficios como obsequios o algún tipo de ingreso por participar del panel. Una gran ventaja de este modelo es poder contar con una gran cantidad acumulativa de información sobre estas personas, con la posibilidad de supervisar o el menos verificar la calidad de la información suministrada. Una gran ventaja es poder finalmente establecer un dispositivo medianamente eficiente para establecer paneles de seguimientos de temas en el tiempo sobre las mismas personas (estudios diacrónicos). Estos sistemas más organizados de tratamiento, suelen ser provistos por empresas especializada, y surgen razonables dudas sobre en qué medida los panelistas son muestras representativas de determinadas poblaciones, así como también en qué medida es posible por esta vía acceder a la población de menores recursos y sectores de la población con menores acceso a las tecnologías.[1].

Otra modalidad de análisis de la web es la llamada etnografía virtual o digital es decir la aplicación de técnicas de investigación cualitativas utilizando las herramientas que ha generado internet para un propósito distinto que la investigación. Una de las modalidades utilizadas es la incorporación del investigador o investigadora en comunidades determinadas que se constituyen en la web, a través de blogs, foros de discusión, o grupos que se organizan usando las aplicaciones que proveen las computadoras o los teléfonos inteligentes. Grupos de personas con enfermedades raras, con tendencias suicidas, o simplemente fanáticos de los autos de carreras o amantes de las mascotas suelen abundar en la red, y suelen generar diálogos entre pares, donde los participantes la mayoría de las veces se presentan en forma anónima o con un seudónimo. Para el investigador entrenado es posible generar una interacción con los participantes obteniendo información de un grupo de personas en forma simultánea, que asume principalmente forma de texto (chats), audio y videos breves.

El acceso del investigador a estas comunidades suele presentar barreras, sobre todo cuando se incorpora como encubierto, porqué debe sostener intercambios simulando la condición que atraviesa el grupo y debe estar preparado para el intercambio de material gráfico y audiovisual con el grupo de referencia, por lo que si sus respuestas no son las esperadas por el grupo suele levantar sospechar en forma rápida. Estos grupos suele tener un moderador, con lo que puede presentarse como alternativa la presentación de las intenciones investigativas frente al moderador.

La gran ventaja de esta modalidad de investigación es la observación de los intercambios de los diferentes componentes del grupo, pudiendo identificar la frecuencia y modalidad de interacción con la ventaja de obtener registro automático de todo lo escrito. Una de las desventajas consiste en la diferencia entre el lenguaje escrito del lenguaje verbal que puede modificar los contenidos en especial en la transmisión de emociones y sensibilidades. También debe observarse que gran parte de los foros de intercambio han ido mutando a modalidades audiovisuales con el intercambio de videos y/o conexiones y transmisiones en vivo. La popularización de las webcams (prácticamente todos los dispositivos actuales traen una cámara incorporada) y el constante incremento del ancho de banda disponible facilitan este traslado, de todos modos, se debe considerar que el pasaje al formato audiovisual genera una serie de cambios en referencia a la investigación cara a cara que deben ser evaluadas en forma comparativa.

Debe señalarse que la investigación en los contextos que provee las tecnologías infocomunicacionales buscan asimilarse a las técnicas de la observación en persona, en especial, la no participarte en cuanto a la distancia de los acontecimientos observados, incluyendo la posibilidad de acceder actividades sancionadas, prohibidas, delictivas o peligrosas. (Flick, 2012). También las características de la web facilitan las actividades de investigación realizadas en forma anónima o encubierta, aunque como en la vida offline es difícil sostener en el tiempo la situación del investigador encubierto con la necesidad de abandonar la comunidad en un tiempo perentorio o la obligación de descubrirse con el impacto consecuente que tal acción lleva incorporada.

Otra modalidad de interacción del investigador con una persona o un grupo de referencia es precisamente el empleo de las herramientas audiovisuales que incorporan las tecnologías para la realización de entrevistas sin co-presencia o mediada por la computadora. En efecto, muchos programas permiten la realización de conversaciones a distancia con la posibilidad de ver los rostros con sistemas de grabación en línea. También los programas de teleconferencia pueden emplearse para realizar grupos focalizados donde los participantes pueden observarse simultáneamente en pantallas en forma partida. Si bien en ambos casos se mantiene la estructura dialógica queda por identificar, en los grupos focalizados los potenciales cambios que trae la no co-presencia, así como la mantención de las capacidades del moderador para facilitar la circulación de la palabra. No obstante, una ventaja que debe destacarse es la posibilidad de constituir grupos con personas distantes geográficamente.

Dentro de estas estrategias, las herramientas audiovisuales que facilita internet generan nuevas modalidades de aproximación a los fenómenos a estudiar, por ejemplo, la posibilidad de instalación de cámaras IP en hogares u otros sitios de interés con la finalidad de generar puntos de observación al estilo “panóptico”, como es ampliamente conocido en los programas de “telerrealidad”. Más allá del parecido mediático, la técnica habilita la observación a distancia de diversos fenómenos sin la presencia en persona del investigador en donde aquellos ocurren.

Como se ha expresado la evolución de internet a partir de los primeros años del siglo XXI hacia la llamada web 2.0 ha vuelto la interactividad un lugar común, donde las redes sociales mediadas por computadoras ocupan un lugar de privilegio. No obstante, han surgido otras instancias comunicacionales, como los comentarios de los lectores en periódicos que pueden resultar de interés para los investigadores como los grupos cerrados de sistemas de chat y redes de mensajería como WhatsApp o similares. Existen diversas formas de estudiar las redes tal vez la más intuitiva y sencilla es simplemente la observación de los actores que se presentan en la interacción. Por ejemplo, la cantidad de seguidores en cuentas en redes sociales, la cantidad de mensajes y de respuestas pueden ser indicadores de la presencia de los actores en comparación con otros en el trascurso del tiempo. También el análisis se abrió a la blogósfera.

Con la multiplicación de los blogs en los primeros años del nuevo siglo pareció surgir una nueva fuente de información, especialmente con la emergencia de páginas de grupos hasta el momento de escasa visibilización social. Los sistemas de creación y alojamiento permiten un análisis en torno a su textualidad y la presencia de material audiovisual. No obstante, tanto por la dificultad de generar material nuevo en forma permanente como la imposibilidad de generar un tráfico suficiente que dé sustentabilidad, la gran mayoría de los blogs fueron discontinuados, transfiriendo la gran mayoría de las actividades a las aplicaciones de microblogging a la apertura de los canales que permiten la subida de videos sin necesidad de grandes conocimientos técnicos, con la generación de una nueva categoría de personalidades célebres: los “influencers”, personas evaluadas por la cantidad de seguidores y las repercusiones de los videos que suben.

Más allá de la discusión sobre la capacidad de internet para generar una esfera pública virtual existe un consenso de que parte de la vida social se refleja en los flujos informativos de internet. Esto genera un nuevo desafío en términos de investigación sobre cómo acceder y procesar el flujo incesante de información observando “la gran pantalla”. Big data es el nombre que toma este mundo global de información y data mining o minería de datos, emerge como la nueva estrategia para la investigación de grandes bases de datos, en busca de asociaciones de fenómenos no visibles para el ojo humano. Si bien se pueden tomar diversas definiciones, big data se refiere en general a la práctica de combinar grandes volúmenes de datos de diverso origen, y data mining al análisis de los mismos mediante la utilización de sofisticados algoritmos para interpretarlos. Este conjunto de técnicas de análisis de datos ha ido cobrando protagonismo desde principios del siglo XXI. Existen muchas definiciones para esta nueva “tecnología”. Una de las más inclusivas expresa que data mining es la ciencia de extracción de información útil de grandes grupos de datos, una nueva disciplina que aprovecha la ventaja de la intersección de la estadística; las máquinas de aprendizaje; el aprovechamiento y manejo de base de datos; el reconocimiento de patrones; la inteligencia artificial y otras áreas (Hand, Mannila, & Smyth, 2001). Por el uso de las estadísticas a la que la definición hace referencia preferentemente al uso de técnicas multivariadas combinadas, como análisis factorial; clúster o árboles de decisión, entre otras. El concepto de máquina de aprendizaje, o “learning machine” en inglés, se refiere a los programas preparados para encontrar patrones entre grandes volúmenes de datos, encontrando modelos implícitos y realizar predicciones basadas en una información parcial o incompleta. El desarrollo de la inteligencia artificial (AI) está implícita en la máquina de aprendizaje, implica el desarrollo de algoritmos específicos para el tratamiento de los datos, mientras que el término data warehouse o “almacén de datos”, muestra un aspecto central estas técnicas que se enfoca a que el descubrimiento de patrones dentro de un grupo de datos establecidos “naturalmente”.

En sus inicios tanto big data como data mining se orientaron a dar respuesta al mundo de los negocios como forma de explorar y conocer los datos acumulados en las bases de datos de empresas y organizaciones, por ejemplo, datos de compras en supermercados, registros de uso de tarjetas de crédito, y datos gubernamentales. De hecho, uno de las primeras técnicas de análisis se llamó precisamente “market basket analysis”, cuyo fin era el análisis de las compras del supermercado, buscando asociaciones significativas en las elecciones de los clientes. La solución típica llevó a la generación de la clásica regla de que los hombres que compran pañales eran propensos a comprar cerveza (Raeder & Chawla, 2010). Sin embargo, velozmente las técnicas fueron expandiéndose hacia el análisis de otros tipos de datos como imágenes de los cuerpos astronómicos, bases de datos moleculares, y registros médicos.

La búsqueda de la interpretación de los datos de la web se denomina web mining o minería de la red, aplicando las técnicas de minería de datos a documentos y servicios de la red (Kosala & Blockeel, 2000). A partir de las huellas de quienes visitan un sitio en internet dejan (direcciones de IP, navegador, etc.), los servidores almacenan en forma automática una bitácora de accesos. Las herramientas de la minería de la red analizan y procesan estas bitácoras para producir información significativa.

Los investigadores en temas económicos fueron de los primeros en utilizar estas herramientas para realizar seguimientos macroeconómicos y establecer tendencias (Choi & Varian, 2012), utilizando indicadores tales como los precios de vivienda, venta minorista, inflación, empleo, comportamiento del consumidor y cambios en los consumos privados, donde se demuestra que la incorporación de datos provenientes de herramientas como Google Trends o similares pueden mejorar las predicciones obtenidas mediante encuestas tradicionales (Vosen & Schimidt, 2013).

Estas relativamente nuevas modalidades de análisis también alcanzaron a las ciencias sociales, donde en esos masivos flujos de datos, los científicos sociales se enfrentan a nuevas fuentes para acceder e interpretar. Debe tenerse en cuenta que en términos metodológicos las técnicas de investigación de minería de datos establecen diferencias sustanciales con las modalidades tradicionales de registro de datos cuantitativos, en especial con las encuestas de opinión. Ya no hay muestreo en el sentido tradicional del término, ni una intervención directa del investigador en campo donde a través de los cuestionarios y encuestadores interrogaba en forma directa a las unidades de análisis seleccionadas. Tampoco están disponibles las hipótesis tradicionales donde el investigador “aislaba” variables independientes y variables dependientes. Aquí los datos están disponibles en forma simultánea, por ese motivo se habla de “exploración de los datos”, y es posible vincular estos procedimientos a las técnicas de observación de fenómenos. Por esto también van creciendo dos estrategias adicionales frente a los resultados obtenidos: la visualización de los datos (y resultados), y el “text mining” o minería de textos. La exploración visual de datos permite observar en forma sencilla patrones observables en forma intuitiva y no requiere la comprensión de algoritmos matemáticos o estadísticos complejos (Keim, 2002). Gran parte de la información disponible en la web está disponible en forma de textos, noticias de los periódicos, blog, entradas en redes sociales, etc., allí el text mining busca la extracción de información desde diversas fuentes escritas (Tan, 1999).

Las estrategias más recientes de investigación apuntan a identificar las emociones y los sentimientos de los sujetos que intervienen en la web. Estos caminos, que de alguna forma buscan continuar a los psicólogos que en los años ´30 del siglo XX crearon las escalas, cuentan con nuevas herramientas que apuntan a la identificación automática de los contenidos para la clasificación de mediante algoritmos. El análisis de los sentimientos, tiene su denominación como “sentiment analysis”, y busca identificar las valoraciones, actitudes y emociones de las personas hacia entidades tales como productos, servicios, organizaciones, personas, problemas, eventos, temas, etc.

El análisis de sentimientos se centra principalmente en las opiniones que expresan o implican sentimientos positivos o negativos. Para posibilitar la definición será pues identificar en el lenguaje natural como expresión de un sentimiento que es subjetivo, pero socialmente compartido, por lo tanto, para esto es imprescindible examinar una colección de opiniones para lo que se debe construir un repertorio o diccionario de opiniones y expresiones de sentimientos, y esta información es la que se incorpora al algoritmo. Uno de los más empleados es el llamado API que es precisamente un “clasificador de sentimientos” que es un método de aprendizaje automático para detectar la polaridad de los sentimientos en los mensajes. Para cada mensaje, la API convierte el contenido en una puntuación que indica si el mensaje es positivo, negativo o neutro (Hoang, T. y otros, 2013). Uno de los desafíos de las técnicas es identificar los contextos de generación de los mensajes, así como también determinar los textos de contenido irónico o sarcástico que suelen transmitir un mensaje inverso al expresado.


  1. Adicionalmente se discute en qué medida los cálculos de error muestral son aplicables en este tipo de encuestas no probabilísticas, donde evidentemente no existe una “población” de referencia.


Deja un comentario