febrero 22, 2025

Encuestas: Metodología oculta

Compartir

Siempre han existido distorsiones de la realidad, mentiras o invenciones en el periodismo. Pero antes de Internet, si un periódico publicaba una falsedad, generalmente permanecía en ese medio; ahora, ante un titular llamativo (de algo falso), en lugar de verificar los datos, decenas de medios replican el bulo; y aunque muchos citan la publicación original, eso no impide que falten a la ética.

Casi cualquiera puede hacer sondeos y publicar los resultados. Como dice David Randall: “Hace mucho que cualquier publicista de medio pelo se dio cuenta de que hay un modo, fácil de poner en práctica, de obtener cobertura para su causa, producto, política u organización”. Es común que un medio encargue encuestas a sus becarios, que pague a internautas, a empresas consultoras de escaso prestigio o que lance las preguntas en el mismo medio o en sus redes. Esos “estudios” se publican sin indicar el tamaño de la muestra ni de las regiones donde se realizó.

Los resultados de las encuestas pueden ser confiables siempre y cuando se realicen correctamente. Con preguntas sencillas e inteligentes, y con un tamaño de muestra sea suficiente para ser representativa. Por ejemplo, para una población de 50 millones, se recomienda que sean encuestadas unas mil 600 personas. Y siempre hay un margen de error; para esa cantidad, el margen será de 2.5%. Si se encuesta a 400 personas, hay un margen de  error de 5%. Pero en general, se hacen muchas encuestas a la salida del Metro, por ejemplo; se pregunta a cien personas y con eso ya hacen su estadística. Ahí habría un margen de error del 10% (pero, si hubiera un 50% a favor o en contra de algo, en la realidad sería del 40 al 60%) sin contar que la gente que viaja en el tren subterráneo lleva prisa, por lo que contestará algo políticamente correcto o sin reflexionar. No habrá precisión porque  se dejará fuera a los sectores que conducen autos o bicicletas, por ejemplo.

Esas encuestas al vapor y limitadas área de la consultora, que en lugar de hacer su muestreo en las ciudades más importantes del país, los realizan en Ciudad de México y área conurbada, no son precisas; como la que publicó El Universal el 23 de marzo de 2000: “Caso Colosio seis años después. Complot, el juicio de la población”, en donde se indicaba que según la encuesta de Alduncin y Asociados: “Los mexicanos piensan que Luis Donaldo Colosio fue asesinado en trama política encabezada por Carlos Salinas”. ¿Cómo logró tal opinión la consultora? Pues entrevistando a 508 personas del DF y zonas cercanas. Una cifra irrisoria de encuestados para un país de 101.5 millones de habitantes en ese entonces.

Una empresa consultora respetable debe indicar el número de personas encuestadas, su residencia (viviendas particulares, en ciudades de cuántos miles de habitantes…), su edad, el estrato sociocultural, en dónde se les aplicó el cuestionario, las fechas del levantamiento, si se enviaron cuestionarios (hay que saber cuántos y cuántos no se contestaron), el nivel de confianza, el margen de error y tasas de no respuesta, entre otros puntos importantes.

En tiempos como estos, es común que se inventen estadísticas. Por ello las empresas inmiscuidas, cuando descubren el ilícito, salen a declarar que no son las autoras, como el pasado 18 de diciembre lo hizo Marcelo Ortega, director general de Consulta Mitofsky:

“Recientemente ha circulado resultados de un supuesto estudio sobre la preferencia de los ciudadanos del Distrito 9 de Puebla con miras a los comicios de julio de 2018 para renovar autoridades, estos resultados no corresponden a ningún estudio realizado por CONSULTA MITOFSKY, como hemos adelantado debemos estar todos preparados a estas falsedades y muchas parecidas que surgen en momentos electorales como el que ya vivimos en México”, señaló en un comunicado.

Pero el desmedido amor a los clics, impide que los medios verifiquen o se ciñan a los lineamientos demoscópicos profesionales. Los editores saben que de esos “estudios” pueden extraer titulares llamativos, atractivos o escandalosos, y los publican (o los copian de otros).

Hay un abuso de los sondeos. Después de salir el nombre del precandidato del PRI, se publicaron encuestas sobre las preferencias. En alguna se dijo que un tanto por ciento no conocía el nombre de José Antonio Meade. ¿Tenía sentido, entonces, que se le preguntara esas personas sobre su preferencia? Por otro lado, ese tipo de sondeos podrían considerarse ociosos, puesto que aún no se conocía al resto de aspirantes, los independientes, que deberían también incluirse en los cuestionarios. Hacer estadísticas cuando aún no arrancan las campañas no nos da una visión precisa. El electorado no tiene claras las propuestas; no se ha visto el efecto de los spots, no se sabe si los candidatos cambiarán de estrategias, no sabemos los resultados de los debates, etcétera.

Por supuesto, pudiera ser que exista también la intención de ir conformando una opinión a favor hacia alguno de los aspirantes. Es decir, que el resultado de una encuesta indique que fulano va adelante, pudiera servir para inclinar la intención del voto hacia el “ganador” de esa encuesta. En estas cuasi guerras, todo puede ser usado para llegar al triunfo. En ese renglón se puede inscribir una  modalidad: publicar la opinión de analistas extranjeros en conjunto: a los que observan qué candidato tiene mayores posibilidades de triunfo. Pareciera que se considera que los de afuera —sin estadísticas— saben más que los analistas de casa.

***

También se abusa de las matemáticas. Este titular es un ejemplo: “Ruiz Esparza se hizo dueño de 1.6 departamentos por año [,] de 2013 a 2015… y oculta quién se los vendió” (Portal SinEmbargo. 23 de julio de 2017).

Dice la nota: “De 2013 a 2015, adquirió cinco departamentos; es decir, su patrimonio de bienes inmuebles creció a un ritmo de 1.6 viviendas por año”.

Pero si hacemos las cuentas (creyendo que de verdad ese funcionario compraba un departamento y seis partes de otro cada año) resulta en que, en esos tres años, solamente se hizo propietario de cuatro departamentos y el ochenta por ciento de otro… con lo que se está engañando al lector. Es ocioso meter esas cifras si no son exactas. La mayoría de lectores no tiene la habilidad para hacer esas operaciones mentales. Era suficiente con decir en el titular (y en la nota): “Ruiz Esparza se hizo dueño de cinco departamentos en tres años… y oculta quién se los vendió”.

***

Para cualquier estadística es muy importante el tamaño de la muestra. Por ello, muchos “estudios” no indican a cuánta gente se le preguntó; pudiera ser que de 100 a 400, con preguntas a favor de lo que quiere obtener el encuestador, con lo cual no nos arrojaría datos confiables sobre casi  nada. Mientras más grande sea la muestra, obviamente será mayor la representatividad. Como dijimos al principio, siguiendo a David Randall, si se hace un muestreo inteligente, para un país con 50 millones de habitantes, será suficiente encuestar a mil 600 personas. México tiene casi 120 millones de habitantes y difícilmente encontraremos a una consultora que encueste a más de tres mil personas. Los intervalos de confianza. De eso habla el matemático John Allen Paulos: “Si la muestra es amplia, aumentará nuestra confianza en que sus características se acerquen a las del conjunto de la población. Si la población no es muy variada ni hay mucha dispersión en su distribución, también aumentará nuestra confianza en que sean representativas las características de la muestra”.

Es muy importante saber qué áreas fueron seleccionadas para la muestra. Debería ser obligación de los medios que las transmiten publicar estos datos. Si no los conocemos, se crea una laguna de credibilidad. Por poner un ejemplo tosco: sería muy parcial una encuesta que pregunte sobre Morena en las ciudades donde ha perdido elecciones. Por eso, el lector (o el periodista) antes de asumir una posición debe conocer los resultados de varios sondeos; es muy probable que lo que indica la mayoría sea la tendencia correcta.

Hay un punto importante que los medios no explican: el margen de error. Por ejemplo, se toman dos sondeos; digamos que el candidato Fulano tiene un 45% de aceptación contra Mengano que tiene un 42%. Pero otro estudio señala lo contrario: Mengano va arriba con 44% y Fulano abajo con 42. Alguien puede decir que una de las consultoras tiene una preferencia. Pero como sabemos que ambas encuestas tienen un margen de error del 3 por ciento, entonces, en la primera, Fulano está en el rango del 42-48% y Mengano en el del 39-45%. En la segunda, Mengano está en el rango del 41- 7% y Fulano en el de 39-45%. Es decir, en realidad no hay gran diferencia; se necesitan sondeos más profundos para hallarla.

Es esencial que un medio informe del margen de error, como señala Allen Paulos: “Los resultados de las encuestas que no incluyan intervalos de confianza o márgenes de error suelen ser falsos […]. Si un titular dice que el paro (desempleo) ha descendido del 7.3% al 7.2% y no aclara que el intervalo de confianza es del 0,5 en más o menos, podríamos tener la equivocada impresión de que las cosas han mejorado. Dado el error de muestreo (margen de error), sin embargo, es posible que no haya habido ‘descenso’, incluso ha podido haber un aumento. Si no se dan márgenes de error, una buena norma empírica es que los muestreos aleatorios de mil sujetos más dan un intervalo con estrechez suficiente para casi todos los objetivos, mientras que los muestreos aleatorios de cien sujetos o menos dan un intervalo demasiado ancho para casi todos los fines”.

Por eso nuestra insistencia en que se debería exigir a los medios que publiquen la metodología de las encuestas o, por lo menos, el número de personas encuestadas y el margen de error. Como señala el matemático, deberían publicar una aclaración: “No se trata de una encuesta científica, sino de un muestreo de los amigos y vecinos que han llamado a nuestro teléfono…”; pero agrega: “Más exacto sería decir: ‘He aquí lo que piensan sobre el tema algunas de las personas más entusiastas del barrio’”.

***

En la entrega anterior apuntamos como ejemplo de estadísticas que se repiten en los medios, la de la cifra de un millón de casos de estadounidenses afectados de Sida, que se publicó entre 1985 y 1993 en medios de gran tiraje y que no varió en esos años. Algo parecido ocurre en México con una estadística que se refiere la guerra contra el narcotráfico. Cada cierto tiempo, los medios critican esta guerra en contra de las mafias del narco (sin proponer otra solución). Aunque en este caso la cifra no se repite, es más, nunca coinciden, se expone un número alarmante de homicidios.

Pero no hay quien explique cuántos de esos muertos eran miembros de las fuerzas armadas, policías federales, policías municipales asesinados por narcos; cuántos muertos pertenecían a bandas de narcotraficantes muertos por elementos del gobierno; cuántos criminales fueron asesinados por otra banda rival; cuántos eran civiles asesinados por los narcos; cuántos eran civiles que estaban en el lugar equivocado y alguna otra variante que no dé una visión precisa.

Los medios no se ponen de acuerdo en el número de muertos por esa “guerra” que va del sexenio que gobernó el PAN hasta lo que va de este que gobierna el PRI. Algunos señalan que son más de cien mil, 130 mil o 150 mil. A finales del 2016 y principios del 2017, hubo medios que publicaron que, hasta ese momento, iban más de 180 mil asesinados (entre diciembre del 2006 y diciembre del 2015), y tomaban como fundamento las cifras del Instituto Nacional de Estadística y Geografía (Inegi). Lo que no explican a las audiencias es que esas cifras del Inegi se derivan de la información sobre las estadísticas captadas de registros administrativos de defunciones accidentales y violentas del Ministerio Público; es decir, ahí entran todos los nombres de personas que fallecieron en un choque de autobús, por ejemplo; también si fueron atropelladas, si murieron en un asalto (delito del fuero común; el narco es del fuero federal), muertas por “condición de violencia familiar” y obviamente, las que murieron en esa “guerra”.

Publicar esas cifras sin especificar es amarillista y desinforma a las audiencias, crea percepciones distorsionadas y acrecienta el malestar popular. Las estadísticas nos ayudan a realizar diagnósticos y a tomar decisiones, por ello se debería exigir el máximo rigor en su realización, como señala John Allen Paulos: “Hay, como es lógico, muchísimas parcialidades, innumerables malinterpretaciones posibles y muchos estudios deprimentemente tendenciosos, pero si se hace bien, el proceso funciona; produce  conocimiento”.

 

Autor