Por Antonio Lavareda
Artigo publicado no caderno Ilustríssima – Folha de S.Paulo ed. 15/10/2020 – págs C6 e C7
Os intelectuais públicos generalistas têm o direito e o dever de se pronunciar sobre os temas candentes que empolgam a sociedade, independentemente da maior ou menor familiaridade que tenham com o objeto em questão. Jornalistas também, por obrigação. Mas quando nos deparamos com supostos especialistas, ostentando currículos que aparentemente legitimariam suas assertivas, é importante analisar com lupa a argumentação. Quanto tempo é necessário para alguém se tornar conhecedor qualificado de algo? Malcom Gladwell respondeu essa questão. Segundo ele, não precisa ser diplomado na área, mas dez mil horas de dedicação a um tema são imprescindíveis para se conseguir isso. Na minha experiência pessoal, formado em quatro áreas das ciências humanas, levei alguns anos estudando neurociência antes de publicar artigos e livros conectando-a com a política e a comunicação, um exercício do que Edward Wilson chamou de “consiliência”. Por isso, a mim que frequentemente recuso dar entrevistas sobre assuntos, mesmo da ciência política, os quais não domino, por respeito ao público e por honestidade, causa espécie assistir personagens investirem contra a reputação de profissionais e empresas, sem a menor autoridade intelectual para fazê-lo.
Ronaldo Lemos, um jovem talentoso advogado, com boa bibliografia na área de TI, com o entusiasmo e a pressa desse admirável mundo novo que fascina a todos e particularmente parece inebriá-lo, atirou-se sem hesitação a uma leitura fulminante das pesquisas eleitorais brasileiras. Nas páginas do Ilustríssima, domingo passado, surfou com raro senso de oportunidade a onda da perplexidade e das críticas aos institutos após o dois de outubro. Baseado no que supostamente praticam as empresas desse mercado nos EUA, desferiu em estilo pós-moderno uma sequência impressionante de golpes a laser. Não economizou juízos acerbos acerca da suposta obsolescência do setor. Denunciou a “inépcia” absoluta, que levou “a erros clamorosos”, apontando o “esgotamento” do modelo, alimentado pela “nostalgia” que faz essa atividade moribunda. Não se furtando a apontar caminhos para uma eventual ressureição da atividade: abraçar a sociologia computacional e a abordagem qualitativa. E não perdeu tempo, aproveitando para “empossar” um apadrinhado, um novo farol, o Instituto Atlas, único a “acertar em cheio” o resultado da eleição.
Ocorre que o atleta gnosiológico se jogou na piscina errada. E pior, ela estava vazia.
Desde o primeiro turno das eleições desse ano, pesquisas e institutos têm estado sob ataque das mais diversas fontes. Que infelizmente não se resumem apenas a críticos em busca de holofote. Vão perigosamente além. Numa conjuntura de tensões exacerbadas elas foram contestadas antes e depois da votação. No âmbito do Executivo, uma investigação foi requerida à Polícia Federal pelo Ministério da Justiça. No Congresso, foi deflagrada uma cruzada obscurantista, com vasto arsenal – CPI, Audiência Pública e Projeto de Lei criminalizando a atividade. Qual a principal “evidência” do “erro” dos institutos? A alegada discrepância entre os números apresentados pelas pesquisas e o resultado das urnas.
Então, comecemos pelo que ocorreu no primeiro turno da eleição presidencial, jogando luz sobre a alegada distância entre as fotografias das pesquisas exatamente como foram divulgadas na véspera da eleição e o resultado da mesma. Esse Quadro 1, que elaboramos a partir dos dados oficiais do TSE, e dos levantamentos tal como divulgados pelos meios de comunicação, permite a fácil compreensão das estimativas dos institutos sobre o desempenho dos candidatos no momento da realização dos levantamentos, na média 48h antes do pleito, e os resultados obtidos pelos presidenciáveis. Tal comparação exige ser realizada sobre os totais das pesquisas e do eleitorado. Porque as amostras dos institutos devem ser representativas do total dos eleitores. As intenções de voto e outras opiniões colhidas pretendem ser estimativas da ocorrência das mesmas no universo em questão, ou seja, nos 156.500 milhões de brasileiros inscritos para votar.

No Quadro referido estão os percentuais obtidos por cinco institutos, na ordem em que os divulgaram ao longo do sábado, com as intenções de voto sobre o total do universo e, uma vez excluídos os votos brancos, nulos e indecisos, os chamados “votos válidos’. Observe-se que não se faz pesquisas para captar “votos válidos”, embora esses números passem a ser divulgados pela mídia à medida que se aproxima a eleição. Com o intuito de os fazerem comparáveis com os que serão divulgados pelo TSE. Às vezes eles se aproximam do resultado oficial, às vezes não. Por diferentes fatores. Dois institutos com percentuais sobre o total absolutamente diferentes em magnitude -um deles estando bastante equivocado- podem ter “válidos” semelhantes ou mesmo iguais.
O que fica encoberto nos “votos válidos”? Para sua extração são utilizados os dados das questões estimuladas. Que apresentam os percentuais dos candidatos, mais o percentual de votos em Branco e Nulos, e mais um ou dois porcento de “não sabe”, os supostos indecisos. E a partir daí são excluídas essas duas últimas categorias, recalculados os números e…. tem-se o que parece uma projeção, baseada na pesquisa, do resultado final. Parece mas não é. Por que de onde sairá a abstenção que não foi computada nem declarada? Inevitavelmente sairá dos contingentes de intenções de voto dos concorrentes. Ela prejudicará igualmente os candidatos? Lógico que não. No Brasil, como na maioria dos países, ela se concentra mais na base da pirâmide social. Para se ter uma ideia, dos quase sete milhões de eleitores analfabetos, cerca de 52% não votaram no primeiro turno. E quase metade dos eleitores de Lula têm até fundamental completo. Por isso, eu lembrava no Twitter, no dia 01/10, que a abstenção precisaria diminuir para aumentar a chance dele vencer no primeiro turno. Entretanto ela ainda foi um pouco maior (21%) do que em 2018.
De outro lado, nas colunas de totais percebe-se sem maior esforço que em direção contrária às perplexas especulações da noite da eleição e dos momentos seguintes, todas as pesquisas publicadas se aproximaram na margem de erro, ou até coincidiram numericamente, com os 33%, arredondados, da votação de Bolsonaro. Elas estimaram a mais, porém na margem de erro, todos os concorrentes da terceira via e os nanicos abaixo de 1%. Entretanto todas elas captaram intenções de voto em Lula entre sete e onze pontos acima do voto efetivo (37% arredondados) que ele registrou nas urnas. A explicação para essa distância está lá na base da última coluna à direita do Quadro 1. Nos 21% arredondados da abstenção.
Vez por outra aparece algum curioso que pretende dissociar abstenção de pobreza. Os argumentos variam desde a desatualização dos cadastros da Justiça Eleitoral por conta do delay na informação dos óbitos pelos cartórios cíveis até a falta de transferência de títulos para novos municípios de moradia dos eleitores. As duas coisas naturalmente devem ocorrer, mas nada sequer capaz de chegar perto do montante de 32.771 milhões de ausentes. E no caso da falta de transferência, lembremos que o fenômeno também é fruto da pobreza.
Os dados do TSE, apresentados no Quadro 3, relativos à abstenção por faixa de escolaridade no primeiro turno são eloquentes. A correlação entre o não comparecimento e a baixa escolaridade classificada nesses sete estratos, chega a -0.87. Quanto menos escolaridade, mais abstenção. A diferença entre o topo e as camadas de escolaridade inferior é impressiva. Na base (analfabetos) é mais de 4 vezes superior ao extremo superior da pirâmide (curso universitário completo). É impossível negar a realidade. Em um país democrático que adota o voto obrigatório, não se pode naturalizar a ocorrência, eleição após eleição, de uma lamentável “abstenção compulsória” de tamanha proporção.

O que foi dito acima sobre proximidade entre os números revelados às vésperas da eleição e os das urnas não significa desconhecer o principal postulado dessa atividade, indicado no título da minha fala no Seminário da ABEP dirigido a jornalistas em maio desse ano: “Por que pesquisas não podem ser lidas como prognósticos”. No texto, aponto alguns dos fatores que desautorizam o uso para tal fim dos resultados de tais levantamentos. Destaco o papel do voto estratégico, típico de sistemas pluripartidários como o nosso, o voto errático, e sobretudo a abstenção, a qual nenhum instituto, como se viu no Quadro 1, tem condições de estimar de modo razoável, pelo fato do voto ser obrigatório e os prováveis absenteístas não revelarem essa disposição.
Aliás, mesmo com o voto sendo facultativo nos Estados Unidos, identificar os “likely voters” é uma tarefa difícil para os institutos de lá, cada qual usando uma fórmula diferente desde George Gallup, e poucas vezes acertando, como observa Elliot Morris.
O fenômeno ocorrido este ano é singular? Não. Aconteceu muitas vezes. Mesmo FHC quando ganhou em primeiro turno em 1994 tinha 48% sobre o eleitorado total na véspera do pleito, mas nas urnas obteve apenas 36,2%. A abstenção foi de 17,8%, e o Branco e Nulo, com voto ainda em papel, chegou a 15,5%. Lula, quando por 1,4 ponto não se sagrou vitorioso no primeiro turno de 2006, marcava 46% sobre o total na véspera, mas nas urnas a abstenção lhe tomou nove pontos e ele só alcançou 37,1% do total de eleitores naquele momento. E quanto à escolha de governadores em alguns estados, já que na maioria deles não houve mudanças significativas em relação às pesquisas? Neles, as mudanças de última hora foram exatamente isso. Movimentos finais que ocorreram após as últimas pesquisas divulgadas. Precisamente como a teoria do voto estratégico supõe: eleitores que utilizam a informação dos últimos levantamentos para alterar seu comportamento. Em estados como São Paulo, Santa Catarina, Rio Grande do Sul, Mato Grosso do Sul, e Bahia, foi nítido o “alinhamento”, com a disputa nacional que assumiu polarização recorde, repetindo a morfologia de 2006. Fracionamento ( FE: 0,58) e Número de Competidores Efetivo (NE: 2,4). Os menores da Nova República.
Isso posto, dirijamo-nos à metodologia. Será que está mesmo moribunda como foi apontado? Salvo a pesquisa do IPESPE, telefônica, as demais foram todas presenciais, mas dado que os resultados foram muito próximos, é inócuo discutir-se qualquer diferencial de acuidade entre elas. E quanto à pesquisa Atlas, única on-line, que segundo Lemos seria o novo padrão “gold” das pesquisas? Mais uma vez, o crítico olhou para o que não viu, e não acertou exatamente porque não viu. O Quadro 2 compara os resultados anunciados pelo Atlas na véspera da votação com os resultados da eleição. Esqueçamos os “votos válidos”, porque como já foi comentado as pesquisas captam intenções de voto identificadas em amostras colhidas sobre o total de eleitores, e não sobre “votos válidos”. Assim, eventual proximidade com os números de Lula “válidos” é apenas coincidência. A comparação necessária é com os números totais.
Lançado o foco na direção correta, o que se constata é que os dados do Atlas, contrariamente ao que a análise ingênua e apressada de Lemos identificou, foram os que mais se distanciaram tanto do número de Lula, quanto do número de Bolsonaro. Treze pontos em relação ao primeiro, e oito pontos em relação ao segundo. Estamos falando de 20 milhões de votos a mais no primeiro colocado, e 12,5 milhões no segundo. Foi o único instituto a ficar fora da margem de erro no que concerne ao incumbente.

Não que a metodologia on-line do Atlas esteja “errada”. Não se trata disso. Ela ainda é apenas “inadequada” para estudos eleitorais no Brasil, onde um quarto da população não é usuária frequente da internet, onde temos 7 milhões de eleitores analfabetos e 25% da população padece de analfabetismo funcional. Eu montei, em companhia de conhecidos cientistas da computação do CESAR o primeiro instituto de pesquisa on-line do Brasil vinte e três anos atrás, em 1999, o Diga-me.com. De lá para cá, vários dos institutos criticados em bloco no artigo ora replicado desenvolvem rotineiramente estudos on-line em segmentos específicos, em geral de classes A/B/C, mas não na base da sociedade. Isso vai mudar, decerto, mas levará alguns anos. As pesquisas de opinião pública no Brasil ao contrário de presas à “nostalgia”, avançaram no tempo, e frequentemente utilizam métodos híbridos como nos Estados Unidos. Aliás, por falar no berço das pesquisas e das redes sociais, embora naquele país sejam comuns pesquisas eleitorais on-line, nenhuma das quatro organizações rankeadas com grau A+ pela qualidade do seu desempenho no site 538, de Nate Silver, utiliza essa metodologia. As quatro operam entrevistas phone live, telefônicas com entrevistadores humanos. Tampouco o uso das ciências sociais computacionais recomendado pelo autor é novidade para ninguém no setor. As redes sociais são vasculhadas pelos institutos. Índices são estabelecidos com base nas suas interações. Levantamentos de tráfego de pessoas e automóveis realizados por sinais de telefonia celular com uso intensivo de GPS. E boa parte dos projetos de pesquisa de mercado dos mesmos institutos que desenvolvem as pesquisas eleitorais usam estratégias “double track”, associando a investigação do comportamento nas redes à busca das opiniões dos consumidores.
Da mesma forma, a “guinada qualitativa” demandada no artigo já ocorreu há muito tempo. Afastando o dilema entre Cila e Caribde, números sem juízos ou juízos sem números. Todos os principais institutos contam com departamentos qualitativos, o que parece desconhecido pelo autor, com profissionais de sociologia, psicologia e antropologia, conduzindo estudos presenciais e on-line cujos resultados alimentam hipóteses testadas quantitativamente. E vai-se além. Eu mesmo tive oportunidade de introduzir anos atrás no país a metodologia Quali-Quanti, unindo as duas dimensões, por meio de baterias de 200 a 400 entrevistas, com roteiros semiabertos, para pré-teste de comerciais.
Lemos adverte que “só sobreviverão as instituições que sejam mais parecidas com a língua que com os dentes”. Esqueceu, contudo, que a sabedoria elementar recomenda evitar, pelo uso ansioso do verbo irrefletido, que os dentes mordam a língua.
Por fim, o que explica esse mergulho desajeitado em um universo com o qual demonstra tão pouca familiaridade, passando a nítida impressão de que foi vítima de um aprendizado auricular enviesado?
Dois terços do artigo estão voltados ao diagnóstico da liderança da extrema direita no universo digital brasileiro, ancorada em narrativas articuladas na cultura e subculturas das plataformas. Essa é a verdadeira preocupação do autor. Legítima e procedente, diga- se de passagem. Não há como discordar da constatação de que o centro e a esquerda não têm se mostrado em condições de confrontar à altura a vanguarda ideológica e comunicacional dos seus antípodas.
Quanto às pesquisas, há muito que fazer, menos desmerecê-las. São fundamentais para o processo democrático. Governos e outras instituições não podem prescindir delas. Das informações e avaliações da repercussão que suas ações e omissões despertam na população. E a sociedade, como se orientaria sem mirar-se periodicamente nesse espelho? Por tudo isso, entidades como a ABEP, ABRAPEL E ABCP cogitam se debruçar após as eleições sobre os resultados, métodos e técnicas utilizadas na atual temporada eleitoral, incorporando nessa reflexão as opiniões e cobranças dos críticos. Tal como a entidade dos pesquisadores norte-americanos (AAPOR) faz a cada ciclo de eleições. Certamente, há muito a ser melhorado, aperfeiçoado, atualizado. O que exige uma boa dose de autocrítica. Essa é a essência da atividade científica. Não parar jamais. Questionar-se sempre. Não se satisfazer nunca com o conhecimento alcançado.
Você precisa fazer login para comentar.