Série de conteúdos produzidos pelo projeto Ciclo22, que remete à reflexão da USP sobre quatro grandes marcos (1822, 1922, 2022 e 2122): o bicentenário da Independência do Brasil, o centenário da Semana de Arte Moderna, o tempo presente e os desafios para os próximos 100 anos

Foto: Cecília Bastos/USP Imagens

Universo contemporâneo exige políticas para letramento digital

Em entrevista, professora Giselle Beiguelman, da Faculdade de Arquitetura e Urbanismo da USP, fala sobre a digitalização da cultura e a necessidade de formações que discutam o funcionamento das redes

 27/01/2023 - Publicado há 1 ano     Atualizado: 30/01/2023 as 17:47

Crisley Santana

Para além de representações estéticas, imagens podem representar confrontos políticos. Preconceitos digitais gerados da relação homem-máquina estão entre os desafios a serem enfrentados no mundo digital, conforme defendeu a professora e artista Giselle Beiguelman, da Faculdade de Arquitetura e Urbanismo (FAU) da USP em entrevista ao projeto Ciclo22

Mais que acesso à internet, com uso de redes sociais, por exemplo, ela ressalta a necessidade da alfabetização das novas mídias. O novo mundo que se apresenta exige reflexões sobre o manejo da vida digital por poucas empresas. Confira abaixo.

20230130_giselle_beiguelman

Giselle Beiguelman, da Faculdade de Arquitetura e Urbanismo da USP - Foto: IEA/USP

Em seu livro Políticas da imagem, vigilância e resistência na dadosfera, a senhora reflete sobre o uso das imagens. Para onde esse consumo imagético excessivo tem nos levado?

Essa é uma pergunta difícil porque parte do pressuposto de que temos condição de prever os caminhos pelos quais a tecnologia vai enveredar e isso depende de uma conjunção de fatores, desde as prerrogativas das empresas que hoje controlam praticamente todas as instâncias da vida à nossa capacidade de resistir que a nossa vida seja controlada por cerca de cinco ou seis grandes big techs.

Em linhas muito gerais, no campo das imagens, 2022 foi o ano do text to tudo: text to text, text to image, que são formas de interação homem-máquina por meio de inteligência artificial. Essas formas de interação estão chegando a níveis que poderiam indicar novas formas de cumplicidade entre nós e os objetos inanimados. Mas, por outro lado, cada vez mais se tornam caixas-pretas, as quais temos pouca condição de destrinchar.

As possibilidades são inúmeras. Nas perspectivas mais otimistas, todas essas revoluções tecnológicas, em particular o que vem acontecendo no campo da inteligência artificial, apontam para uma possível compreensão da nossa relação com o mundo para além das categorias tradicionais das relações entre cultura e natureza, na qual os pactos são distintos e a própria ideia de natureza como independente da vida humana deixa de fazer sentido.

Por outro lado, tudo isso tem nos mostrado o quanto o consumo avassalador de energia elétrica, de equipamentos, de demandas de redes cada vez mais amplas foi para uma concentração de poder sem precedentes, ficando na mão de pouquíssimas empresas, além de uma devastação planetária e um custo ambiental altíssimo. Então, todas essas potências em aberto podem apontar, também, para um futuro muito mais sombrio. 

No campo das imagens, grandes apostas estão sendo feitas porque a imagem tem uma centralidade política que hoje é bastante distinta do que já teve, transcendendo os limites da representação. As imagens são o campo em que os enfrentamentos políticos acontecem.

Ainda falando sobre imagens, como a senhora vê o racismo algorítmico? Embora seja difícil fazer uma projeção, o que a gente pode esperar para os próximos anos? Aumento ou diminuição dessa violência digital?

O racismo algoritmo é uma dimensão do racismo estrutural, ele não é uma coisa em si. Nós vivemos no mundo real e o mundo digital é a instância mais real do real contemporâneo. Por um lado, o racismo digital explicita o quanto a internet é dominada por players brancos. Não é só construção dos modelos, é o que alimenta os modelos. Os data sets, como nós chamamos os conjuntos de dados organizados que serão treinados por inteligência artificial, são pobres em imagens de pessoas negras e há problemas seríssimos no processo de rotulação dessas imagens. 

A própria rotulação dessas imagens para iniciar os processos de treinamento vem com uma carga de noções consolidadas no âmbito desse racismo estrutural em que vivemos. A hierarquização dessas distribuições de papéis e correlação de forças fazem com que os modelos sejam uma instância de agravamento de contradições e violências que vivemos.

Nós precisamos estar alertas o tempo todo. Eu tenho chamado muita atenção sobre como a inteligência artificial trabalha a partir de padronizações, então até que ponto nós estamos correndo o risco de construir sistemas que não enxergarão e tornarão invisíveis pessoas que já foram invisibilizadas a partir de outras práticas e violências, e torná-las ainda mais vulneráveis perante sistemas de vigilância e de policiamento? Este é um dos temas centrais, especialmente em um mundo de novas políticas da imagem, no qual processos de reconhecimento facial, por exemplo, ditam a nossa liberdade de ir e vir na cidade. 

Nós estamos entrando em uma era Cesare Lombroso 2.0, no qual a pessoa não cometeu um crime, mas todas as variáveis canônicas daquilo que se considera a característica do ‘indivíduo criminoso’ estão atreladas a um determinado tipo de deslocamento na cidade. Essa pessoa, a priori, não cometeu um crime, mas o sistema entende, baseado no conjunto de variáveis que mobiliza, que essa pessoa poderá vir a cometer um delito. A pessoa, então, é acusada por previsão. Temos aí um deslocamento da noção de vigilância como prevenção para a noção de vigilância como previsão. Isso acirra as questões do racismo algorítmico. Dessa forma, não só reflete a violência racial e social que já vivemos, mas cria novas formas de violência. Essas formas de violência tendem a se consolidar se nós não contestarmos política e eticamente as correlações de forças no ambiente dos dados.

O preconceito digital também afeta outras questões sociais, por exemplo, questões de gênero?

Quando falamos em visão computacional, estamos supondo que os computadores enxergam, mas o que temos são sistemas que articulam variáveis para determinar formas e processos. 

Sobre a questão de gênero, esses sistemas têm muito pouco preparo sobre isso porque eles operam a partir de uma previsão baseada em informações rígidas sobre o que é o masculino e o feminino. Quando entram em contato com um corpo que não corresponde às características do padrão de gênero binário estabelecido, automaticamente não o reconhecem, o que cria problemas no trânsito em aeroportos, por exemplo, em sistemas de escaneamento.

Além disso, os sistemas tendem a acirrar preconceitos raciais e sociais. Quando o Google Translator traduz textos para o espanhol ou português, é comum as mulheres aparecerem como “he“. Nas buscas de imagens, mulheres brancas vestidas de noivas são identificadas corretamente. Mas se a imagem for de uma noiva africana ou da Índia, ou qualquer outra cultura não ocidental, sua roupa será identificada como “performance” ou fantasia. Novamente, isso não é atávico. Reflete a estrutura social e racial que enviesa os dados, impactando suas respostas. Isso também vai se refletir na invisibilidade de determinados sujeitos sociais. 

Retomo aqui uma situação vivida durante o auge da pandemia do coronavírus para esclarecer esse tópico das relações de visibilidade e invisibilidade social. No Estado de São Paulo, e em vários outros lugares, foi necessário “medir” a eficiência da quarentena. Era fundamental para o poder público saber como se organizar e se articular. Essa gestão foi feita  a partir do cruzamento de dados das secretarias de saúde pública e das operadoras de telefonia móvel, pois os dados do GPS poderiam indicar o deslocamento das pessoas pela cidade. Ou seja, é o seu GPS junto a vários outros, cruzados com os dados das secretarias municipais e do Estado sobre as entradas e saídas nos hospitais e PSs que permitiam monitorar se a quarentena estava funcionando.

Você pode me perguntar se isso é ruim. Não, é um ótimo uso para políticas públicas. Mas alguém nos informou? Alguma operadora de telefonia móvel falou: “Olha, vou franquear os seus dados para o poder público”? Duvido que as pessoas se negariam, mas elas simplesmente ignoram que essa relação existiu. 

O segundo problema é que esse modelo pressupõe que todos têm um celular conectado à internet e com GPS ativo. Então vem outra pergunta sobre, por exemplo, a população em situação de rua. Como foram monitoradas? É bem possível presumir, então, que aquelas pessoas para as quais o Estado já havia virado as costas se tornaram invisíveis na pandemia porque não eram computáveis. 

Esses exemplos mostram também que tudo aquilo que sai fora do padrão estabelecido pelas biopolíticas baseadas em dados computáveis vira um campo de ruído. O problema, em países como o Brasil, vem da pergunta “quem é aquele que o sistema não enxerga?”. O que não é visível para ele? Que sujeitos sociais estão sempre invisibilizados por essas tecnologias de controle a partir do campo das imagens e das redes?

Isso é bem problemático. Se você não é computável, você não existe. 

A cidadania como algo instrumentalizado a partir dessa relação de pertinência, como dado computável, é bastante cruel.  

Temos que criar políticas para mudar esse cenário? Passa pelo Estado resolver essa questão?

É ilusão pensarmos que o Estado é capaz de resolver questões que são da ordem das empresas, mas sim, políticas públicas podem e devem elaborar sistemas para confrontar essas relações. Nós não podemos virar reféns. 

Onde a coisa fica mais complexa? É preciso entender que quando falamos de e-governança, não estamos falando só em digitalização das formas de avaliação, de cadastro de alunos, estamos falando de maneiras de discutir questões transnacionais que não são locais. Adianta aventar um clone da internet mundial, uma internet brasileira? Isso não existe. Existe uma produção de cultura digital a partir do Brasil, mas a internet precisa ser pensada na sua translocalidade, transnacionalidade.

Tão urgente quanto essa questão, é discutir limites éticos. Por exemplo, voltando ao exemplo da covid. Eu venho discutindo questões de memória digital há muito tempo e sempre pergunto: e se o YouTube sair do ar? Se, por exemplo, o Google decidir que o YouTube não é mais economicamente viável e, como outros produtos, será descontinuado. É uma hipótese. Então, pergunto: se isso ocorrer, onde ficará a memória da nossa vida durante a covid-19? Porque tudo o que fizemos ao longo de dois anos foi canalizado para  o YouTube. De certa forma, o YouTube foi um dos centros da vida pública nesse período. Isso nos leva a pensar nos limites éticos da posse dos dados. 

As políticas públicas contemporâneas, por isso, têm que dar especial atenção para a educação no campo do letramento digital. Apesar da nossa diferença de idade, somos produto de uma cultura impressa e nós não fomos letrados digitalmente. Mesmo os meus alunos que já nasceram no mundo digital foram letrados para um mundo impresso. Um mundo de letramento digital é um mundo que permite uma competência cognitiva para ler toda essa opacidade e agir nela. 

Isso não quer dizer que eu acredite que as escolas precisam ensinar programação aos alunos desde a sua mais tenra idade. Mas as escolas precisam entender que nós estamos lidando com um campo de linguagem, a linguagem computacional, e que os alunos e os professores precisam ser letrados a ler esse mundo para operar nele e transformá-lo. 

Quando nós estávamos na escola e as nossas professoras nos introduziram aos primeiros fundamentos, como o letramento da língua portuguesa, o objetivo delas não era que nós virássemos o próximo Euclides da Cunha ou a próxima Clarice Lispector. Era criar um repertório mínimo cognitivo que tornasse possível discernir uma bula de remédio de uma página escrita pela Clarice Lispector. Isso é uma operação cognitiva extremamente complexa que nos permite entender que, apesar de tudo ser formalmente um monte de letras em sequências horizontais, são textos de natureza e sentido distintos.

Precisamos urgentemente falar de letramento digital. A bolsa internet para as escolas, que o governo Lula está aventando, é muito importante, mas não basta dar conexão. É preciso tratar de políticas públicas para além do acesso ao meio, que de fato permitam uma interação com a linguagem.

Onde a gente começa essa discussão? Nas próprias redes sociais? Na Universidade?

Em todos os lugares. A Universidade tem um papel importante como centro produtor, capaz de unir diferentes setores para pensar as questões do nosso tempo. Isso demanda que levemos a sério noções como “humanidades digitais” e que as próprias humanidades reconheçam que essa nossa visão de mundo, na qual existe um campo do saber que pensa e um campo que executa, não corresponde mais à contemporaneidade. Nós vamos nos tornar mais e mais reféns desses sistemas se nós continuarmos insistindo na ideia, que é muito comum nas humanidades, e entre os artistas, em particular, de que “isso eu não preciso entender porque isso é uma questão da técnica. Isso é a tecnologia que faz”. Do meu ponto de vista, isso é corroborar que a opacidade do sistema é bem-vinda. Mas não é.

Uma revolução nos sistemas educacionais e políticas públicas orientadas para um mundo digitalizado é condição de base para a mudança. Uma das grandes estratégias das grandes empresas digitais é nos facilitar os processos de modo que não precisemos pensar, mas nós queremos pensar! Depende da nossa capacidade de pensar a capacidade de mudar.

Tem algo a mais que considere pertinente acrescentar sobre o mundo digital e o que esperar dele? 

É importante entendermos que não vivemos no mundo digital. Vivemos em um mundo que passa por um processo de digitalização da cultura. Assim como viemos de uma cultura impressa e audiovisual, estamos em um momento dos processos de digitalização. Isso é muito diferente de pensar que nós vamos viver em um universo paralelo. Nosso mundo é este, onde os encontros e os imprevistos são possíveis. As tecnologias digitais fazem parte deste mundo e não de um plano à parte. É por isso que temos que discuti-las.

Acompanhe o projeto Ciclo22 da USP no site: ciclo22.usp.br. Cadastre-se e receba as notícias por e-mail clicando aqui.
E siga as redes sociais do projeto:Twitter | Instagram | Youtube

CONFIRA TAMBÉM SOBRE O CICLO22: