Meu TCC da FESP // ADEUS UTOPIA MÍDIAS SOCIAIS, ALGORITMOS E DIVERSIDADE _

 PÓS-GRADUAÇÃO EM SOCIOPSICOLOGIA/ FESP-SP

ORIENTAÇÃO RENATA GUEDES MOURÃO MACEDO

 

ADEUS UTOPIA
MÍDIAS SOCIAIS, ALGORITMOS E DIVERSIDADE ___

 

NATALIA D’ANGELO SAMPAIO

 

Introdução

 

Já estamos, efetivamente, em uma situação tal que Inteligências Artificiais fazem inferências, ou seja, tomam decisões a respeito de que tipo de conteúdo cada um de nós acessa: influenciam diretamente nossa dieta informativa ou intelectual e, por consequência, mesmo que em parte, quem nós somos. (SALGADO, 2021, p. 40)

 

Foi em 2010 que o Facebook estreou seu botão de curtir. A nova forma de interatividade, dita “engajamento”, hoje encorajado por todas as plataformas de mídias sociais, inaugurou, uma nova era para as redes sociais: a era da coleta de dados via inteligência artificial (IA). Antes disso, com a criação do chamado feed de notícias, Mark Zuckerberg, um dos criadores e CEO da rede, desculpou-se por usar informações dos usuários sem autorização. O deslize, seguido de retratação e adaptação de diretrizes de coleta de dados da empresa, se tornaria uma constante em sua carreira, onde níveis de privacidade são criados com o tempo, frequentemente por pressão externa. O feed de notícias, no entanto, se tornou a essência da plataforma: um relatório atualizado em tempo real de todas as nossas atividades e de pessoas que seguíamos. Uma reunião de conteúdo exclusiva, já que ninguém tinha os mesmos interesses e amigos. A personalização de anúncios foi possível a partir de uma coleta intensa destas atividades e de nossa interação com elas. Foi a base para que o Facebook fizesse dinheiro. E muito.

 

Quadro 1: Alguns números do Facebook de 2021: 

 

 

Fonte: [https://financesonline.com/facebook-statistics/]. Acesso em outubro de 2022. 

 

Até 2008 o Facebook dava prejuízo, – 56 milhões de dólares, e tinha um faturamento de 272 milhões de dólares. No ano seguinte, a empresa entrou no azul, com lucro de US $229 milhões, e em 2010, ano de lançamento do botão de like, a empresa faturou US $1,97 bilhões, e o lucro foi de US $606 milhões. Em 2015 o faturamento foi nove vezes maior: 17,9 bilhões de dólares e o lucro US $3,7 bilhões. O desempenho se refletiu no valor total da empresa: em 2009 o Facebook era avaliado em 10 bilhões de dólares, e em 2012, em sua estreia na bolsa de valores de Nova York, cada ação do Facebook foi vendida a US $38 somando 104 bilhões de dólares. A empresa, atualmente intitulada Meta, é líder em aplicativos de mídia social, com 2.2 bilhões de usuários ativos, e 500.000 novos usuários adicionados diariamente, dentre os quais 66% acessam a plataforma todos os dias (Finances Online, 2022). Plataforma que 43% dos usuários estadunidenses usam como fonte de notícias primárias, segundo levantamento do site.  

Atualmente, não é novidade para todos os usuários que nossos passos online são coletados por conglomerados de internet como as empresas Google, Apple, Amazon e Meta (conglomerado de tecnologia que inclui as plataformas Facebook, Instagram, WhatsApp e outras). Todas as quatro companhias, acusadas por monopólio no setor, pelo relatório de uma comissão da Câmara dos Representantes dos Estados Unidos, em outubro de 2020. No mundo conectado, os caminhos que fazemos geram pegadas, e essas são coletadas, codificadas (e traduzidas com certo fim), com a ajuda de engenharia de Machine Learning de algoritmos. Esses dados pessoais, a que a autora Lucia Santaella (2021) chama de “datificação do eu”, vão muito além do engajamento do botão de curtir, coletando aspectos de nossa face e como reagimos a certos conteúdos, sendo este dados armazenados e comercializados, muitas vezes para empresas terceiras – a que não temos conhecimento – e campanhas políticas.

Os algoritmos e dados inauguram na pós-modernidade uma nova forma cognitiva de ser do indivíduo na sociedade. Mas se pararmos para fazer uma reflexão sobre como estes sistemas são programados, nos deparamos com achatamentos de realidade, padronagens irreais, que não refletem a diversidade da malha social. Uma base hegemônica de características humanas de gênero e identidade, refletindo um viés de preconceitos de origem. Ademais, muito se discute atualmente o quanto o fenômeno cada vez mais recorrente da polarização política poderia ser um dos resultados dessa dinâmica. 

 

A polarização em ambientes digitais é de fato, em parte, ocasionada pela presença da IA em redes sociais como o Facebook, particularmente sob a forma de algoritmos usados por ML/DL. Como visto, os algoritmos contribuem para criar ambientes que tendem à homogeneidade ideológica ao agrupar pessoas que pensam de forma semelhante. Com a passagem do tempo, esses indivíduos se desacostumam, gradualmente, a lidar com uma diversidade de ideias e perdem o contato com a mera possibilidade de divergências, as quais, quando ocorrem, tendem a transformar-se em situações de tensão e até atrito social. (SALGADO, 2021, p. 44)

 

Se passamos a capturar e compartilhar um mundo que é tão homogêneo, como será registrada nossa diversidade no futuro? Estaríamos construindo uma espécie de eugenia algorítmica, maquínica, que vai nos impedir de ver tudo aquilo que não se encaixar nos padrões de expectativa e modelização pelos algoritmos? 

Conforme o alerta de Giselle Beiguelman (2021), habitamos um período crucial onde:

 

Estamos vivendo a paradoxal situação de potencialmente criar a mais rica e plural cultura visual da história, pela democratização dos meios, e mergulhar no limbo da uniformização do olhar. (p. 70)

 

Neste artigo, analiso as consequências do impacto fundamental da tecnologia e dos algoritmos em nossas vidas cotidianas. Para tanto, realizo um panorama dos temas: Inteligência Artificial, algoritmos, diversidade, agência e utopia em plataformas de mídias sociais por meio de revisão bibliográfica. Discuto inicialmente como se dá a captura de nossos dados, tendo como foco a rede social Facebook, em seguida questiono para qual finalidade e por quem são capturados. Por fim, analiso quais as consequências dessa realidade e uma possível solução (ou, talvez, diluição?), para seus problemas éticos e riscos. 

 

Tecnologias de IA, de algoritmos Machine Learning e Deep Learning (ML e DL)

 

Na programação tradicional, são inseridos dados manualmente nos computadores e, rodados em um programa, o computador produzirá resultados ou dados de saída. Já no Machine Learning, é esperado que o computador aprenda os passos para realizar certas tarefas de forma cíclica. Exemplo: a partir de dados e resultados de operações anteriores, o computador gera soluções algorítmicas para os problemas apresentados e cria um novo programa, este, retroalimenta a máquina em novos ciclos operacionais mais eficientes, logo, com algoritmos mais inteligentes. Numa etapa seguinte de evolução da tecnologia de IA, temos o Deep Learning, um tipo de ML que permite o aprendizado do computador de baixo para cima, mais supostamente independente da ação humana, e mais condizente à quantidade incalculável de dados. No entanto, a fase de classificação e categorização dos parâmetros de base que estes softwares utilizam pela inteligência humana segue crucial. É nesta chave que reside a presente análise.

Como descreve Beiguelman (2021):

 

…quando falamos de visão computacional, falamos de métodos de processamento de informações contidas nas imagens digitais que são interpretadas por um software. Esses métodos envolvem aprendizado de máquina e têm uma catalogação preliminar que os cientistas chamam de rotulação.  (p. 62)

 

Em tese, quanto mais dados, mais acurado é seu funcionamento. Exemplos da aplicação de DL são aplicativos de streaming: coletam dados aprendendo o que comumente o usuário assiste, fazendo sugestões do que assistir em seguida com base nesta informação. Também um exemplo são os robôs de lojas online, que sugerem uma solução com base em perguntas frequentemente questionadas (FAQ).

A gestão de dados se tornou a medida de sucesso de todas as plataformas. Assim, a mapificação total da personalidade pelos algoritmos das plataformas online tornou-se um lucrativo negócio, pois vendem a certeza da relação consumidor/ realização de venda. Entretanto, o uso dessas ferramentas está longe de ser uma simples relação com fim mercadológico. O algoritmo de Deep Learning está gradualmente sendo utilizado em outros setores organizacionais da sociedade.  

A biometria digital para aplicativos de banco ou para entrada em espaços privados é apenas o estágio de início da utilização para verificação e reconhecimento via IA. O processo de identificação de indivíduos baseado em características exclusivas e distinguíveis, além do reconhecimento facial, se utiliza de outros tipos. Alguns exemplos, a saber:

  • Verificação de impressão digital;
  • Correspondência de DNA;
  • Reconhecimento da geometria da mão;
  • Reconhecimento de voz;
  • Reconhecimento de assinatura.

Estes são os tipos de utilizações “visíveis”. Também existem as aplicações invisíveis de conjuntos de algoritmos, como a seleção para uma vaga de emprego, a avaliação de crédito de instituições financeiras, a compatibilidade ou match em aplicativos de encontros, até algoritmos que determinam tomadas de decisão que impactam a vida do contribuinte, como em maio de 2022, em que o INSS brasileiro substituiu funcionários por robôs nos recursos de aposentadoria. Meses mais tarde o mesmo algoritmo mostrou-se ser, além do fator decisivo por diminuir as filas, “caprichado em negar direitos”. Segundo matéria do Jornal Folha de São Paulo, “em outras palavras, a inteligência artificial do INSS tem sido usada para diminuir a fila, nem que seja negando automaticamente os pedidos de aposentadorias”.

 

Instituições públicas x privadas

 

Algoritmos abertos ao ajuste ou caixas pretas? Cada uma das gigantes da informação possui seu departamento interno de pesquisa e desenvolvimento em produtos de IA. Produtos estes, muitas vezes comercializados a instituições estatais, como é o caso do software de reconhecimento facial “Rekognition”, da Amazon, usado em parceria com a polícia dos Estados Unidos (e em fase de teste com agências de inteligência, como o FBI), sendo este já criticado por não reconhecer rostos de mulheres e, mais precisamente, rostos de mulheres negras. A dinâmica cria um embaraço entre o poder corporativo, o público e a soberania privada do indivíduo. Em caso de abuso e má interpretação, a quem pedir recurso? Companhias que criam estes sistemas, por se tratarem de empresas privadas, não abrem suas fórmulas algorítmicas para que reguladores possam distinguir quais os filtros embutidos, fazer as devidas críticas e ajustes. Então o que temos é uma falta de transparência sobre os parâmetros adotados. Trata-se de uma tecnologia ainda sem regulamentação, mas que regula setores da sociedade cruciais para sua organização.

 

Viés de algoritmo

 

Em seu artigo no New York Times de 2016, “Artificial Intelligence’s White Guy Problem.”, a pesquisadora Kate Crawford alertou para os valores culturais que essas novas tecnologias estavam reforçando. Apontou que, tanto a programação dos algoritmos, quanto os altos cargos responsáveis pelo desenvolvimento de IA no Vale do Silício eram ocupados por “homens brancos, ocidentais, de países ricos”, ressaltando as “discriminações e desigualdade nos locais de trabalho, nos lares e sistemas jurídicos americanos” que a evolução da IA poderia estar reproduzindo. O documentário de 2021 “Coded Bias“, dirigido pela cineasta e ativista Shalini Kantayya, reúne situações e estudos que comprovam o resultado do que Crawford havia indicado, com exemplos recentes de violação de direitos civis e falhas inaceitáveis que os algoritmos de IA vem cometendo. A narrativa do filme parte da experiência da pesquisadora do MIT, Joy Buolamwini, que comprovou a imprecisão de diversos sistemas de reconhecimento facial em detectar rostos de pessoas pretas, ao testar em si mesma. Alguns softwares testados, nem sequer reconheciam seu rosto, exceto quando colocava uma máscara branca em sua face, comprovando o viés na prática.

 

Figura 1 – Joy Buolamwini em “Coded Bias“.

 

Em outra entrevista no documentário, a cientista de dados Cath O’Neil, autora do livro Algoritmos de destruição em massa, cita três fatores que ostenta sua tese que os algoritmos são uma “arma de destruição”: grande impacto na sociedade, fato de poder ser destrutivo para a vida de alguém e a não transparência. Ela pontua que as pessoas têm, em geral, uma baixa propensão a averiguar ou questionar o algoritmo, seja porque há uma “pré concepção de que são complexos e difíceis de entender” ou porque elas confiam na “metodologia científica”, que, na verdade, é enviesada e não isenta. Relembrando os casos em que o uso da tecnologia de reconhecimento facial resultou na detenção equivocada de homens negros inocentes na cidade de Detroit, podemos corroborar seu argumento.

 

FBLearner Predictor

 

O algoritmo “FBLearner Predictor” é um algoritmo de Deep Learning criado pela empresa a partir de outros Machine Learning para fazer exatamente o que o nome sugere: predizer ações do usuário. A princípio, estas seriam inclinações de perfil do usuário, mas não livre de parâmetros, afinal, o algoritmo “aprendeu” com humanos. Primeiro com seus programadores, no qual informações coletadas são atribuídas com um peso ou outro, e segundo, com a base de dados usada como padrão, onde categorias são organizadas também por pessoas. Pessoas com graus diferentes de preconceitos, predileções, sistemas de crença, estes muitas vezes inconscientes. Pessoas estas que não sabemos a cor, a origem, o gênero, pois, no caso do Facebook, se trata de uma empresa particular. 

Qual seria o cuidado para com o grau de diversidade do quadro de desenvolvedores? Enquanto discutimos o quanto é ético que países como a China, via ferramentas de IA estatais, super controlem todos os aspectos da vida de seus mais de 1.412 bilhão de habitantes, o Facebook, com quase o dobro de número de usuários, dá entrada em patente de reconhecimento facial para oferecer a donos de empresas. 

 

O escândalo Cambridge Analytica

 

O caso foi revelado pelo jornal The Observer em março de 2018, que denunciou o uso de dados de milhões de usuários do Facebook como ferramenta para propaganda política em favor de Donald Trump, candidato republicano à presidência dos Estados Unidos. Um dos executivos da Cambridge Analytica era Steve Bannon, assessor político de Trump. Usuários cujos dados foram roubados, foram alvo de anúncios políticos direcionados especificamente para eles. Anúncios criados, muitas vezes, na agência interna da própria empresa, usando informações falsas que aparentavam como notícias, as famosas fake news, propagando inverdades, teorias da conspiração e distorções da realidade. A mesma estratégia foi usada na campanha para o Brexit britânico, por pessoas interessadas na saída do Reino Unido da União Europeia e em campanhas presidenciáveis de outros 68 países, como o Brasil, por exemplo. O escândalo provocou o fechamento da empresa Cambridge Analytica e mais uma desculpa de Zuckerberg, assumindo a falha do Facebook em proteger os dados de usuários e suas conexões. 

Guerra e poder 

 

Os escândalos de vazamento de dados de usuários e denúncias nos mostram que este controle total exercido por esta nova forma de poder é uma realidade. Nas eleições de Donald Trump (2016) e Jair Bolsonaro (2018), as campanhas dos dois presidenciáveis se utilizaram massivamente de plataformas como Facebook e Whatsapp para, através dos dados coletados de milhões de pessoas, manipular eleitores com notícias falsas e inverdades e, por fim, ganhar a eleição nos respectivos países, no que foi chamada por um executivo do próprio Facebook, Andrew Bosworth, como “a melhor campanha de publicidade digital já vista”. Mas estas tecnologias de campanha nada tem de publicidade e marketing comum. Se trata de uma coerção de massas sem padrão anterior na história, um poder bélico e invisível, que reconfigura toda a geopolítica como conhecemos.

 

Platforms of Flatforms

 

A datificação do eu e da vida social, o rastreamento e indexação de nossas ações online em perfis, induzindo ações e valorizando coisas em detrimento de outras, é uma coerção invisível para nos tornar mais dispostos ao consumo, mas também podem (e são) usados para enquadrar nossos valores mais intrínsecos, nossa vida subjetiva. Atualmente não nos mostra mais daquilo que buscamos, consumimos, enfim, age num momento anterior: no desejo e na construção de realidade. Não só nas categorias de gosto, de discurso e ação materiais, mas de nossa construção psicológica. Não poderemos mais buscar o que gostaríamos de desejar, pois não há margem para o impulso, o novo, o acaso e principalmente, o desviante ou rebelde.

 

Campanhas de publicidade convencionais se valem de uma análise de perfis demográficos e, a partir disso, criam-se personas para mapear comportamentos, inclinações de consumo, estilos de vida, padrões, enfim. Tais noções se relacionam com o conceito de habitus que, segundo Pierre Bourdieu, seria:

 

…a correspondência que se observa entre o espaço das posições sociais e o espaço dos estilos de vida resulta do fato de que condições semelhantes produzem habitus substituíveis que engendram, por sua vez, segundo sua lógica específica, práticas infinitamente diversas e imprevisíveis em seu detalhe singular, mas sempre encerradas nos limites inerentes às condições objetivas das quais elas são o produto e às quais elas estão objetivamente adaptadas. (BOURDIEU, 1983. p.1)

 

Na tarefa de codificar e prever nossas ações, tornar as indicações úteis e eficazes, a fim de minimizar gastos e sobras e maximizar o esforço, a filosofia da engenharia de dados tem como objetivo construir uma psicologia homogênea. É mais simples controlar resultados quando se planifica opções. A forma com que foram criadas as linguagens digitais (variações de 0 e 1) tem em sua concepção uma pista simbólica significativa: de que não há espaço para uma realidade interpretativa, com nuances, abstrativa. Aquilo que é vago, impreciso e sem objetivo específico, não tem espaço no mundo binário. O norte da novidade, do estranho, do sonho, da utopia, está desaparecendo do horizonte.

 

Somos uma síntese de determinações, muitas vezes incertas, voláteis e mesmo confusas. Sentimos enquanto pensamos, pois sentimentos e pensamentos não se desprendem. Diante de tudo isso, o que se pode sugerir é que IA e a inteligência humana, pelo menos no estado da arte em que nos encontramos, não competem. Ao contrário, complementam-se em uma coexistência em que as máquinas aumentam nossas capacidades cognitivas, sem serem capazes de substituir algumas delas, especialmente aquelas que dizem respeito àquilo que o humano tem de mais específico e exclusivo: o sentimento como tempero da razão. Que isso assim continue é o que podemos desejar para o futuro. Mais do que isso, que não seja um mero sonho que a IA venha, de algum modo, ajudar no desenvolvimento de sentimentos benignos, algo de que a espécie se encontra hoje em condição de urgência emergencial. (SANTAELLA, 2021. p, 21)

Quis custodiet ipsos custodes?: quem controla o controlador?

 

É difundida, por meio da mídia tradicional como a TV e os jornais, mas também na internet, uma falsa sensação de dicotomia, como se existisse uma relação entre duas partes de pesos iguais, o já gasto termo polarização, quando na realidade o que observamos é que de um lado são adotadas práticas não democráticas: manipulação de fatos, inverdades e discursos de ódio contra grupos identitários, questionamentos sobre a legitimidade de sistemas eleitorais:

Certos grupos nas redes sociais têm se tornado grandes propagadores de fake news, muitas vezes utilizadas com más intenções e que foram capazes de influenciar as eleições presidenciais americanas e permitir campanhas de ódio contra a democracia e os direitos humanos. (HUELSEN, 2021, p. 105)

 

Não há mais, portanto, uma relação entre “estabelecidos e outsiders“, para usar a relação estabelecida pelo sociólogo Norbert Elias (ano): o grupo do establishment atua de forma não palpável. 

O ditado popular “quem não deve não teme” é referido comumente para justificar uma “pré-culpa” de quem se recusa a ter sua privacidade violada. Se quem não deve, não teme, só quem deve é que teria motivo para temer. A princípio um cidadão poderia pensar que nada faz em sua vida online para temer que seus dados sejam coletados, codificados e traduzidos por empresas e governos. Afinal, quem não está fazendo nada de errado não precisaria ter medo de ser punido. Mas o que é o dever, senão imposições muitas vezes arbitrárias de um grupo vigente? 

Não é preciso ir longe na cronologia da história mundial para compreender que este dever muda e que, quem deve (e teme), são sistematicamente grupos minoritários como judeus, mulheres, pessoas pretas, indígenas, de religiões de matriz africana, entre outros grupos de pessoas que não podem discordar de um discurso, regime ou fé vigente ou padrão. “Eu até gosto que minhas preferências sejam codificadas” pode-se dizer, afinal, as máquinas podem fazer uma parte do nosso trabalho de escolha diária. O problema se dá justamente no fato de que os novos sistemas de codificação estão configurados em velhos sistemas assimétricos de poder histórico. 

Seria de muita utilidade que nossos dados fossem usados para gerar playlists com músicas que muito provavelmente gostaríamos. Que o aquecedor do quarto soubesse a hora que vamos dormir para ligar meia hora antes e esquentar o ambiente. Que mal há nisso? Se o objetivo da coleta fosse aquele apenas comercial, ou na ordem da simplificação de afazeres, mas não o é. Estes não são os únicos objetivos da datificação. Se um governo, ou plano governamental, não se interessar por ideias dissidentes, não tiver o interesse de dialogar com grupos opostos, ele pode simplesmente cortar “o mal pela raiz”, para citar outra expressão de uso comum: as pessoas que poderiam ser uma voz crítica e grupos que poderiam regular o peso desigual de uma sociedade, e por conseguinte, vir a regulamentar tomadas de decisões coletivas, podem ser desencorajados antes mesmo de ideais dissonantes surgirem. O que está em jogo são nossas inclinações políticas e valores mais intrínsecos, antes mesmo deles se formarem como tal. Indivíduos sem privacidade e sempre sujeitos à punição são indivíduos incapazes de reagir ao controle. 

 

Considerações finais

 

O monopólio das empresas carrega um alerta real sobre quem detém o poder de narrativa do desenvolvimento tecnológico. O algoritmo precisa de um viés, e o viés tem de ser transparente, se é um viés de uso público. Devemos sempre nos perguntar: quem programa o programa? Como o programa? Para quê o programa? 

Um dado não é neutro, existe uma padronização de ações e uma modulação de comportamento em sua base de criação.

 

Em se tratando de ética e moral, não é possível extrairmos uma média, nem sempre é possível criarmos regras de sim ou de não para certas atitudes. A ética pertence às humanidades, é um tema filosófico, psíquico, social, nada exato. (HUELSEN, 2021, p. 112)

 

As tecnologias de IA, apesar de tema novo, já causam uma série de impactos em nossas experiências de vida, quer vigiando nossas ações, quer modulando nossas preferências. É possível abordar sua amplitude conceitualmente, mas não exatamente o efeito que estes novos paradigmas provocarão em todos os âmbitos materiais e imateriais de sociedade a que estamos implementando. A característica de desenvolvimento e evolução constante da tecnologia demanda observação, novos estudos e teorias para compreensão das dinâmicas de poder e das desigualdades que o desenvolvimento da IA pode fortalecer. Carecemos de uma postura mais crítica e, propositalmente, menos adesiva, tanto a seu modelo de negócios, quanto à dinâmica simbólica, ao rearranjo cognitivo que as plataformas estão proporcionando na sociedade com seus algoritmos enviesados. 

Se majoritariamente mulheres pretas, por exemplo, fossem desenvolver essas plataformas, como elas seriam? Desvios de base de dados são naturais pois estatísticas são estatísticas, e não verdades totais. Se uma sociedade é calcada em ideais racistas, classistas e misóginos, assim serão seus robôs. É necessário medidas afirmativas, para minimizar e reduzir as quebras de ética, os avanços sobre direitos reconhecidos, como o do direito à privacidade, e órgãos reguladores para mitigar estes vieses. Se a realidade é potencialmente enviesada, como podemos ter uma maior consciência e transformar isso?

Já temos no Brasil, escrita com base na Regulamentação Europeia, uma Lei Geral de Proteção de Dados Pessoais. Implementada em 2018, a LGPD exige das empresas transparência, não discriminação, segurança e prevenção de danos frente ao uso de dados. Valendo para qualquer tipo de organização que coleta informações dos usuários, sendo pequenas, médias ou grandes empresas, a lei estabelece ainda a necessidade das empresas criarem planos de supervisão de dados, cabendo à ANPD, ou Autoridade Nacional de Proteção de Dados, sua fiscalização.

É fundamental uma equipe de desenvolvedores diversa em gênero, raça, classe e nacionalidade (pois muitas empresas usam a mesma base em diversos países); verificar se a base de dados está representando a proporcionalidade do universo a que se refere, quais preconceitos está ajudando a validar, ou no mínimo, que estes sistemas sejam criados, vendidos e utilizados, com estas advertências de inconsistência para o usuário (como um remédio é acompanhado de uma bula, com seus efeitos colaterais). É urgente pensar: como naturalizamos estas categorias atribuídas a nós, se muitas vezes sequer temos acesso a essa informação? A datificação do eu nos coloca numa categorização ainda mais delimitada. Mas, que escolha temos em detrimento da vida plataformizada? Tão útil e simplificada? Será que conseguiremos furar as recomendações e bolhas?

Para essa reflexão faço uma alusão à obra de Mark Fisher (2009): Capitalist Realism: Is There No Alternative?. No livro, o autor explora o conceito de “realismo capitalista“, partindo de frase atribuída a Frederic Jameson e Slavoj Zizek: “É mais fácil imaginar o fim do mundo do que o fim do capitalismo?” que utiliza para descrever “o sentido generalizado de que não apenas o capitalismo é o único sistema político e econômico viável, mas também de que agora é impossível até mesmo imaginar uma alternativa coerente a ele” (Fisher, 2009, p. 5). 

Recorrendo ao questionamento de Fisher: seria mais fácil imaginar o fim do mundo do que o fim das plataformas de coleta de dados? Assim como aceitamos o capitalismo como única alternativa de sistema, porque aceitamos essas tecnologias sem contestá-las?

 

A pós-modernidade tem demonstrado a não valorização de uma única ética presente – válida, aprovada, unânime. Seja porque os discursos são muitos em uma cultura globalizada e cada vez mais desorientada pelas possibilidades tecnológicas, seja porque há uma forte valorização de condutas individuais condizentes com o modelo econômico vigente, valorizando o consumo e o viver para si. (HUELSEN, 2021, p. 106)

 

Comumente, quando olhamos para tecnologias de IA pensamos estar olhando para o futuro, talvez por nosso olhar viciado nos livros, filmes e seriados de ficção científica. Mas a IA se baseia em dados, e dados são um reflexo de nossa história. Temos o dever de imaginar um futuro onde possamos legislar, regularizar e organizar as inteligências artificiais com mais atenção, questionar como as usamos, e como elas nos usam (ou suas empresa detentoras), a fim de evitar que sejam reproduzidas injustiças e disparidades do passado-presente de nossa sociedade desigual. Podemos começar a pensar em uma espécie de letramento digital, a fim de ensinar o funcionamento das ferramentas para diferentes grupos identitários e interdisciplinares, e no esforço de democratizar esta ciência, quem sabe, descentralizar tomadas de decisão com relação a padrões e categorias de base dos algoritmos e consequentemente de seus resultados. Mas, particularmente, começar a entender qual o valor real da rebeldia, do dissidente, do diferente, do “inútil”, da utopia. 

 

E a novidade que seria um sonho

O milagre risonho da sereia

Virava um pesadelo tão medonho

Ali naquela praia, ali na areia

A novidade era a guerra

Entre o feliz poeta e o esfomeado

Estraçalhando uma sereia bonita

Despedaçando o sonho prá cada lado”

Trecho da música “A novidade” Compositores: Herbert Lemos De Souza Vianna / Felipe De Nobrega Ribeiro / Gilberto Passos Gil Moreira / João Alberto Barone Reis E Silva.

 

Navigate