Os Impactos da Propaganda Digital na Democracia PDF

Summary

Este documento analisa os impactos das tecnologias digitais na democracia, abordando temas como propaganda computacional e o risco de totalitarismo tecnológico. Apresenta factos sobre interferência, propaganda, e discute o papel da tecnologia em influenciar a opinião pública e as eleições. Inclui uma questão para debate sobre o futuro das democracias ocidentais face à tecnologia.

Full Transcript

Os Impactos das Tecnologias Digitais na Democracia Interferência tecnológica na democracia. Propaganda computacional. O risco de Totalitarismo tecnológico. A tecnologia das Máquinas de mentiras (Lie Machines) P. Castro Alguns factos sobre interferência tecnológica na democracia em 2020 A manipu...

Os Impactos das Tecnologias Digitais na Democracia Interferência tecnológica na democracia. Propaganda computacional. O risco de Totalitarismo tecnológico. A tecnologia das Máquinas de mentiras (Lie Machines) P. Castro Alguns factos sobre interferência tecnológica na democracia em 2020 A manipulação da opinião pública através das redes sociais é uma ameaça para a democracia. Fonte: Industrialized Disinformation: 2020 Gl obal Inventory of Organized Social Media Manipulation, no contexto do (DEMTECH (Programme on democracy and Technology), no Oxford Internet Institute) Propaganda computacional (Computational propaganda) consiste na criação de notícias e informações enganosas ao serviço de interesses políticos e Evidência de PC em 81 países com distribuídas por algoritmos nas ferramentas, capacidades, estratégias redes sociais. e recursos utilizados para manipular a opinião pública em todo o mundo utilizando cyber-troops (agentes governamentais ou de partidos políticos, cuja missão é manipular a opinião pública online, evolução entre 2016 e 2020). Países onde há evidência de Propaganda Computacional Angola, Argentina, Arménia, Austrália, Áustria, Azerbaijão, Barém, Bielorrússia, Bolívia, Bósnia e Herzegovina, Brasil, Camboja, China, Colômbia, Costa Rica, Croácia, Cuba, República Checa, Equador, Egito, El Salvador, Eritreia, Etiópia, Geórgia, Alemanha, Gana, Grécia, Guatemala, Honduras, Hungria, Índia, Indonésia, Irão, Iraque, Israel, Itália, Cazaquistão, Quénia, Quirguizistão, Kuwait, Líbano, Líbia, Macedónia, Malásia, Malta, México, Moldávia, Myanmar, Países Baixos, Nigéria, Coreia do Norte, Omã, Paquistão, Filipinas, Polónia, Qatar, Rússia, Ruanda, Arábia Saudita, Sérvia, África do Sul, Coreia do Sul, Espanha, Sri Lanka, Sudão, Suécia, Síria, Taiwan, Tajiquistão, Tailândia, Tunísia, Turquia, Ucrânia, Emirados Árabes Unidos, Reino Unido, Estados Unidos, Usbequistão, Venezuela, Vietname, Iémen e Zimbabué Fonte: Industrialized Disinformation: 2020 Global Inventory of Organized Social Media Manipulation Fonte: Industrialized Disinformation: 2020 Global Inventory of Organized Social Media Manipulation Três tendências principais no inventário da atividade de desinformação: 1. Utilização crescente de redes sociais para difundir propaganda informática e desinformação sobre política. 2. Empresas de redes sociais tomaram medidas importantes para combater a utilização indevida das suas plataformas. Anúncios públicos do Facebook e do Twitter entre janeiro de 2019 e dezembro de 2020 revelam que mais de 317 000 contas e páginas foram removidas pelas plataformas (versus US$ 10 milhões gastos em anúncios para actividades de cyber troops). Fonte: Industrialized Disinformation: 2020 Global Inventory of Organized Social Media Manipulation 2.1 Entretanto, em 2025, a Administração Trump nos EUA, com o empenho de Elon Musk (X) e Mark Zuckerberg (Meta), desativaram os mecanismos independentes de verificação de factos por terceiros (third party fact-checking programs), substituídos por um modelo (eventualmente, menos fiável) de verificação chamado “Community Notes model”. A justificação foi a pretensa defesa da Liberdade de Expressão nas sociedades democráticas. Fontes: More Speech and Fewer Mistakes, Vídeo de Zuckerberg, Meta, 2025 Facebook, Instagram e WhatsApp vão deixar de ter fact checks para "voltar às raízes da liberdade de expressão“, Jornal Observador, 2025 2.2 Paradoxalmente à defesa pretendia das sociedades democráticas, estudo de Berkeley revelou um aumento persistente do discurso de ódio na plataforma X: Fontes: Study finds persistent spike in hate speech on X, UC Berkeley News, 2025 Hickey, D., Fessler, D. M. T., Lerman, K., & Burghardt, K. (2025). X under Musk’s leadership: Substantial hate and no reduction in inauthentic activity. In S. Cresci (Ed.), PLOS ONE (Vol. 20, Issue 2, p. e0313293). Public Library of Science (PLoS). 2.3 Há ainda a utilização da rede social X por parte de Musk para influenciar o sistema político do Reino Unido. Fonte: Elon Musk explora estratégias para forçar destituição de Starmer como primeiro-ministro do Reino Unido, Jornal Expresso, 2025 3. Empresas privadas fornecem cada vez mais campanhas de manipulação (48 casos de empresas privadas em 2019 que utilizaram propaganda computacional em nome de um ator político). Desde 2018, mais de 65 empresas ofereceram propaganda computacional como um serviço (US$ 60 milhões foram gastos na contratação dessas empresas desde 2009). Fonte: Industrialized Disinformation: 2020 Global Inventory of Organized Social Media Manipulation Monitorização de actividade de Propaganda Digital Election Watch for the Digital Age (Freeddom House) Vulnerabilidade dos países a disrupções atentatórias à Liberdade Criação de contas falsas operadas por bots por altura da invasão da Ucrânia (durante 2022) Durante a invasão russa na Ucrânia, houve uma campanha coordenada de desinformação no Twitter, onde aproximadamente 20% das contas que espalhavam mensagens pró-Rússia eram bots criados no início da invasão. Estes bots operaram especialmente em países que se abstiveram na votação da resolução da ONU (por exemplo, Índia, África do Sul, e Paquistão). Uma estratégia para enfraquecer o apoio global a sanções e à Ucrânia, atacando as respostas democráticas do Ocidente. Fonte: Geissler, D., Bär, D., Pröllochs, N. et al. Russian propaganda on social media during the 2022 invasion of Ukraine. EPJ Data Sci. 12, 35 (2023). Criação de contas falsas operadas por bots por altura da invasão da Ucrânia (durante 2022) Fonte: Geissler, D., Bär, D., Pröllochs, N. et al. Russian propaganda on social media during the 2022 invasion of Ukraine. EPJ, Data Sci. 12, 35 (2023). Scores sobre o estado da Liberdade nos diversos países Freedom Scores (Fonte: Freedom House) A Tech Accord to Combat Deceptive Use of AI in 2024 Elections ISCTE MediaLab Disinformation makes Portuguese elections the most monitored in Europe (Fonte: Política ao minuto 18-05- 2024) REPORT on foreign interference in all democratic processes in the European Union, including disinformation (Fonte: Report A9-0187/2023, European Parliament, 15.5.2023) Combating foreign interference in elections (Fonte: Think Tank, European Parliement, At a Glance 01-03-2024) Mesa redonda sobre IA e democracia (Fonte: 2.º Simpósio Português Sobre Filosofia e Inteligência Artificial, 27-09- 2024, P. Castro et al) Técnicas de propaganda computacional Fonte: Computational propaganda techniques, 2018, European Parliamentary Research Service (EPRS) 1. Algoritmos em plataformas sociais e search engines (segmentação/profiling automáticos a partir de dados comportamentais) 2. Bots em contas automatizadas e IAs generativas Um bot (abreviatura de robot) é uma conta automatizada programada para interagir como um utilizador, em particular nas redes sociais. Alguns dos bots utilizados para difundir desinformação no contexto das eleições presidenciais francesas de 2017 tinham sido anteriormente utilizados nas eleições americanas para difundir conteúdos pró-Trump, o que indica que existe um mercado negro para redes de bots de desinformação reutilizáveis. Técnicas de propaganda computacional 2. Bots em contas automatizadas e IAs generativas Em resposta à crescente preocupação com o impacto dos bots de desinformação, o Twitter suspendeu até 70 milhões de contas entre maio e junho de 2018. O Facebook removeu 583 milhões de contas falsas no primeiro trimestre de 2018, numa tentativa de combater as notícias falsas. Os especialistas prevêem que a próxima geração de bots utilizará o processamento de linguagem natural, tornando mais difícil identificá-los como bots (ver também a desativação em 2025 dos sistemas de fact checking por Musk e Zukerberg). Técnicas de propaganda computacional 3. Trolls (online bullies), agentes humanos, por vezes patrocinados por Estados, para assediar outros utilizadores ou publicar conteúdos polémicos para suscitar controvérsia 4. IA, MADCOMs (Machine-driven communications) e deep fakes, O MADCOM pode utilizar chatbots que utilizam o processamento de linguagem natural para envolver os utilizadores em discussões online, ou mesmo para trollar e ameaçar pessoas Técnicas de propaganda computacional 5. Spear phishing No spear phishing (phishing direcionado), emails com anexos ou ligações infectadas são enviadas a indivíduos ou organizações com o objetivo de aceder a informações confidenciais. 6. Distributed denial of service (DDoS) Nos ataques DDoS, são enviadas quantidades maciças de informação para os sites, sobrecarregando-os de forma a ficarem inoperacionais Técnicas de propaganda computacional 7. Brute force attacks on internet of things (IoT) devices Antes da cimeira de julho de 2018 entre o Presidente dos EUA, Donald Trump, e o Presidente da Rússia, Vladimir Putin, em Helsínquia, hackers baseados na China lançaram uma onda de ataques a dispositivos IoT na Finlândia, com o objetivo de assumir o controlo dos dispositivos para recolher informações áudio ou visuais. Os dispositivos IoT estão mal protegidos, e são vulneráveis brute force attacks - tentativas de tentativa e erro para decifrar uma palavra-passe - em portas de gestão remota. O Totalitarismo segundo Hannah Arendt (1906-1975) Hannah Arendt, Ideology and Terror: A Novel Form of Government, The Review of Politics, Vol. 15, No. 3 - Jul., 1953, pp. 303 - 327 Fonte: Hannah Arendt. Uma Biografia, Samantha Rose Hill Totalitarismo (como no regime Nazi ou Estalinista) 1. Assume-se como instrumento de uma lei Natural ou de uma lei Histórica de forma a melhorar a humanidade de acordo com essa lei, até que a humanidade se identifique plenamente com o resultado que a lei prevê. 2. Elimina o interesse pessoal de cada indivíduo em favor do interesse global da pretensa forma de humanidade a atingir, de acordo com as leis da Natureza ou com as leis da História invocadas para o efeito, que o totalitarismo se propõe fazer cumprir no mundo. Sacrifica as “partes” em favor do “todo”. Totalitarismo (como no regime Nazi ou Estalinista) 3. Agrega todos os indivíduos numa estrutura social coesa, sem que haja espaço entre eles para acção livre. Como se a pluralidade desaparecesse em favor de um só humano de dimensões gigantescas. (the iron band of terror) 4. Utiliza uma ideologia que a partir de uma premissa explica tudo o que sucede no mundo. As ideologias combinam a abordagem científica com resultados de relevância filosófica e fingem ser filosofia científica. As ideologias partem sempre do princípio de que uma ideia é suficiente para explicar tudo no desenvolvimento a partir da premissa, e que nenhuma experiência pode ensinar nada porque tudo é compreendido neste processo consistente de dedução lógica. Totalitarismo (como no regime Nazi ou Estalinista) 5. Utiliza a solidão dos indivíduos para os instrumentalizar a favor do cumprimento da ideologia totalitarista. Solidão é o estado humano próprio de irrelevância e de não pertença a nada. Não é o mesmo que solitude (querer estar sozinho ou consigo mesmo). O risco de um Totalitarismo tecnológico (AI Totalitarianism) Totalitarismo tecnológico é uma forma possível de totalitarismo sustentada por: 1. Um único sistema económico universal capitalista, dedicado a aumentar ilimitadamente as margens de capital 2. Uma ideologia universal, afirmando que a ciência explicará e resolverá todos os problemas humanos 3. Um sistema de vigilância tecnológica universal, composto por IA's interligadas, recolhendo informação sobre e recomendando comportamentos a pessoas e a outras IAs, enquanto controla o nosso acesso à educação, ao emprego, ao crédito e à justiça, de acordo com normas codificadas nas IAs Propriedades possíveis de um Totalitarismo Tecnológico 1. Invasão da esfera mental dos cidadãos com recomendações omnipresentes sobre a forma como devemos viver as nossas vidas, conduzindo os nossos interesses pessoais, saúde, situação financeira, registo criminal, crenças religiosas e políticas, competências profissionais e experiência laboral 2. Tira partido da velocidade vertiginosa do quotidiano e da informação nos feeds nas redes sociais para baixar a atenção racional e o espírito crítico (atenção fragmentada, falta de concentração na leitura, superficialidade de conteúdo). 3. Promove a hiper-sociabilidade, a procura de relevância e atenção de terceiros, originando uma solidão (tecnologicamente) organizada (Samantha Rose Hill, 2020). A respeito da relação entre solidão e dependência das redes sociais: A solidão e as redes sociais: por que nos sentimos tão sós nos locais do mundo mais apinhados de gente?, Rui Miguel Costa et al, gente, Ispa - Instituto Universitário, Lisboa, 2023 The Internet and Loneliness, Andrew P. Smith et al, AMA J Ethics. 2023;25(11):E833-838. 4. Instrumentaliza as mentes através de feeds altamente dirigidos a cada utilizador, num ambiente mediático de enorme ruído (notificações, conteúdos efémeros) produzindo uma alienação (afastamento) da realidade. 5. Reconfigura conceptualmente a verdade externa ao ambiente digital a partir do mesmo Uma maneira possível de contrariar o risco de um Totalitarismo Tecnológico The Right to be Wrong (O direito a estar errado) O direito ético que cada pessoa tem de se desviar de uma norma social, imposta por uma IA através dos seus mecanismos de recomendação Phil Howard Director do Oxford University’s Programme on Democracy and Technology e Professor of Internet Studies no Balliol College, Universidade de Oxford, UK. Prof Phil Howard & Nicola Aitken: "Lie machines: misinformation in a Post-Covid world" in Youtube O que é uma Máquina de mentiras (Lie Machine) Fonte: Howard, P. N. (2020). The Science and Technology of Lie Machines In Lie Machines - How to Save Democracy from Troll Armies, Deceitful Robots, Junk News Operations, and Political Operatives (pp. 1-4; 6-7; 10-18). Yale University Press. É um sistema social e tecnológico que difunde mentiras políticas com o intuito de subverter a confiança pública em pessoas, organizações e instituições credíveis A China emprega dois milhões de pessoas para escrever 448 milhões de mensagens por ano A presidência mexicana tinha setenta e cinco mil contas altamente automatizadas veiculando conteúdos de apoio às políticas presidenciais O Vietname formou dez mil estudantes para actuarem como tropas cibernéticas para combate à dissidência online Três componentes das Máquinas de mentira 1. O produtor de mentiras que servem uma ideologia ou os interesses de elites políticas. Frequentemente, candidatos políticos, equipas de campanha, partidos políticos e agências de governos autoritários, mas também actores políticos marginais que apenas querem perturbar a vida pública. 2. O distribuidor de mentiras: o algoritmo que as empresas de redes sociais fornecem para a difusão de conteúdos. Redes sociais como o Facebook, Instagram, Twitter e WhatsApp - e os dados que recolhem sobre as nossas preferências políticas - são o sistema de distribuição de mentiras políticas. 3. O comerciante de mentiras políticas, normalmente uma empresa de consultoria, um lobista ou um político contratado que lucra com a venda, amplificação e promoção da desinformação. As grandes máquinas de mentiras têm sistemas de produção, distribuição e marketing internacionais. QUESTÃO PARA O DEBATE DA PRÓXIMA AULA Contas falsas nas redes sociais, fazendo uso de Bots, atacam políticos e figuras públicas denegrindo as suas imagens no espaço mediático. Agentes maliciosos publicam teorias da conspiração e “junk news” para promover as suas convicções distorcidas acerca da realidade social. Dirigentes responsáveis por campanhas políticas criam perfis falsos nas redes sociais para atrair o voto jovem, indeciso ou de protesto. Vivemos num mundo em que a nossa atenção é desviada pelas tecnologias digitais, envenenando o diálogo político. QUESTÃO PARA O DEBATE DA PRÓXIMA AULA “As tecnologias digitais conduzem inevitavelmente ao fim das democracias ocidentais?” QUESTÃO PARA O DEBATE DA PRÓXIMA AULA 1. Haverá DOIS grupos, aquele que defende que Sim, o que defende que Não Cada grupo dispõe de 15 a 20 minutos (min 5 slides x 3 min) para expor as suas ideias e convencer fundamentadamente os colegas e o Prof de que a sua posição é a mais correta 2. Cada grupo envia ao Prof. até 6ª feira texto (1- 2 pp) com apresentação da sua posição. O texto deve estar em PDF e o nome do ficheiro deverá respeitar a norma, conforme exemplo: Debate_01_Tópico_02_TDG_G1.PDF O texto de apoio tem como título “The Science and Technology of Lie Machines”. 4. Para além dos elementos contidos no texto de apoio, cada grupo pode (e deve) na sua exposição utilizar informação a partir da Internet (webpages, vídeos, ChatGPT ou outros LLMs), assim como a partir de outros livros e textos. Podem expor apresentando powerpoints, PDFs, de forma oral, etc.) Podem utilizar quaisquer argumentos, sem se limitarem necessariamente aos elementos do texto sugerido 5. Avaliação 1. Qualidade e clareza da argumentação 2. Investimento em pesquisa 3. Qualidade formal da apresentação

Use Quizgecko on...
Browser
Browser