Alexa, você é racista? Racismo algorítmico, vieses e intencionalidade

Autores

DOI:

https://doi.org/10.29147/datjournal.v9i1.749

Palavras-chave:

Racismo algorítmico, Design e ativismo, Algoritmo, Vieses racistas

Resumo

Este artigo busca examinar de forma crítica os algoritmos e suas implicações, levantando questões sobre equidade, justiça social e responsabilidade ética. Além disso, propor medidas para mitigar os efeitos negativos do viés algorítmico, como o desenvolvimento de práticas de design mais inclusivas, revisões sistemáticas de algoritmos existentes, maior transparência e prestação de contas por parte das empresas e organizações que os utilizam. Através dessas análises e propostas, o artigo pretende contribuir para um debate mais amplo e informado sobre o viés algorítmico, incentivando ações e soluções que promovam a equidade e a justiça nos sistemas impulsionados por algoritmos.

Downloads

Não há dados estatísticos.

Biografia do Autor

Jean Carlos de Oliveira

graduado em Tecnologia e Mídias Digitais, com ênfase em Arte e Tecnologia, pela PU- CSP (2007), possui especialização em Sócio Psicologia pela FESP (2011) e em Docência no Ensino Superior pelo Centro Universitário Senac (2020). Foi aluno bolsista no Programa de Mestrado em Design na UAM (2022 a 2024) e integrou o grupo de pesquisa “Design,arte e memória: perspectivas contemporâneas”, orientado pela Profa. Dra. Palavras-chave Racismo algorítmico, Design e ativismo, Algoritmo, Vieses racistas. Priscila Arantes, na UAM. Atualmente, é docente nos cursos de Design na Universidade São Judas.

Priscila Almeida Cunha Arantes

pesquisadora, crítica e curadora no campo da arte e estética contemporânea. Possui graduação em Filosofia pela USP, com pós-doutorado pela UNICAMP e pela Penn State University (EUA). É professora do Departamento de Artes da PUC/SP e diretora adjunta da Faculdade de Filosofia, Comunicação, Letras e Artes. Além disso, leciona no PPG em Design da Universidade Anhembi Morumbi. Entre 2007 e 2020, foi diretora e curadora do Paço das Artes, instituição da Secretaria de Estado da Cultura de SP, onde desenvolveu diversos proje- tos curatoriais, seminários nacionais e internacionais, eventos e publicações. É autora de “Arte @ Mídia: perspectivas da estética digital” (FAPESP/SENAC), Keywords Algorithmic racism, Design, and activism, Algorithm, Racist biases. finalista do 48º Prêmio Jabuti, “Reescrituras da Arte Contemporânea: história, arquivo e mídia” (Ed. Sulina), “Urgências na Arte”, entre outros trabalhos. Também atua como vice-diretora daABCA (Associação Brasileira de Críticos de Arte) e integra, como convidada, o grupo de pesquisadores do ID+, instituto de pesquisa da Universidade de Porto e Aveiro (Portugal).

Referências

GILLESPIE, Tarleton. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. New Haven: Yale University Press, 2018, p.160. DOI: https://doi.org/10.12987/9780300235029

JURNO, Amanda Chevtchouk. (In)visibilidade algorítmica no “feed de notícias” do Facebook. Contemporânea: Comunicação e Cultura, Salvador, v. 15, n. 2, p. 463-484, maio/ago. 2017. DOI: https://doi.org/10.9771/contemporanea.v15i2.17796. Disponível em: https://periodicos.ufba.br/index.php/contemporaneaposcom/article/view/17796 - Acesso em 07/06/2023. DOI: https://doi.org/10.9771/contemporanea.v15i2.17796

JURNO, Amanda Chevtchouk. Questões e apontamentos para o estudo de algoritmos. Parágrafo, São Paulo, v.6, n. 1, p. 17-29, jan./abr. 2018. Disponível em: https://revistaseletro-nicas.fiamfaam.br/index.php/recicofi/article/view/709 - Acesso em 07/06/2023.

NADAL, K. L. (2014). A guide to responding to microaggressions. In CUNY Forum (Vol. 2,No. 1, pp. 71-76).

NOBLE, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018. DOI: https://doi.org/10.2307/j.ctt1pwt9w5

NOBLE, Sofiya Umoja. Google Search: hiper-visibility as a means of rendering black woman and girls invisible. InVisible Culture: an Eletronic Journal for Visual Culture, Rochester, v. 19, 29 out. 2013. Disponível em: http://ivc.lib.rochester.edu/google-search-hyper-vi-sibility-as-a-means-of-rendering-black-women-and-girls-invisible/ - Acesso em 07/06/2023. DOI: https://doi.org/10.47761/494a02f6.50883fff

O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Broadway Books, 2016.

OPENAI. “ChatGPT é uma inteligência artificial de linguagem natural desenvolvida pela OpenAI, que usa uma arquitetura de rede neural para gerar respostas a perguntas feitas por usuários.” Disponível em: https://chat.openai.com/share/45f91530-60f9-49e-6-a96b-f1e23e0fa76f - Acesso em 13/06/2023.

SILVA, Tarcízio. Racismo Algorítmico: inteligência artificial e discriminação nas redes digitais. São Paulo: Edições Sesc, 2022. DOI: https://doi.org/10.29327/269579.6.3-14

SILVA, Tarcízio. Visão computacional e racismo algorítmico: branquitude e opacidade no aprendizado de máquina. Revista da ABPN, Guarulhos, v. 12, n. 31, p. 428-448, dez. 2019/fev. 2020. DOI: https://doi.org/10.31418/2177-2770.2020.v12.n.31.p428-448

SILVA, Tarcízio. #1 - Eu Existo? O Racismo Algorítmico na rede. Entrevistador: Giovanne Ramos. Comunicando em Preto - Spotify, 29/06/2022. Podcast. Disponível em: https://open.spotify.com/episode/2HKqIEHX1yFU6dyMfUz6Gg?i=lsZbA9AJQmOAtwFRTnHP4A&nd=1. Acesso em 13/06/2023.

SCHNOOR, Marina. IA do Facebook rotulou vídeo de homens negros como ‘primatas’; empresa pede desculpas. Olhar Digital. 2021. Disponível em: https://olhardigital.com.br/2021/09/04/internet-e-redes-sociais/ai-facebook-rotulou-video-homens-negros-primatas/ - Acesso em 07/06/2023.

VIÉS. In: HOUAISS, Antônio. Dicionário Houaiss da Língua Portuguesa. Rio de Janeiro, Ed. Objetiva, 2023 [online]. Disponível em: https://houaiss.uol.com.br/corporativo/apps/uol_www/v6-1/html/index.php#0 – Acesso em 07/06/2023.

Downloads

Publicado

2024-04-10

Como Citar

Oliveira, J. C. de, & Arantes, P. A. C. (2024). Alexa, você é racista? Racismo algorítmico, vieses e intencionalidade. DAT Journal, 9(1), 04–16. https://doi.org/10.29147/datjournal.v9i1.749