Artwork

A tartalmat a Instituto Claro biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Instituto Claro vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Player FM - Podcast alkalmazás
Lépjen offline állapotba az Player FM alkalmazással!

O que é racismo algorítmico?

8:03
 
Megosztás
 

Manage episode 421028229 series 3097134
A tartalmat a Instituto Claro biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Instituto Claro vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.

Especialista explica como a inteligência artificial reproduz o preconceito nos ambientes virtuais

Racismo algorítmico é uma espécie de transposição do racismo estrutural da sociedade para ambientes digitais. A discriminação acontece principalmente por meio de ferramentas de inteligência artificial, que são alimentadas por algoritmos.

“Sistemas algorítmicos, às vezes chamados de inteligência artificial, são sistemas que tomam algum tipo de decisão a partir de alguns objetivos definidos: ranquear um conteúdo, classificar uma pessoa ou mesmo transformar um tipo de conteúdo ou de imagem ou de mídia. O problema é: temos um histórico de séculos de violência racial e de discriminação. Então, por exemplo, se um sistema de IA [inteligência artificial] generativa, que faz uma foto aparentemente de forma automatizada, se baseia no histórico de fotos sobre pessoas negras no Brasil, vai haver uma representação muito negativa, relacionada à criminalidade, relacionada à violência, relacionada à pobreza”, explica o mestre em comunicação e cultura contemporâneas pela Universidade Federal da Bahia (UFBA) Tarcízio Silva.

Autor do livro “Racismo Algorítmico: Inteligência artificial e Discriminação nas Redes Digitais”, o pesquisador reflete nesse podcast sobre o que acontece quando as máquinas e programas apresentam resultados discriminatórios. No áudio, Silva comenta que é falsa a ideia de que tecnologias digitais seriam neutras.

“Quando a gente pensa a internet, que foi muito festejada como a infovia do conhecimento, de fato revolucionou como a gente circula conhecimento, mas ao mesmo tempo aumentou a insegurança sobre o que é verdade e o que não é verdade. E a desinformação passou cada vez mais a ser estratégica para alguns grupos que preferem que a desinformação circule para diferentes fins: ganhos políticos, financeiros etc.”, argumenta.

Um exemplo de racismo algorítmico é quando uma pessoa negra é representada de forma negativa no resultado da busca de imagens na internet ou a partir de ferramentas de inteligência artificial. A doutora em ciência política pela Universidade Federal de Minas Gerais (UFMG) e pesquisadora do Data Privacy Brasil Johanna Monagreda cita o caso da deputada estadual Renata Souza (Psol-RJ) que, em outubro de 2023, relatou ter passado por esse tipo de discriminação ao gerar uma imagem via inteligência artificial.

“Ela deu as instruções para o aplicativo: ‘Ah, eu quero que você faça a imagem de uma mulher negra com cabelo black na favela’. Ela descreveu a imagem que queria, e a inteligência artificial devolveu para ela a imagem de uma mulher negra com cabelo black na favela e incorporou uma arma na mão daquele desenho. Esse é um claro exemplo de racismo algorítmico, porque estereótipos sobre pessoas negras e sobre estar na favela ou a vida em comunidade acabaram sendo imbricados na tecnologia, de forma que, na produção dessa imagem, a própria tecnologia fez a relação que a humanidade faz, que é aquela relação de a favela como um território de violência”, explica Monagreda.

Os pesquisadores trazem também outros exemplos com consequências que podem ser ainda mais prejudiciais. “Como um aplicativo de transporte, que estabelece preços maiores para comunidades onde mais pessoas negras e pobres moram ou mesmo no caso do reconhecimento facial, que tem uma precisão inferior quando se pensa em pessoas não brancas de modo geral”, afirma Silva.

Monagreda comenta ainda o caso do torcedor do time de futebol Confiança, que, em 13 de abril de 2024, foi detido por agentes da polícia militar por erro de reconhecimento facial. A situação aconteceu na final do Campeonato Sergipano. “Ele foi identificado pela câmera de reconhecimento facial como uma pessoa em conflito com a lei, e ele teve que passar por uma abordagem policial, saiu do estádio algemado. Mas, além disso, ele teve um constrangimento público muito grande, porque foi num estádio, na frente de todo mundo”, argumenta a pesquisadora.

Após o episódio, foi suspenso o uso de reconhecimento facial no estádio durante os jogos do time sergipano. Silva acredita que situações assim fazem uma parcela das pessoas perceber a necessidade de ter um olhar mais crítico sobre o que é acessado online.

“Isso é importante, é positivo, em alguma medida. E se a gente conseguir transformar a educação para que cada vez mais, enquanto cidadãos, possamos desenvolver essas habilidades – pesquisar a veracidade de informações e interagir online –, podemos ter um futuro mais produtivo, justo e seguro para todos, conclui o pesquisador.

Crédito da imagem: VioletaStoimenova – Getty Images

  continue reading

357 epizódok

Artwork
iconMegosztás
 
Manage episode 421028229 series 3097134
A tartalmat a Instituto Claro biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Instituto Claro vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.

Especialista explica como a inteligência artificial reproduz o preconceito nos ambientes virtuais

Racismo algorítmico é uma espécie de transposição do racismo estrutural da sociedade para ambientes digitais. A discriminação acontece principalmente por meio de ferramentas de inteligência artificial, que são alimentadas por algoritmos.

“Sistemas algorítmicos, às vezes chamados de inteligência artificial, são sistemas que tomam algum tipo de decisão a partir de alguns objetivos definidos: ranquear um conteúdo, classificar uma pessoa ou mesmo transformar um tipo de conteúdo ou de imagem ou de mídia. O problema é: temos um histórico de séculos de violência racial e de discriminação. Então, por exemplo, se um sistema de IA [inteligência artificial] generativa, que faz uma foto aparentemente de forma automatizada, se baseia no histórico de fotos sobre pessoas negras no Brasil, vai haver uma representação muito negativa, relacionada à criminalidade, relacionada à violência, relacionada à pobreza”, explica o mestre em comunicação e cultura contemporâneas pela Universidade Federal da Bahia (UFBA) Tarcízio Silva.

Autor do livro “Racismo Algorítmico: Inteligência artificial e Discriminação nas Redes Digitais”, o pesquisador reflete nesse podcast sobre o que acontece quando as máquinas e programas apresentam resultados discriminatórios. No áudio, Silva comenta que é falsa a ideia de que tecnologias digitais seriam neutras.

“Quando a gente pensa a internet, que foi muito festejada como a infovia do conhecimento, de fato revolucionou como a gente circula conhecimento, mas ao mesmo tempo aumentou a insegurança sobre o que é verdade e o que não é verdade. E a desinformação passou cada vez mais a ser estratégica para alguns grupos que preferem que a desinformação circule para diferentes fins: ganhos políticos, financeiros etc.”, argumenta.

Um exemplo de racismo algorítmico é quando uma pessoa negra é representada de forma negativa no resultado da busca de imagens na internet ou a partir de ferramentas de inteligência artificial. A doutora em ciência política pela Universidade Federal de Minas Gerais (UFMG) e pesquisadora do Data Privacy Brasil Johanna Monagreda cita o caso da deputada estadual Renata Souza (Psol-RJ) que, em outubro de 2023, relatou ter passado por esse tipo de discriminação ao gerar uma imagem via inteligência artificial.

“Ela deu as instruções para o aplicativo: ‘Ah, eu quero que você faça a imagem de uma mulher negra com cabelo black na favela’. Ela descreveu a imagem que queria, e a inteligência artificial devolveu para ela a imagem de uma mulher negra com cabelo black na favela e incorporou uma arma na mão daquele desenho. Esse é um claro exemplo de racismo algorítmico, porque estereótipos sobre pessoas negras e sobre estar na favela ou a vida em comunidade acabaram sendo imbricados na tecnologia, de forma que, na produção dessa imagem, a própria tecnologia fez a relação que a humanidade faz, que é aquela relação de a favela como um território de violência”, explica Monagreda.

Os pesquisadores trazem também outros exemplos com consequências que podem ser ainda mais prejudiciais. “Como um aplicativo de transporte, que estabelece preços maiores para comunidades onde mais pessoas negras e pobres moram ou mesmo no caso do reconhecimento facial, que tem uma precisão inferior quando se pensa em pessoas não brancas de modo geral”, afirma Silva.

Monagreda comenta ainda o caso do torcedor do time de futebol Confiança, que, em 13 de abril de 2024, foi detido por agentes da polícia militar por erro de reconhecimento facial. A situação aconteceu na final do Campeonato Sergipano. “Ele foi identificado pela câmera de reconhecimento facial como uma pessoa em conflito com a lei, e ele teve que passar por uma abordagem policial, saiu do estádio algemado. Mas, além disso, ele teve um constrangimento público muito grande, porque foi num estádio, na frente de todo mundo”, argumenta a pesquisadora.

Após o episódio, foi suspenso o uso de reconhecimento facial no estádio durante os jogos do time sergipano. Silva acredita que situações assim fazem uma parcela das pessoas perceber a necessidade de ter um olhar mais crítico sobre o que é acessado online.

“Isso é importante, é positivo, em alguma medida. E se a gente conseguir transformar a educação para que cada vez mais, enquanto cidadãos, possamos desenvolver essas habilidades – pesquisar a veracidade de informações e interagir online –, podemos ter um futuro mais produtivo, justo e seguro para todos, conclui o pesquisador.

Crédito da imagem: VioletaStoimenova – Getty Images

  continue reading

357 epizódok

Усі епізоди

×
 
Loading …

Üdvözlünk a Player FM-nél!

A Player FM lejátszó az internetet böngészi a kiváló minőségű podcastok után, hogy ön élvezhesse azokat. Ez a legjobb podcast-alkalmazás, Androidon, iPhone-on és a weben is működik. Jelentkezzen be az feliratkozások szinkronizálásához az eszközök között.

 

Gyors referencia kézikönyv