INTELIGÊNCIA ARTIFICIAL NO DIREITO: PELO USO ÉTICO DAS NOVAS TECNOLOGIAS
Palavras-chave:
Inteligência artificial, racismo, ética e direitos humanosResumo
O presente artigo tem por objetivo abordar brevemente acerca da discriminação algorítmica envolvendo, especificamente, as pessoas negras, em que ferramentas são desenvolvidas mediante a utilização da inteligência artificial (IA), a fim de atender aos interesses do racismo e da supremacia branca, como por exemplo, programas de inteligência artificial montados para a segurança pública, para a seleção de currículos nos processos seletivos automatizados e vendas de apólices pelas seguradoras. E a conclusão para que não haja tratamento discriminatório é que sejam aplicados parâmetros éticos, morais, democráticos, na criação de tais ferramentas, em prol dos direitos humanos e da dignidade da pessoa humana.
Downloads
Referências
ALMEIDA, Silvio Luiz de. Racismo estrutural. São Paulo: Editora Jandaíra, 2021.
BAUMAN, Zygmunt. Modernidade líquida. Tradução: Plínio Dentzien. Rio de Janeiro: Zahar, 2001.
CARNEIRO, Sueli. Racismo, sexismo e desigualdade no Brasil. São Paulo: Selo Negro, 2011.
FANON, Frantz. Pele negra máscaras brancas. Tradução: Renato da Silveira. Salvador: EDUFBA, 2008.
FRAZÃO, Ana. Responsabilidade civil de administradores de sociedades empresárias por decisões tomadas com base em sistemas de inteligência artificial. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020.
HARARI, Yuval Noah. 21 lições para o século 21. Tradução: Paulo Geiger. 1. ed. são Paulo: Companhia das Letras, 2018.
JUNQUEIRA, Thiago. Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros. São Paulo: Thomson Reuters Brasil, 2020.
LEE, Kai-Fu. Inteligência artificial: como os robôs estão mudando o mundo, a forma como amamos, nos comunicamos e vivemos. Rio de Janeiro: Globo livros, 2019.
MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre: Arquipélago Editorial, 2019.
MAGRANI, Eduardo; SILVA, Priscila e VIOLA, Rafael. Novas perspectivas sobre ética e responsabilidade de inteligência artificial. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020.
MULHOLLAND, Caitlin. Responsabilidade civil e processos decisórios autônomos em sistemas de inteligência artificial (IA): autonomia, imputabilidade e responsabilidade. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020.
NAZARÉ, Maria Helena. Big Data e desafios éticos. In Ética aplicada: novas tecnologias. NEVES, Maria do Céu Patrão e CARVALHO, Maria da Graça (Coord.). 1. ed. jul 2018. Lisboa- Portugal: Edições 70. 2018.
NUNES, Pablo. The Intercept Brasil. Levantamento revela que 90,5% dos presos por monitoramento facial no Brasil são negros. 2019. Disponível em: https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/. Acesso em 14 abr. 2021.
O´NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Tradução: Rafael Abraham. Santo André-SP: Rua do Sabão, 2020.
RODOTÀ, Stefano. A vida na sociedade da vigilância – a privacidade hoje. Tradução: Danilo Doneda e Luciana Cabral Doneda. Rio de Janeiro: Renovar, 2008.
SCHWARCZ, Lilia K. Moritz. Uso e abusos da mestiçagem e da raça no Brasil: uma história das teorias raciais em finais do século XIX. Afro-Ásia, 18 (1996), p. 77-101. Disponível em: https://periodicos.ufba.br/index.php/afroasia/article/view/20901. Acesso em 14 abr. 2021.
SILVA, Tarcízio. Comunidades, algoritmos e ativismos digitais: olhares afrodiaspóricos. 2. ed. São Paulo: LiteraRUA, 2021.
SULOCKI, Victoria de. Novas tecnologias, Velhas discriminações: ou da Falta de Reflexão sobre o Sistema de Algoritmos na Justiça Criminal. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020.
WIMMER, Miriam. Responsabilidade de agentes empresariais por ilícitos administrativos praticados por sistemas de inteligência artificial. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020.
Notas:
1 Pós-graduanda em Direito dos Contratos (PUC-Rio). Especialista em Direito Público e Privado (EMERJ). Certificação DPO-EXIN. Advogada. E-mail: paulaamaral29@yahoo.com.br.
2 JUNQUEIRA, Thiago. Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros. São Paulo: Thomson Reuters Brasil, 2020. p. 221 e 224.
3 “Aos olhos de fora, o Brasil há muito tempo era visto com uma espécie de laboratório racial, como um local onde a mistura de raças era mais interessante de ser observada do que a própria natureza. (...) Gobineau, que permaneceu no Brasil durante quinze meses, como enviado francês, queixava-se: “Trata-se de uma população totalmente mulata, viciada no sangue e no espírito e assustadoramente feia.” (SCHWARCZ, Lilia K. Moritz. Uso e abusos da mestiçagem e da raça no Brasil: uma história das teorias raciais em finais do século XIX. Afro-Ásia, 18 (1996), 77-101. Disponível em: https://periodicos.ufba.br/index.php/afroasia/article/view/20901. p. 88. Acesso em 14 abr. 2021.
4 “Já em maio de 1888, saía em vários jornais brasileiros um artigo polêmico, assinado por Nina Rodrigues, onde o famoso médico da escola baiana concluía que “os homens não nascem iguais. Supõe-se uma igualdade jurídica entre as raças, sem a qual não existiria o Direito” Dessa maneira, e solapando o discurso da lei, esse “homem de sciencia”, logo após a abolição formal da escravidão, passava a desconhecer a igualdade e o próprio livre arbítrio, em nome de um determinismo científico e racial. A posição não se limitava aos jornais Nina Rodrigues publicava em 1894, As raças humanas e a responsabilidade penal no Brasil, onde defendia não só a proeminência do médico na atuação penal, como advogava a existência de dois códigos no país – um para negros, outro para brancos, - correspondentes aos diferentes graus de evolução apresentados por esses dois grupos.” (SCHWARCZ, Lilia K. Moritz. Uso e abusos da mestiçagem e da raça no Brasil: uma história das teorias raciais em finais do século XIX. Afro-Ásia, 18 (1996), p. 77-101. Disponível em: https://periodicos.ufba.br/index.php/afroasia/article/view/20901.
88. Acesso em 14 abr. 2021.
5 “O passo para a eugenia e para o combate à miscigenação racial foi quase que imediato. Afinal, as doenças teriam vindo da África, assim como o nosso enfraquecimento biológico seria resultado da mistura racial. É assim que a partir de inícios do século, uma série de artigos especializados passam a vincular a questão da higiene à pobreza e à população mestiça e negra, defendendo métodos eugênicos de contenção e separação da população. (...) Nesses termos a eugenia não é outra cousa sinão o esforço para obter uma raça pura e forte.” (SCHWARCZ, Lilia K. Moritz. Uso e abusos da mestiçagem e da raça no Brasil: uma história das teorias raciais em finais do século XIX. Afro-Ásia, 18 (1996), p. 77-101. Disponível em: https://periodicos.ufba.br/index.php/afroasia/article/view/20901.
94. Acesso em 14 abr. 2021.)
6 SCHWARCZ, Lilia K. Moritz. Uso e abusos da mestiçagem e da raça no Brasil: uma história das teorias raciais em finais do século XIX. Afro-Ásia, 18 (1996), p. 77-101. Disponível em: https://periodicos.ufba.br/index.php/afroasia/article/view/20901. p. 88. Acesso em 14 abr. 2021.
7 SCHWARCZ, Lilia K. Moritz. Uso e abusos da mestiçagem e da raça no Brasil: uma história das teorias raciais em finais do século XIX. Afro-Ásia, 18 (1996), p. 77-101. Disponível em: https://periodicos.ufba.br/index.php/afroasia/article/view/20901. Acesso em 14 abr. 2021.
8 “Comecemos pelas faculdades de Direito cuja lógica está atrelada à própria emancipação política de 1882. Criadas em 1827, as duas escolas de Direito – uma em Recife, outra em São Paulo – visavam atender às diferentes regiões do país, e criar uma intelligentsia nacional capaz de responder às demandas de autonomia da nova nação. (....) Na verdade, se partiram de Pernambuco as grandes teorias sobre a mestiçagem, foi São Paulo, como veremos, que se preocupou em implementá-las, a partir dos projetos de importação de mão-de-obra europeia. ( )
foi São Paulo, a província que adotou a política de imigração mais restritiva, no que se refere à entrada de orientais e africanos. Ou seja, a bancada paulista limitou-se a admissão de trabalhadores a apenas alguns países da Europa, a saber: italianos, suecos, alemães, holandeses, noruegueses, dinamarqueses, ingleses, austríacos e espanhóis -, uma clara indicação da coloração que se pretendia para a população local.” (SCHWARCZ, Lilia K. Moritz. Uso e abusos da mestiçagem e da raça no Brasil: uma história das teorias raciais em finais do século XIX. Afro-Ásia, 18 (1996), p. 77-101. Disponível em: https://periodicos.ufba.br/index.php/afroasia/article/view/20901. p. 91. Acesso em 14 abr. 2021.)
9 CARNEIRO, Sueli. Racismo, sexismo e desigualdade no Brasil. São Paulo: Selo Negro, 2011. p. 64.
10 “Todo povo colonizado - isto é, todo povo no seio do qual nasceu um complexo de inferioridade devido ao sepultamento de sua originalidade cultural - toma posição diante da linguagem da nação civilizadora, isto é, da cultura metropolitana. Quanto mais assimilar os valores culturais da metrópole, mais colonizado escapará da sua selva. Quanto mais ele rejeitar sua negridão, seu mato, mais branco será." (FANON, Frantz. Pele negra máscaras brancas. Tradução: Renato da Silveira. Salvador: EDUFBA, 2008. p. 34.)
11 ALMEIDA, Silvio Luiz de. Racismo estrutural. São Paulo: Editora Jandaíra, 2021. p. 50-51.
12 MULHOLLAND, Caitlin. Responsabilidade civil e processos decisórios autônomos em sistemas de inteligência artificial (IA): autonomia, imputabilidade e responsabilidade. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020. p. 331.
13 MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre: Arquipélago Editorial, 2019. p. 208.
14 “(...) no contexto de uma sociedade de vigilância, o big data é capaz de capturar todas as pegadas digitais dos usuários para, a partir daí, utilizar seus “poderes” não apenas para registrar e processar o passado e o presente, como antecipar e decidir o futuro das pessoas. E faz tudo isso a devida transparência e accountability, já que os algoritmos são normalmente considerados segredos comerciais.” (...) “a inteligência artificial tem sido introduzida na atividade empresarial de forma maciça e sem a observância dos necessários cuidados. Os problemas são acentuados pelo aprendizado de máquina, já que o código passa a ser alterado de maneira independente, com aumento das dificuldades para o controle de resultados.” (FRAZÃO, Ana. Responsabilidade civil de administradores de sociedades empresárias por decisões tomadas com base em sistemas de inteligência artificial. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020. p. 508.)
15 “Sistemas de IA possuem a capacidade de “aprender” com base em dados, resultados e padrões anteriores, solucionando problemas de maneira dinâmica, ainda que não tenham sido programados para tanto. A partir de bases de dados de treinamento, o algoritmo aprende a fazer generalizações e, eventualmente, predições, frequentemente a partir de categorizações. Assim, o aprendizado por máquinas permite que se façam previsões sobre os mais diversos assuntos, incluindo se determinada pessoa tem maior ou menor chance de honrar um empréstimo, sobre qual tipo de medicamento potencialmente produzirá melhores resultados sobre certo tipo de doença, ou ainda sobre qual estratégia de compra ou venda de ações poderá carretar maior lucro ao investidor.” (WIMMER, Miriam. Responsabilidade de agentes empresariais por ilícitos administrativos praticados por sistemas de inteligência artificial. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020. p. 385.)
16 MULHOLLAND, Caitlin. Responsabilidade civil e processos decisórios autônomos em sistemas de inteligência artificial (IA): autonomia, imputabilidade e responsabilidade. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020. p. 331.
17 Ibidem. p. 331.
18 LEE, Kai-Fu. Inteligência artificial: como os robôs estão mudando o mundo, a forma como amamos, nos comunicamos e vivemos. Rio de Janeiro: Globo livros, 2019. p. 27.
19 JUNQUEIRA, Thiago. Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros. São Paulo: Thomson Reuters Brasil, 2020. p. 219.
20 O´NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Tradução: Rafael Abraham. Santo André-SP: Rua do Sabão, 2020. p.8.
21 SILVA, Tarcízio. Comunidades, algoritmos e ativismos digitais: olhares afrodiaspóricos. 2. ed. São Paulo: LiteraRUA, 2021. p. 132.
22 SILVA, Tarcízio. Comunidades, algoritmos e ativismos digitais: olhares afrodiaspóricos. 2. ed. São Paulo: LiteraRUA, 2021. p. 132-133.
23 NUNES, Pablo. The Intercept Brasil. Levantamento revela que 90,5% dos presos por monitoramento facial no Brasil são negros. 2019. Disponível em: https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil- negros/. Acesso em 14 abr. 2021.
24 HARARI, Yuval Noah. 21 lições para o século 21. Tradução: Paulo Geiger. 1. ed. são Paulo: Companhia das Letras, 2018. p. 87.
25 O´NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Tradução: Rafael Abraham. Santo André-SP: Rua do Sabão, 2020. p.176-177.
26 MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre: Arquipélago Editorial, 2019. p. 149.
27 O´NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Tradução: Rafael Abraham. Santo André-SP: Rua do Sabão, 2020. p.251-252.
28 O´NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Tradução: Rafael Abraham. Santo André-SP: Rua do Sabão, 2020. p.46.
29 “(...) no que se refere à responsabilidade jurídica, o aspecto central a ser problematizado no contexto de decisões tomadas por sistemas de IA diz respeito à opacidade dos processos decisórios, que coloca em xeque concepções tradicionais associadas à responsabilidade subjetiva, como a existência de voluntariedade ou culpabilidade. É já corriqueiro o uso da expressão Blck Box para se referir à presença difundida de algoritmos, evidenciando, nas palavras de Frank Pasquale (2015, p. 191), o paradoxo da Era da Informação: “os dados se tornam esmagadores em amplitude e profundidade, mas frequentemente a informação mais importante para nós está fora de nosso alcance, disponível somente para insiders.” (WIMMER, Miriam. Responsabilidade de agentes empresariais por ilícitos administrativos praticados por sistemas de inteligência artificial. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020. p. 385.)
30 BAUMAN, Zygmunt. Modernidade líquida. Tradução: Plínio Dentzien. Rio de Janeiro: Zahar, 2001.
31 MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre: Arquipélago Editorial, 2019. p. 136.
32 RODOTÀ, Stefano. A vida na sociedade da vigilância – a privacidade hoje. Tradução: Danilo Doneda e Luciana Cabral Doneda. Rio de Janeiro: Renovar, 2008. p. 237-238
33 SULOCKI, Victoria de. Novas tecnologias, Velhas discriminações: ou da Falta de Reflexão sobre o Sistema de Algoritmos na Justiça Criminal. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020. p. 681-682.
34 MAGRANI, Eduardo; SILVA, Priscila e VIOLA, Rafael. Novas perspectivas sobre ética e responsabilidade de inteligência artificial. In MULHOLLAND, Caitlin e FRAZÃO, Ana. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2020. p. 117. 35 NAZARÉ, Maria Helena. Big Data e desafios éticos. In Ética aplicada: novas tecnologias. NEVES, Maria do Céu Patrão e CARVALHO, Maria da Graça (Coord.). 1. ed. jul 2018. Lisboa-Portugal: Edições 70. 2018. p. 318- 319.
36 MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre: Arquipélago Editorial, 2019. p. 264.
37 MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre: Arquipélago Editorial, 2019. p. 245.
38 MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre: Arquipélago Editorial, 2019. p. 245.
39 Conforme entendimento de Silvio Almeida, “se o racismo é inerente à ordem social, a única forma de uma instituição combatê-lo é por meio da implementação de práticas antirracistas efetivas. É dever de uma instituição que realmente se preocupe com a questão racial investir na adoção de políticas internas que visem: (a) promover a igualdade e a diversidade em suas relações internas e com o público externo – por exemplo, na publicidade; (b) remover obstáculos para a ascensão de minorias em posições de direção e de prestígio na instituição; (c) manter espaços permanentes para debates e eventual revisão de práticas institucionais; (d) promover o acolhimento e possível composição de conflitos raciais e de gênero. A segunda consequência é que o racismo não se limita à representatividade. Ainda que essencial, a mera presença de pessoas negras e outras minorias em espaços de poder e decisão não significa que a instituição deixará de atuar de forma racista.” (ALMEIDA, Silvio Luiz de. Racismo estrutural. São Paulo: Editora Jandaíra, 2021. p. 48-49.)
Palavras Chaves
Inteligência artificial, racismo, ética e direitos humanos.