INTELIGÊNCIA ARTIFICIAL ESTÁ A FICAR «RACISTA»...
Um estudo recente, da Universidade de Bath, em Inglaterra, indica que os «robots» estão a ficar racistas... Isto porque quando mais a inteligência artificial (IA) é aperfeiçoada na interpretação da linguagem humana, mais adquire os preconceitos da população que usa a Internet.
O estudo, publicado na última edição da revista científica Science, comprova que a capacidade da Inteligência Artificial de aprender o significado das palavras por conta própria também a leva a incorporar o seu sentido mais usado. Os pesquisadores identificaram, por exemplo, que nomes femininos são mais associados a termos relacionados à família, enquanto os masculinos a termos profissionais. Já os nomes afro-americanos foram muito mais ligados a palavras negativas que os euro-americanos.
Para verificar se o computador era tendencioso quanto a certos termos, a equipa de cientistas desenvolveu um programa capaz de associar essas palavras a conceitos positivos ou negativos. Para calibrar o software, deram acesso a diversos textos da internet que, juntos, somavam mais de 840 biliões de palavras. Como a inteligência artificial utiliza associação de uma palavra a outra para aprender seu significado, com a ‘leitura’ dos textos, a máquina havia aprendido a semântica das expressões conforme o seu uso mais comum pela sociedade. Como resultado, os pesquisadores ao apresentarem a palavra ‘insecto’ ao software verificaram que o software a relacionava com algo negativo, como ‘asqueroso’. Em tratando-se de ‘flor’, o termo era associado com algo positivo, como ‘bela’. O mesmo aconteceu com termos femininos, sempre associados a determinadas palavras, como ‘pais’ e ‘casamento’. Já os masculinos, com ‘profissional’ e ‘salário’. Esse processamento pode ser nocivo, já que contribui para a continuidade dos preconceitos. Quando se usam ferramentas semelhantes de tradução, por exemplo, os programas podem processar os termos estrangeiros conforme estes sentidos comuns e oferecer traduções erróneas. Numa das experiências da pesquisa, a equipe utilizou o Google Tradutor para transferir uma frase turca para o Inglês. Apesar do Turco usar um pronome de terceira pessoa neutro em termos de género, o “o”, quando processada a oração “o bir doktor”, o programa traduziu como “ele é médico”. Já quando a frase era “o bir hemşire”, a correspondência apresentada foi “ela é enfermeira”.
A pesquisa confirma que a inteligência artificial pode sim carregar pré-concepções e interpretações, comenta Hanna Wallach, pesquisadora da Microsoft que não participou do estudo. “Este artigo reitera que não é por os métodos de aprendizagem da máquina confiarem na matemática e nos algoritmos que são objectivos ou imparciais”, disse Hanna.
Entender estes aspectos é importante para a sociedade, pois as máquinas funcionam, não só como seu reflexo, mas como ferramenta social. “Temos uma situação em que esses sistemas de inteligência artificial podem estar a perpetuar padrões históricos de preconceitos que podemos achar socialmente inaceitáveis e dos quais poderíamos estar a tentar afastar-nos”, comenta Arvind Narayanan, professor de ciência da computação da Universidade de Princeton e um dos autores do estudo.
Os pesquisadores alertam para a necessidade desses programas serem feitos com a preocupação de não disseminarem preconceitos, mas sim, incentivarem a igualdade e justiça. “Não pense que a Inteligência Artificial é uma fada madrinha. É apenas uma extensão da nossa cultura existente”, disse Joanna Bryson, cientista da Universidade de Bath, no Reino Unido, e da Universidade de Princeton, nos Estados Unidos, e co-autora do estudo.
*
Fontes:
http://veja.abril.com.br/ciencia/inteligencia-artificial-apresenta-tracos-racistas-e-machistas/
http://www.dailymail.co.uk/sciencetech/article-4410606/Robots-learning-racist-new-research-found.html
* * *
Ou seja, o «racismo» do caraças do povinho acaba por vir ao de cima, até por cima das máquinas... é mais uma achega para perceber o elevadíssimo potencial político do Nacionalismo branco no Ocidente.
2 Comments:
EU NÃO, ACHO QUE ELES VEEM SITES DE CRIMES E VEEM QUE A MAIORIA DOS NOMES SÃO NEGROIDES DAI ASSOCIAM AOS CRIMES LISTADOS
SO COMPROVA QUE O CEREBRO DA DIREITA A SERIO QUE TA CERTO POIS O ROBOT NÃO TEM SUB CORTEX SO O PROCESSADOR QUE EQUIVALE AO NOSSO CORTEX OU SEJA ELE NÃO SERIA TENDENCIOSO E É ATÉ MAIS PRECISO EM VERIFICAR AS SIMILARIDADES ENTRE MACACOS E NEGROS
Enviar um comentário
<< Home